Waffen sind tabu 12.06.2018, 19:30 Uhr

Google veröffentlicht KI-Grundsatzregeln

Google veröffentlicht sieben Grundsatzregeln für die Entwicklung von KI-Projekten. Ausserdem betonte der Konzern, dass das Unternehmen keine KI entwickeln oder bereitstellen werde, die der Menschheit schaden könne.
(Quelle: Paul Fleet / shutterstock.com)
Google hat festgelegt, dass der Internet-Konzern keine künstliche Intelligenz für Waffen liefern werde. Zugleich werde man in anderen Bereichen weiterhin mit dem Militär und Regierungen zusammenarbeiten, betonte der Konzern.
In den vergangenen Monaten hatte es bei dem Unternehmen massive Kritik an der Kooperation mit einem Drohnen-Projekt des US-Verteidigungsministeriums gegeben. Es nutzte Googles "Tensorflow"-Chips für maschinelles Lernen zur Erkennung von Objekten.
Eine Reihe vor Mitarbeitern kritisierte das. Es gab intern Petitionen, aus dem "Project Maven" auszusteigen. Google veröffentlichte nun Regeln für die Arbeit an künstlicher Intelligenz. Demnach werde Google keine Technologien entwickeln oder einsetzen, die insgesamt Schaden zufügen könnten.
Neben Waffen ist auch Überwachung tabu, die "gegen international anerkannte Normen verstösst". Genauso werde Google keine künstliche Intelligenz entwickeln, die internationales Recht und Menschenrechte verletzt.
Insgesamt ausformuliert hat Google sieben Grundsatzregeln für KI-Projekte:
  1. Schaffe soziale Vorteile
  2. Vermeide die Schaffung oder Verstärkung von Vorurteilen
  3. Die Sicherheit von KI-Technologien hat bei der Entwicklung, Testung und Durchführung oberste Priorität
  4. Arbeite verantwortungsbewusst
  5. Integriere Prinzipien des Datenschutzes in deine KI-Projekte
  6. Hallte eine hohe wissenschaftliche Exzellenz aufrecht
  7. Schaffe ausschliesslich KI-Projekte, die diesen Prinzipien entsprechen, also keinen Schaden anrichten, einzigartig sind und einen signifikanten Einfluss haben
Die vollständige Auflistung sowie nähere Erläuterungen hat Google-CEO Sundar Pichai in einem Blogpost veröffentlicht.




Das könnte Sie auch interessieren