Befehl verweigert? Test bestanden!

Viele Systeme, ein Ethikrahmen

Künstliche Intelligenz mit Gewissen: So könnte die Implementierung einer Maschinenethik aussehen.
Quelle: Redaktionsbüro Matthias Lohrer
Wenn man längere Zeit auf diesen simplen Entwurf blickt, dann fällt einem irgendwann Folgendes auf: Für das innere Feld, das für den jeweiligen Roboter steht, wird es x verschiedene Systeme von y verschiedenen Herstellern geben. Der Ethikrahmen kann und muss aber für alle Systeme identisch sein, jedenfalls in gewissen Grenzen. Beispielsweise in den Grenzen eines Staates. Wer kreiert diesen Ethikrahmen? Diesen zu entwickeln umfasst drei Schritte:
  • Inhalte definieren
  • Inhalte implementieren
  • Testen, ob die Inhalte des Ethikrahmens auch korrekt implementiert worden sind
Schritt 1: Hier vertrete ich einen pragmatischen Ansatz und sage: Den Inhalt des Ethikrahmens muss man nicht erst entwickeln, der existiert bereits. Die Gesamtheit aller geltenden Gesetze und Verordnungen bildet den Inhalt des Ethikrahmens für einen bestimmten Staat.
Schritt 2: Die eigentliche Implementierung können beliebige IT-Firmen für die Entwicklung und den Bau ihrer KI-Systeme übernehmen.
Schritt 3: Tests auf korrekte Implementierung werden die IT-Hersteller und sonstige Technologieanbieter vornehmen.

KI-Ethik im EU-Parlament

In der Politik ist man sich längst der Tatsache bewusst, dass hier staatliches Handeln erforderlich ist. Als Beispiel sei auf einen Beschluss des Europäischen Parlaments verwiesen, der „Zivilrechtliche Regelungen im Bereich Robotik“ behandelt. Der Beschluss geht aus von der „Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, und es daher für Gesetzgeber von entscheidender Bedeutung ist, sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen“.
Der Text ist nicht nur auf der Höhe der Zeit. Er ist aufgrund seines breiten Ansatzes auch äusserst interessant zu lesen. In der Einleitung bezieht sich der Entschluss unter Punkt T auf die Robotergesetze von Science-Fiction-Autor Isaac Asimov. Diese lauten:
  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Später hat Asimov seinen drei Robotergesetzen noch ein nulltes Gesetz vorangestellt:
Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt Vorschläge des Beschlusses des EU-Parlaments sind etwa:
  • Einführung eines EU-Registrierungssystems für fortschrittliche Roboter im Rahmen des EU-Binnenmarkts
  • Grundsatz der Transparenz: Entscheidungen, die ein KI-System getroffen hat, sollen nachvollziehbar sein
  • Ausstattung mit einer Blackbox, die alle Tätigkeiten des Roboters protokolliert, ähnlich wie in einem Flugzeug
  • Die Errichtung einer Europäischen Agentur für Robotik und Künstliche Intelligenz
  • Einführung eines Versicherungssystems für Roboter, möglicherweise verknüpft mit einem speziellen rechtlichen Status für Robotersysteme, über den sich eventuelle Haftungsfragen klären lassen.




Das könnte Sie auch interessieren