Künstliche Intelligenz lernt menschliche Moral

Materialien unterschiedlicher Zeitperioden

Für das Training ihrer «Moral Choice Machinex wurden von den Wissenschaftlern der TU Darmstadt verschiedenste Bücher, Nachrichtenartikel und religiöse Texte ausgewählt. Dabei wurde darauf geachtet, dass die Materialien aus unterschiedlichen Zeitperioden stammten und somit durchaus auch abweichende gesellschaftliche Moralvorstellungen widerspiegeln konnten. «In Zeitungsberichten zwischen 1987 und 1997 wird es etwa sehr positiv dargestellt, wenn jemand heiratet. Das war zwar 2008 und 2009 auch noch so, aber weitaus schwächer ausgeprägt», meint Turan.
In Zukunft wollen die Forscher ihrem KI-System auch verstärkt beibringen, Aspekte wie positiv oder negativ behaftete Stereotype richtig zu interpretieren und in ihre moralischen Überlegungen miteinzubeziehen. «KI übernimmt immer komplexere Aufgaben von Menschen in immer selbständiger Art und Weise. Es ist wichtig, dass wir die Forschung in diesem Bereich fortsetzen, um den Entscheidungen, die sie trifft, vertrauen zu können», resümiert Schramowski.




Das könnte Sie auch interessieren