Wenn Algorithmen Vorurteile ausspucken

Auf die Trainingsdaten kommt es an

Trainiere man den Algorithmus mit diesen historischen Daten, suche er die Kandidaten eben auch entsprechend aus. Auch bei der Gesichtserkennung, die schwarze und asiatisch aussehende Menschen diskriminierte, liegt die Vermutung nahe, dass das Problem nicht beim Algorithmus. Fragwürdig war wohl vielmehr die Auswahl der Bilder, mit der die Maschine trainiert wurde.
Dem Anspruch, Probleme wie oder besser als Menschen zu lösen, wird Künstliche Intelligenz in vielen Fällen also noch nicht gerecht. Dehmel kann den Ergebnissen etwas Positives abgewinnen: Die Technologien hielten der Gesellschaft einen Spiegel vor, und zeigten, wie akut Diskriminierung noch sei. Suchmaschinenanbietern nun einen erzieherischen Auftrag zu erteilen, möglichst diskriminierungsfreie Inhalte auszuspucken, findet Dehmel falsch. Sie filterten nach Relevanz, Ergebnisse ergäben sich aus dem, was Leute anklicken. "Die Anforderung würde die Funktion überfrachten."
Dass Google durchaus in die Präsentation der Ergebnisse eingreift, zeigen verschiedene Beispiele, etwa das der US-amerikanischen Professorin Safiya Umoja Noble. In ihrem 2018 erschienenen Buch "Algorithms of Oppression" kritisierte sie unter anderem rassistische und stereotype Vorschläge für die Autovervollständigung des englischen Satzes "Warum sind schwarze Frauen so". Wer heute den Satz in die Suchmaschine tippt, bekommt keine Ergänzungen mehr vorgeschlagen.
Grosse Aufmerksamkeit erfuhr in Deutschland 2015 auch der Streit zwischen Bettina Wulff und Google über die Kombination ihres Namens mit ehrabschneidenden Begriffen in der Autocomplete-Funktion. Der Konzern lenkte ein und entfernte die Ergänzungen zur Frau des damaligen Bundespräsidenten.




Das könnte Sie auch interessieren