Künstliche Intelligenz darf nicht sexistisch sein
Wie Algorithmen Menschen ignorieren und ausgrenzen
60 Prozent der Medizinstudierenden und 46 Prozent der Ärzt*Innen sind Frauen. Wer aber den neutralen englischen Begriff „doctor“ in Google Translate eingibt, bekommt auf Deutsch keine Ärztin, sondern einen männlichen „Arzt“ übersetzt. Gleiches gilt bei Journalisten, Psychologen und Geschäftsführern. Umgekehrt erscheint bei „nurse“ kein Krankenpfleger, sondern die klassische Krankenschwester. Weiblich geht also doch. Wenn es dem Klischee entspricht.
Dass von Algorithmen nicht nur eine gefühlte Diskriminierung ausgeht, sondern eine echte Benachteiligung, zeigte sich bei Karrierenetzwerken wie XING. Hier wurden jahrelang bei der Suche mit männlichen Berufsbezeichnungen wie Journalist oder Grafiker nur männliche Anbieter angezeigt – Stichwort „mitgemeint“. Frauen blieben außen vor. Aber weder den betroffenen Frauen noch den Kund‘innen oder potenziellen Arbeitgeber‘innen war klar, dass der Algorithmus sich konsequent an die Eingabe hielt und eine Auswahl nach Geschlecht vornahm. So verstärkte sich der Eindruck, dass professionelle und gut vernetzte Dienstleister Männer sind.
Google Translate, Job-Portale und Suchmaschinen verwenden Algorithmen. Können Algorithmen sexistisch sein? Das hört sich paradox an. Schließlich sind Algorithmen mathematische Regeln – klare Handlungsanweisungen zur Verarbeitung von Informationen. Und als solche sollten sie eigentlich geschlechtsneutral sein.
Aber Algorithmen schweben nicht über den Dingen, sondern sortieren und verknüpfen große Mengen von Informationen, die Entwickler*innen für sie auswählen. So mutieren sie zu einem trojanischen Pferd, das sexistische Rollenbilder in unser Denken schmuggelt.
Ein weiteres Beispiel liefert die Google-Bildersuche. Zum Stichwort „Mensch“ tauchen hierzulande unter den Top-Suchergebnissen ausschließlich Männer und geschlechtsneutrale Strichmännchen auf. Alle sind weiß. Rassismus und Sexismus gehen hier Hand in Hand. Auch Google-Suchen verstärken rassistische und frauenfeindliche Stereotypen. Webinhalte sind also kein Spiegel der Gesellschaft, sondern ein Blick durch die Brille fragwürdiger Interessen.
Dramatisch wird das beim Einsatz von künstlicher Intelligenz, also selbstlernenden Programmen, die mit großen Datensätzen trainiert werden. Diese Programme ziehen Schlussfolgerungen aus den ermittelten Korrelationen und setzen diese mit höchster Konsequenz um. Das erlebte der Tech-Konzern Amazon bei dem Versuch, mit einem KI-Tool im Web neue Programmierer*innen zu finden. Das Programm wurde mit Bewerbungen der in den vorhergehenden zehn Jahren eingestellten Entwickler*innen trainiert. Da diese überwiegend männlich waren, schlug das Programm vorwiegend männliche Kandidaten vor. Frauen wurden anhand von typisch weiblichen Hobbys im Lebenslauf („women’s chess club“) oder als Absolventinnen von Frauenunis aussortiert. Als die Entwickler*innen diese Kriterien neutralisierten, analysierte das Tool die Sprache der Bewerbungsschreiben und bevorzugte Kandidaten, die „typisch männliche“ Adjektive verwendeten. Amazon gab auf und schaltete das Programm ab.
Künstliche Intelligenz bildet bestehende Unterschiede also nicht nur ab, sondern verschärft sie. Sie zeigt uns die Welt durch eine männliche, weiße und wohlhabende Brille und ignoriert die große Mehrheit. Angesichts der unzähligen gesellschaftlich sensiblen Einsatzbereiche solcher Programme in der Zukunft – Medizin, Personalauswahl, Spielzeug, Pflege, Bildung, Polizeiarbeit – müssen wir sicherstellen, dass künstliche Intelligenz Diskriminierung nicht massiv verschärft und zugleich unsichtbar macht.
Wie lässt sich das Problem lösen? Es gibt mehrere Ansätze.
- Erstens müssen Anbieter*innen umdenken, die aktuellen Missverhältnisse beim Design ihrer Programme mitdenken und die Parameter entsprechend abändern.
- Zweitens müssen Unternehmen den Frauenanteil in der Tech-Branche steigern. Gerade in dieser gesellschaftlichen Schlüsselbranche sollte über eine Frauenquote auf allen Unternehmensebenen nachgedacht werden.
- Drittens müssen Ethik und Werte, aber auch eine Sensibilisierung für Gender- und Rassismus-Fragen im Informatikstudium verankert werden.
- Viertens kann Forschung eine wichtige Rolle bei der Erarbeitung diskriminierungsfreier Datensätze und beim Testen von Programmen auf Diskriminierungsfreiheit spielen.
- Und fünftens muss eine paritätisch besetzte europäische Algorithmenaufsicht installiert werden, die Algorithmen und künstliche Intelligenz prüft und sicherstellt, dass sie unabhängig von der Datenbasis keine diskriminierenden Ergebnisse liefern.
Hier liegt Europas Chance. Das Rennen um große Datenmengen, die für den Erfolg amerikanischer und chinesischer KI-Entwicklungen sorgen, hat Europa längst verloren. Aber eine diskriminierungsfreie künstliche Intelligenz, die allen ihren Nutzer*innen dient anstatt sie zu kontrollieren, kann unser Alleinstellungsmerkmal werden. Mehrwert durch Werte – so sollte Europas Exportschlager der Zukunft lauten.
Alexandra Geese Mitglied des Europäischen Parlaments, Bonn
(Anmerkungen: Erstveröffentlichung im Mai 2019, Internetlink zur Homepage der Autorin wurde am 16. September 2022 hinzugefügt, Bildrechte: Alexandra Geese).