Künstliche Intelligenz

Auch Online-Algorithmen haben Vorurteile

Die KI kann beides: Diskriminierung bewirken und offenlegen.

19.02.2023 UPDATE: 19.02.2023 06:00 Uhr 1 Minute, 37 Sekunden
Chatbot ChatGPT
Mit dem Chatbot ChatGPT kann man sich im Internet nicht nur unterhalten. Er verfasst mithilfe Künstlicher Intelligenz (KI) auf Kommando auch Aufsätze, Gedichte, Briefe und alle möglichen anderen Texte.

Von Ute Teubner

Heidelberg. Sitzt eine lesende Frau auf dem Sofa, neben ihr ein Hund. Ein schönes Bild. Aber: Sehr wahrscheinlich anzüglich! Meint zumindest die Bilderkennungstechnologie von Google.

Warum? Weil Künstliche Intelligenz (KI) nicht frei von Vorurteilen ist. Weil Algorithmen – obgleich mathematisch-statistische Verfahren – keineswegs objektiv sind. Im Gegenteil: Gerade bei Entscheidungen, die die selbstlernende Maschine "trifft", ist die Gefahr einer systematischen Diskriminierung groß – denn besagte Maschine muss erst gefüttert werden, mit historischen Daten, die die Basis bilden. Daten, die auch sämtliche (geschichtliche wie aktuelle) Diskriminierungen unserer Gesellschaft nachbilden.

Die Frau auf dem Sofa ist nur ein Beispiel dafür, wie Online-Algorithmen Frauen benachteiligen können. Bilder von Frauen werden gegenüber Bildern von Männern deutlich häufiger (eben auch fälschlicherweise) als anzüglich eingestuft und dementsprechend von Online-Plattformen gelöscht. Dies haben Recherchen des "Guardian US" in Zusammenarbeit mit dem Bayerischen Rundfunk ergeben. Die Folge: Die Sichtbarkeit von Frauen im Netz leidet darunter.

Künstliche Intelligenz kann aber auch Diskriminierung offenlegen – und dadurch verhindern. So hatte beispielsweise der Unternehmensberater Boston Consulting (BCG) im Rahmen einer aktuellen Studie 250 Pressemitteilungen über weibliche und männliche Führungskräfte gesammelt und mit Hilfe von KI ausgewertet. Die Algorithmen brachten ans Licht: Unternehmen sind bei der Kommunikation über Chefinnen erheblich zurückhaltender, als wenn es um die Chefs geht.

Auch interessant
Roboter im Test: Heidelberg-Büttenrede und Boris Becker-Liebesbrief von ChatGPT
Mensch oder Maschine?: ChatGPT heizt Debatte um Künstliche Intelligenz weiter an
Künstliche Intelligenz ist "nicht intelligent": Ersetzt die Maschine den Menschen? (plus Podcast)
Sorgen wegen ChatGPT: Wer kontrolliert und reguliert die Maschinen?
Suchmaschinen: Wie KI-Chatbots die Internet-Suche revolutionieren können

Ihren Top-Managerinnen schreiben die Konzerne in ihren Pressemitteilungen weniger Fähigkeiten zu als den Männern, bei denen zudem häufiger Leadership- und Business-Kompetenzen hervorgehoben werden. Geht es um den Vorstandsvorsitz, fällt der Unterschied zwischen den Geschlechtern besonders drastisch aus: Chefinnen werden im Schnitt 2,5 Fähigkeiten zuerkannt, dem Chef durchschnittlich 5,8. Unbewusste Vorurteile wie diese werden über die Unternehmenskommunikation transportiert – und dürften mitverantwortlich dafür sein, dass es nach wie vor wenig Frauen in deutschen Chefetagen gibt. KI als Werkzeug kann solche Mechanismen nachweisen und entlarven.

Aber kann Künstliche Intelligenz auch Menschen mit Diskriminierungserfahrungen (rechtlich) beistehen? Genau das will nämlich der Antidiskriminierungs-Chatbot "Yana", ein Projekt, das von der Robert-Bosch-Stiftung und dem Bundesministerium für Wirtschaft und Klimaschutz gefördert wird. Ein Online-Bot gegen Rassismus? Eine "virtuelle Umarmung"? Wer weiß. In diesem Fall erscheint doch der Gang zur nächsten Beratungsstelle oder das Gespräch mit der echten Freundin geeigneter.

Apropos Rassismus. Damit wir, hier bei uns, im Umgang mit solchen Chatbots möglichst nicht auf "schädliche Inhalte" stoßen, setzte OpenAI, das US-Unternehmen hinter ChatGPT, kenianische Arbeiter ein. Die halfen laut dem Nachrichtenmagazin "Time" für weniger als 2 US-Dollar pro Stunde, die gehypte KI sicherer zu machen.

Der traumatisierende Job: Zehntausende "problematischer" Textzeilen filtern. Dabei seien die Billiglöhner mit Schilderungen von Kindesmissbrauch, Suizid, Folter und Inzest konfrontiert worden.