Auch Online-Algorithmen haben Vorurteile
Die KI kann beides: Diskriminierung bewirken und offenlegen.

Von Ute Teubner
Heidelberg. Sitzt eine lesende Frau auf dem Sofa, neben ihr ein Hund. Ein schönes Bild. Aber: Sehr wahrscheinlich anzüglich! Meint zumindest die Bilderkennungstechnologie von Google.
Warum? Weil Künstliche Intelligenz (KI) nicht frei von Vorurteilen ist. Weil Algorithmen – obgleich mathematisch-statistische Verfahren – keineswegs objektiv sind. Im Gegenteil: Gerade bei Entscheidungen, die die selbstlernende Maschine "trifft", ist die Gefahr einer systematischen Diskriminierung groß – denn besagte Maschine muss erst gefüttert werden, mit historischen Daten, die die Basis bilden. Daten, die auch sämtliche (geschichtliche wie aktuelle) Diskriminierungen unserer Gesellschaft nachbilden.
Die Frau auf dem Sofa ist nur ein Beispiel dafür, wie Online-Algorithmen Frauen benachteiligen können. Bilder von Frauen werden gegenüber Bildern von Männern deutlich häufiger (eben auch fälschlicherweise) als anzüglich eingestuft und dementsprechend von Online-Plattformen gelöscht. Dies haben Recherchen des "Guardian US" in Zusammenarbeit mit dem Bayerischen Rundfunk ergeben. Die Folge: Die Sichtbarkeit von Frauen im Netz leidet darunter.
Künstliche Intelligenz kann aber auch Diskriminierung offenlegen – und dadurch verhindern. So hatte beispielsweise der Unternehmensberater Boston Consulting (BCG) im Rahmen einer aktuellen Studie 250 Pressemitteilungen über weibliche und männliche Führungskräfte gesammelt und mit Hilfe von KI ausgewertet. Die Algorithmen brachten ans Licht: Unternehmen sind bei der Kommunikation über Chefinnen erheblich zurückhaltender, als wenn es um die Chefs geht.
Auch interessant
Ihren Top-Managerinnen schreiben die Konzerne in ihren Pressemitteilungen weniger Fähigkeiten zu als den Männern, bei denen zudem häufiger Leadership- und Business-Kompetenzen hervorgehoben werden. Geht es um den Vorstandsvorsitz, fällt der Unterschied zwischen den Geschlechtern besonders drastisch aus: Chefinnen werden im Schnitt 2,5 Fähigkeiten zuerkannt, dem Chef durchschnittlich 5,8. Unbewusste Vorurteile wie diese werden über die Unternehmenskommunikation transportiert – und dürften mitverantwortlich dafür sein, dass es nach wie vor wenig Frauen in deutschen Chefetagen gibt. KI als Werkzeug kann solche Mechanismen nachweisen und entlarven.
Aber kann Künstliche Intelligenz auch Menschen mit Diskriminierungserfahrungen (rechtlich) beistehen? Genau das will nämlich der Antidiskriminierungs-Chatbot "Yana", ein Projekt, das von der Robert-Bosch-Stiftung und dem Bundesministerium für Wirtschaft und Klimaschutz gefördert wird. Ein Online-Bot gegen Rassismus? Eine "virtuelle Umarmung"? Wer weiß. In diesem Fall erscheint doch der Gang zur nächsten Beratungsstelle oder das Gespräch mit der echten Freundin geeigneter.
Apropos Rassismus. Damit wir, hier bei uns, im Umgang mit solchen Chatbots möglichst nicht auf "schädliche Inhalte" stoßen, setzte OpenAI, das US-Unternehmen hinter ChatGPT, kenianische Arbeiter ein. Die halfen laut dem Nachrichtenmagazin "Time" für weniger als 2 US-Dollar pro Stunde, die gehypte KI sicherer zu machen.
Der traumatisierende Job: Zehntausende "problematischer" Textzeilen filtern. Dabei seien die Billiglöhner mit Schilderungen von Kindesmissbrauch, Suizid, Folter und Inzest konfrontiert worden.