Abstract

Selbst die Unesco habe erkannt: Beim Einsatz von Künstlicher Intelligenz werden Frauen diskriminiert. Die ‘Weiblichkeit’ digitaler Dienst-Systeme verstärke Gender-Stereotype. Das sei ein oft verkanntes Problem. Die Ergebnisse der Studie zeigten: Wenn durch sprachgesteuerte KI-Assistentinnen Geschlechter-Vorurteile verbreitet würden, begünstige das die Akzeptanz von sexueller Belästigung und sprachlichem Missbrauch. Als ein Beispiel nennt Clausen hier den Zuruf zur digitalen Sprachassistentin Alexa: ‘Du bist eine Schlampe!’ Dieser würde mit ‘Danke für das interessan-te Feedback’ beantwortet. Da Alexa & Co keine eigene Entscheidungsfrei-heit hätten, reagierten sie auf einfache Zurufe, egal in welchem Ton oder wie unfreundlich eine Anfrage gestellt würde. Das vermittele den Eindruck, Existenz und Erfüllung von Frauen bestünde darin, den Männern das Leben möglichst angenehm zu machen. Als eine Ursache der Misere nennt die Autorin, dass Frauen viel zu wenig in Forschung und Entwicklung dieser Techniken eingebunden seien. Nur 12 Prozent der KI-Forscher/innen und nur 6 Prozent der Software-Entwickler/innen seien weiblich.

Links and resources

Tags