19.01.2025
#FactFriday: Sexistische KI
Erzeugung von Bildern mit AI
Große Augen, lange Haare, volle Lippen, Schmetterlinge oder Blumen am Rand – so sehen KI generierte Bilder von Frauen aus.
Wenn man bei Bildgenerationsprogrammen wie beispielsweise „Midjourney“ den Begriff „Frau“ eingibt, werden Bilder generiert, die jungen, stereotypisch schönen Frauen entsprechen. Auffällig ist, dass verschiedene Bilder kaum Variationen aufweisen – kurz: es wird ein „Ideal“ abgebildet.
Weiterhin werden Frauen nur auf äußere Eigenschaften reduziert, während Tribute, die mit Beschäftigungen, Hobbys usw. assoziiert werden, oftmals nicht vorhanden sind. So werden Frauen außerdem nur selten als Ärztin, Wissenschaftlerin oder in führenden Positionen dargestellt.
Aber bei Männern ist das doch auch so, oder?
Männer werden oftmals in verschiedenen Altersgruppen dargestellt und weisen Attribute aus Technik oder Naturwissenschaften auf. Damit zeigen sie mehr Diversität in der Darstellung, sind jedoch dennoch an patriarchalische Klischees angelehnt. Ein bemerkenswerter Unterschied bei der Darstellung von Frauen und Männern durch KIs ist jedoch, dass Männer meist einen fokussierten Blick und Gesichtsausdruck zeigen, der auf eine Persönlichkeit oder der Figur innewohnende Intelligenz hindeuten kann. Frauen zeigen dagegen meist einen leeren Blick, der die Aufmerksamkeit des Betrachtenden einmal mehr auf die Äußerlichkeiten lenkt.
Männer werden somit als Subjekt, als aktiver Handlungsträger dargestellt, während Frauen passiv sind und als formbare Handlungsfläche von Männern gelten. Frauen verschwimmen um ihren männlichen Gegenpart und nehmen den übrigens Platz ein – Gedanken, die in ähnlicher Form auch in Simone de Beauvoirs Buch „Das andere Geschlecht“ zu finden sind.
Sexualisierte Darstellung
Weiterhin werden Frauen übermäßig oft weiß dargestellt und in entsprechenden Positionen sexualisiert. Wen man nach weiblichem Pflegepersonal sucht, werden ausschließlich zu Sexualobjekten degradierte Frauen gezeigt (KI-Generatoren Midjourney und Dreamstudio).
Wie kommt es dazu, dass eine eigentlich urteilsfreie KI sexistische Beiträge erstellt?
Nachvollziehen kann man das meist schwer, da die meisten KIs keine öffentlich zugängliche Datengrundlage haben. Beim Generator Stable Diffusion kann man die Daten aufrufen und es zeigt sich, dass die KI vor allem Bilder von Bildagenturen, Websites und Handydaten verwendet. Dabei werden nicht nur die Stereotype der Gegenwart und Vergangenheit abgebildet, sondern auch noch verstärkt.
Anwendung und Folgen
Doch nicht nur die stetige Sexualisierung von Frauen und Verbreitung von Stereotypen ist problematisch, Frauen haben auch in der Arbeits- und Geschäftswelt Probleme. Bei der Kreditkartenvergabe von Apple, die seit 2019 möglich ist, bekommen Frauen beispielsweise unter gleichen Bedingungen wie Männer einen geringeren Kreditrahmen.
Auch bei Bewerbungsverfahren, die in vielen Firmen heutzutage durch KI-unterstütze Programme durchgeführt werden, werden Frauen systematisch benachteiligt. „Hier werden Wahrscheinlichkeitsaussagen auf der Grundlage von pauschalen Gruppenmerkmalen getroffen“, so Ferda Ataman, Bundesbeauftragte für Antidiskriminierung. Scheinbare Objektivität wird leicht zur Reproduktion von Vorurteilen.
Auch die UNESCO hat die Diskriminierung im Zusammenhang mit KIs beklagt. Die UNESCO-Direktorin Audrey Azoulay stellt fest: „Da solche Chatbots mehr und mehr Verbreitung finden, haben sie die Macht, die Wahrnehmung von Millionen von Menschen zu beeinflussen. Das geringste sexistische Vorurteil in ihren Inhalten kann die Ungleichheiten in der Welt erheblich vergrößern.“
Potentielle Lösungen
Um den genannten Vorurteilen entgegenzuwirken, ist es besonders wichtig, dass das einseitige Einpflegen von Daten unterbunden wird und KIs nicht durch stereotype Daten gefüttert werden Ferda Ataman und die Antidiskrimminierungstelle fordern eine deutschland- und europaweite Anpassung der Gesetzeslage. Wie diese genau aussehen soll, ist jedoch noch nicht bekannt.
Ziel ist es jedoch generell, künstliche Intelligenzen als Werkzeug zu benutzen und dessen Makel und Risiken frühestmöglich auszumerzen.
Quellen:
[1] https://taz.de/Wie-KI-Sexismus-produziert/!5976975/