Sexistisch, rassistisch und mit Tunnelblick: Drei kritische Punkte von KI
Hintergrund

Sexistisch, rassistisch und mit Tunnelblick: Drei kritische Punkte von KI

Kevin Hofer
13.9.2018

Empfehlungen von Suchmaschinen, auf User zugeschnittene Werbung oder Verkehrszählungen: Der Einsatz von KI ist vielfältig. Das kann sehr positive Effekte haben, aber auch sehr negative. Ich verrate dir, wo Chancen und Risiken von Künstlicher Intelligenz lauern.

Ich schreibe gerade einen Artikel über eGPUs und benötige dafür mal wieder Windows 10. Nach der Installation begrüsst mich Cortana. Die Stimme habe ich gefühlte tausend Mal gehört, obwohl ich im Alltag nicht vom Microsoft-Sprachassistenten gebrauch mache. Dieses Mal werde ich stutzig. Wieso sprechen die smarten Helferlein alle standardmässig mit weiblicher Stimme?

  • Hintergrund

    Wodurch sich KI, Machine Learning und Deep Learning unterscheiden

    von Kevin Hofer

  • Hintergrund

    Künstliche Intelligenz – Wann gilt sie als intelligent?

    von Kevin Hofer

Sexistische KI?

Mittlerweile kannst du auch männliche Stimmen auswählen. Aber bis hierhin hat es ein paar Jahre gedauert. Auf der Suche nach Erklärungen stosse ich auf eine Studie der EU. In dieser steht, dass die IT-Technologien zu einem grossen Teil von Männern entwickelt werden. Frauen seien in Europa bei Informatik-Berufen immer noch massiv untervertreten.

Das Thema wurde bereits diskutiert. Laut offiziellen Stellungnahmen der Entwickler erachten wir Menschen weibliche Stimmen als angenehmer und vertrauenserweckender als männliche Stimmen. Das mag sein. Dass ich die Sprache des Assistenten, zumindest in deren Anfängen, nicht wählen konnte, finde ich trotzdem nicht in Ordnung. Wieso? Weil suggeriert wird, dass Assistenten weiblich sind und das Weibliche als untergeordnet betrachtet werden muss. Das Weibliche – repräsentiert durch die feminine Stimme des Assistenten – ist da, um dem Besitzer oder der Besitzerin zu dienen. Die AssistentIN befindet sich so in einer hierarchisch untergeordneten Rolle. Sie ist das Schwächere von zwei Gliedern.

Vielleicht denkst du dir jetzt, dass das nicht weiter schlimm ist, es betrifft ja nur die Sprachausgabe des Assistenten.

Apropos: Ist dir etwas aufgefallen?

Wir benennen die Assistenten ausschliesslich in ihrer männlichen Form. Wir sprechen nicht von Assistentinnen, sondern von Sprachassistenten. Das Intelligente an der Technologie bezeichnen wir als männlich, obwohl es mit einer weiblichen Stimme zu uns spricht. Hier ziehen wir sprachlich eine Grenze zwischen Technologie als männlich und intelligent und dem ausführenden Ding – also der dienenden Sprachassistentin –, als weiblich.

Es ist diese systematische Unterordnung des Weiblichen, die es bei der Entwicklung von KI zu hinterfragen gilt. Ansonsten wird das Bild des Weiblichen als hierarchisch untergeordnet nicht nur in den Köpfen von uns Menschen gefestigt, sondern unbewusst auch von Künstlichen Intelligenzen übernommen. Ich behaupte nicht, dass männliche Entwickler durchs Band sexistisch sind. Aber wir alle werden von gewissen Bildern und Vorstellungen beeinflusst, und dessen sind wir uns häufig nicht bewusst. Wir reflektieren sie nicht. Bei einer Berufsgruppe, bei der der Anteil von Männern so gross ist, wie in der IT, kommen gewisse Vorurteile mehr zur Geltung.

Das Beispiel zeigt gut, dass KI sehr wohl beeinflusst werden kann und deshalb nie wirklich vorurteilsfrei ist. Wenn sich Entwickler und Entwicklerinnen diesem Umstand bewusst sind, und aus diversen Teams bestehen, kann dem Rechnung getragen werden. Mit diversen Teams meine ich solche, die aus Personen verschiedenen Geschlechts, Alters und Herkunft bestehen. So kann KI tatsächlich vorurteilsfreier werden.

Filterblasen

Das Internet ist frei. Jeder oder jede kann sich die Informationen beschaffen, die er oder sie will. So zumindest die Theorie. Mit den Social-Media- oder Suchmaschinen-Algorithmen stimmt das aber nicht ganz. Die KI von Social Media zeigt Usern nur jene Inhalte, die ihren Interessen entsprechen. Wenn ich etwas like, dann werden mir ähnliche Inhalte angezeigt. Durch das Filtern der Inhalte wird mein Sichtfeld reduziert: Ich sehe nur die Inhalte, die meinen Interessen entsprechen.

Folge ich beispielsweise Steve Bannon auf Twitter, erhalte ich vor allem Empfehlungen für politisch rechte Inhalte. Folge ich hingegen der DigitalFoundry auf Youtube, erhalte ich vor allem Empfehlungen für Game-Tech-News. Mein Horizont wird eingeschränkt. Fake News lässt grüssen.

Was einerseits ein Nachteil ist, kann sich auch ins Gegenteil umkehren. Wenn ich mich für andere Inhalte interessiere, eröffnen mir die Social-Media- oder Suchmaschinenen-Algorithmen neue Perspektiven. Ich komme schneller in neue Themen rein, knüpfe Kontakte mit neuen Leuten und erweitere meinen Horizont.

Kulturelle Implikationen

Dieser Punkt ist eine Konsequenz von Filterblasen. Wie die meisten anderen Streaminganbieter hat auch Spotify eine Empfehlungsfunktion. Das hat grosse Auswirkungen darauf, wer sich was anhört.

Gehen wir davon aus, dass Spotify dank Big Data mehr über uns weiss, als was wir uns so anhören. Aufgrund unseres Alters, Geschlechts und Herkunft gibt uns Spotify nun spezifische Empfehlungen basierend darauf, was andere User mit ähnlichen Merkmalen hören. Als Mann Mitte 30, gebürtiger Schweizer und leidenschaftlicher Gamer, empfiehlt mir Spotify am ehesten Metal. Ein in der Bronx wohnhafter Afro Amerikaner erhält hauptsächlich Empfehlungen zu Hip Hop.

Racial Profiling lässt grüssen.

Du merkst: Auch in diesem Punkt habe ich ein Problem damit, dass wir in ein gewisses Schema gedrückt werden. Und das tut die KI in diesem Beispiel. Sie schreibt uns vor, welche Musik wir aufgrund gewissen Eigenschaften zu hören haben. Dabei gäbe es soviel zu entdecken. Und wer lässt sich gerne in ein Schema drücken? Persönlich finde ich die Welt viel interessanter, wenn nicht jede oder jeder einem bestimmten Klischee entspricht.

Fazit

KI an sich ist weder Gut noch Böse. Sie birgt aber Chancen und Risiken. In welche Richtung sie tendiert, hängt von ihrer Entwicklung und Nutzung ab. Sie kann uns helfen, wertfreier zu sein und Diversität in all ihren Facetten zu erleben. Sie kann aber auch zu einer Homogenisierung führen, bestehende Vorurteile festigen sowie bestimmte Gruppen und Personen stereotypisieren.

In welche Richtung KI geht, bestimmen – zumindest bis jetzt – immer noch wir. Dazu müssen wir aber bestehende soziale Umstände reflektieren und in die Entwicklung von KI einfliessen lassen. Diverse Teams können zusätzlich helfen, KI möglichst wertfrei zu halten.

13 Personen gefällt dieser Artikel


User Avatar
User Avatar

Technologie und Gesellschaft faszinieren mich. Die beiden zu kombinieren und aus unterschiedlichen Blickwinkeln zu betrachten, ist meine Leidenschaft.


Diese Beiträge könnten dich auch interessieren

Kommentare

Avatar