Künstliche Intelligenz

KI, geht das auch fair?

28. Mai 2024 von Hanna Möller
Die KI hat ein Problem mit gendergerechter Sprache, bevorzugt weiße Männer und verbreitet Unwahrheiten – weil sie von uns gelernt hat. Wir fragen eine Computerlinguistin, einen KI-Ethiker und eine Technikforscherin der Uni Wien: Geht das fairer?
KI-Systeme sind (noch) nicht fair, da sie auf die von uns generierten Daten zurückgreifen. Sie halten uns einen digitalen Spiegel vor und manchmal erkennen wir, dass uns das nicht gefällt, so KI-Ethiker Erich Prem. Die gute Nachricht: Einmal in einem Computersystem festgemacht, können wir unser Sein analysieren und besser machen. © iStock

In der Vergangenheit waren Ingenieur*innen hauptsächlich männlich, ergo: Ingenieur*innen haben grundsätzlich männlich zu sein. So – oder so ähnlich – zieht ein selbstlernendes System seine Schlüsse. In Texten wird es den generischen Maskulin ausspucken, um Ingenieurstätigkeiten zu beschreiben, oder vorschlagen, offene Stellen im Ingenieursbereich doch mit männlichen Bewerbern zu besetzen. 

Der KI ins "Gehirn" schauen

Komplexe Systeme wie ChatGPT lernen anhand neuronaler Verfahren aus großen Datenmengen. Ihre Entscheidungen beruhen auf Mustern, die sich in Parametern widerspiegeln. Wir sprechen von neuronalen Netzwerken, erklärt Computerlinguistin Dagmar Gromann: "Large Language Models sind davon inspiriert, wie menschliche Gehirne arbeiten. So kann das Modell Muster lernen – aus riesigen Datensätzen, die das Netzwerk wieder und wieder durchlaufen."

Und da liegt das Problem: wenn ein KI-Modell sexistisch ist, dann weil es aus sexistischen Daten lernt, die wir über Jahrzehnte generiert haben. Und wir finden in den Modellen nicht nur einen Bias in Bezug auf Geschlecht, sondern auch "auf Race oder Ethnie, auf so ziemlich alles", gibt Dagmar Gromann zu bedenken, die gemeinsam mit einem Team am Zentrum für Translationswissenschaft untersucht hat, wie die smarten Systeme Informationen extrahieren. Dazu haben die Forscher*innen Textdaten aus verschiedenen Fachbereichen in maschinelle Übersetzungssysteme eingespeist und analysiert, wie diese implizit Relationen lernen. Für das Englische beispielsweise konnte so eine klare Beziehung zwischen "criminal" und "black" festgemacht werden – auch wenn in den Texten nicht von "schwarzen Kriminellen" die Rede war (mehr zu diesem Projekt gibt es hier).

Künstlich generiertes Bild eines Gesichts

"Die" KI gibt es nicht

Bei Künstlicher Intelligenz handelt es sich nicht um eine abgrenzbare Technologie, sondern um unterschiedliche Systeme und Infrastrukturen. Auch wenn in diesem Beitrag der Überbegriff verwendet wird, sind je nach Beispiel unterschiedliche Systeme gemeint. Mehr KI-Wissen © iStock

Diese impliziten Relationen werden zum Beispiel dann relevant, wenn Künstliche Intelligenzen mitentscheiden, ob Menschen einen Kredit erhalten – oder eben nicht. Bei der Entscheidungsfindung sind (zumindest in Europa) gewisse Parameter durch die Datenschutzgrundverordnung geschützt – medizinische Daten etwa, politische Überzeugung, Zugehörigkeiten zu Gewerkschaften, sexuelle Orientierung oder Hautfarbe dürfte so ein System nicht heranziehen, erklärt Erich Prem, Computerwissenschafter und Philosoph an der Uni Wien: "Doch selbst wenn ich 'Hautfarbe' nicht in meinen Inputkriterien habe, kann es passieren, dass die Information darüber in anderen Parametern enthalten ist, zum Beispiel in einer Kombination aus Stadtviertel und Beruf, und das System so eine Bevölkerungsgruppe dennoch diskriminiert."

Wo keine Transparenz, da keine Anklage

"Es gibt unzählige andere Beispiele, die zeigen, dass es meist die ohnedies marginalisierten Gruppen sind, die bei Automationsprozessen Diskriminierung erfahren", ergänzt Katja Mayer vom Institut für Wissenschaft- und Technikforschung. Grundsätzlich gilt – mit oder ohne KI – in Österreich das Gleichbehandlungsgebot per Gesetz, heißt: Betroffene können sich gegen Diskriminierung durch Künstliche Intelligenzen wehren, in dem sie etwa Gleichbehandlungsstellen aufsuchen. Doch ist es oft gar nicht so einfach, der KI eine Diskriminierung "nachzuweisen": Mit seitenlangen statistischen Formeln kann die KI zwar eine ihrer Entscheidungen begründen, doch diese Herleitungen sind selten transparent, schon gar nicht für ihre User*innen, erklärt Mayer.

Wenn KI-Systeme entscheiden

Möchten wir wirklich, dass Systeme wie diese autonome Entscheidungen treffen? Fakt ist, dass sie es in vielen Bereichen bereits tun. Bei selbstfahrenden Autos etwa, bei Newsmeldungen, die für uns kuratiert werden, bei autonomen tödlichen Waffen, die in den Krieg ziehen, oder Sprachmodellen, die uns die Welt erklären, so Prem, der sich der KI-Ethik verschrieben hat. In der Tradition des Digitalen Humanismus beschäftigt ihn und seine Kolleg*innen der "Techphil-Gruppe" am Institut für Philosophie die Frage, wie wir in einer digitalisierten Welt leben möchten. Spoiler: Obwohl wir mittendrin stecken, gibt es darauf keine eindeutigen Antworten.

Gesicht mit Kreiselementen grafisch dargestellt

Digitaler Humanismus kurz erklärt

Der Digitale Humanismus ist ein Ansatz, der menschliche Werte und Bedürfnisse in den Mittelpunkt der digitalen Transformation stellt. Menschenzentrierung, Ethik und Verantwortung, Inklusion und Zugänglichkeit, Bildung und Empowerment sowie Nachhaltigkeit und Umweltschutz sind dabei im Fokus. Im Rahmen der Ring-VO Künstliche Intelligenz: Spannungsfelder, Herausforderungen und Chancen, die in Kooperation zwischen dem Institut für Zeitgeschichte der Universität Wien und der Stadt Wien durchgeführt wird, wurde dem Digitalen Humanismus eine eigene Einheit gewidmet, die hier nachgeschaut werden kann: zum Vorlesungsstream. © iStock

Was ist eigentlich fair?

Ein Beispiel aus der Praxis: Frauen erhalten nach wie vor seltener eine Finanzierungszusage als Männer. Wollen wir nun ein "faires" KI-System etablieren, das den Auswahlprozess maschinell unterstützt und allen Menschen gleichermaßen Zugang zu Krediten gewährt, ist das zwar schnell formuliert, aber nur kompliziert auf den Punkt gebracht bzw. technisch umgesetzt. Fair könnte bedeuten, dass die Bewilligungsrate bei Männern und Frauen gleich ist. Es könnte aber auch bedeuten, dass die Ablehnungsrate gleich ist oder aber dass eine weiblich gelesene Person immer so behandelt werden muss wie eine männlich gelesene Person – unabhängig von den Begleitumständen. Welche dieser verschiedenen Auslegungen von Fairness wir anwenden wollen, ist eine politische Überzeugung, so Prem. 
 

Gesellschaftliche Bedingungen formen

Doch was in einer konkreten Situation fair ist, wird in der Regel von Entwickler*innen im Designprozess festgelegt – mangels politischer Vorgaben: "Computerwissenschafter*innen lösen keineswegs nur technische Probleme, sondern formen gesellschaftliche Bedingungen in einem Ausmaß, dessen sie sich bei ihrer Studienwahl oftmals nicht bewusst sind", ergänzt Prem, der auch in der Lehre aktiv ist und angehende Entwickler*innen in Dingen Ethik unterrichtet. Und das, obwohl ganz viel Sozialwissenschaft – z.B. Kommunikations- und Kognitionswissenschaften, Computerlinguistik oder Interface-Design – in der KI steckt, gibt Katja Mayer vom Institut für Wissenschafts- und Technikforschung zu bedenken: "Leider bleiben ihre kritischen Dimensionen in der Technologieentwicklung häufig 'auf der Strecke'. Wenn wir KI als Sozio-Technologie verstehen wollen, ist eine vermehrte Einbeziehung bzw. die Sichtbarmachung der kritischen Sozialwissenschaften unerlässlich."
 

Perspektivenaustausch für gender-faire Übersetzungsmaschinen

Mit diesem Anspruch haben Computerlinguistin Dagmar Gromann und ein institutionenübergreifendes Team im Rahmen eines dreitägigen Workshops nicht-binäre Personen, Übersetzer*innen und Entwickler*innen von maschinellen Übersetzungssystemen an einen Tisch geholt (hier gibt es eine der Panel-Diskussionen zum Nachschauen). Gemeinsam haben sie evaluiert, was die verschiedenen Personengruppen benötigen und wie eine geschlechtersensible maschinelle Übersetzung funktionieren kann (zum Leitfaden für geschlechtersensible Sprache der Gleichbehandlungsanwaltschaft). Während Vertreter*innen der Community nicht-binärer Personen den Wunsch nach Respekt und Akzeptanz von vielfältigen Genderkonzepten äußerten, war seitens der Sprachindustrie der Ruf nach Normierung und Standardisierung, die sich leicht umsetzen lässt, extrem stark, berichtet Gromann, Professorin am Institut für Translationswissenschaft.

Die Computerlinguistin Dagmar Gromann erklärt im Video, warum KI Sprache nicht vorurteilsfrei ist und plädiert für einen bewussten und reflektierten Umgang damit. "Denn in den nächsten 20 Jahren werden wir uns nicht zu 100 Prozent auf KI generierte Inhalte verlassen können." © Benjamin Furthlehner

"Wir haben uns schließlich auf ein Stufenmodell geeinigt, das ähnlich wie das Gütesiegel einer Waschmaschine funktioniert: der generische Maskulinum oder das Binnen-I sind mit Rot markiert, in der Stufe darüber sind neutrale Formulierungen oder der Genderstern angesiedelt, im grünen Bereich liegt sozusagen die geschlechtsneutrale Sprache, die alle Geschlechtsidentitäten berücksichtigt", so Gromann. Ziel des Modells sind klare Verwendungsbeispiele und Erklärungen, wie geschlechtssensible Sprache maschinell umgesetzt werden kann. "Und da Veränderungen in unserer Sprache nicht von heute auf morgen passieren, müssen wir mehrere Möglichkeiten bieten. Firmen oder Auftraggeber*innen von Übersetzer*innen können sich für eine 'Stufe' entscheiden und die Maschine stellt eine Variante konsistent zur Verfügung."

Wie wäre es mit Debiasing?

Als Debiasing werden Methoden und Strategien zur Entscheidungsfindung bezeichnet, die helfen, Voreingenommenheit und Verzerrungen – also Biases – in neuronalen Sprachmodellen abzuschwächen oder ins Bewusstsein zu rufen. Debiasing von KI-Systemen ist mittlerweile zu einem eigenen Forschungszweig avanciert, doch der Bias sitzt tief und ist unserer Sprache fest verankert: Bis jetzt können Modelle nicht über alle Identitäten respektvoll sprechen und dennoch performant sein, erklärt Dagmar Gromann. Eine Strategie ist es, die User*innen auf den Bias aufmerksam zu machen, "doch wird dadurch die Verantwortung an die Nutzer*innen abgewälzt, anstatt das eigentliche Problem zu beheben", ergänzt Prem.

Apropos Entscheidungen: Die besten und relevantesten KI-Modelle auf dem Markt kommen von nicht-akademischen Einrichtungen, also von privaten Unternehmen. Entscheidungen über die (moralische) Gestaltung von KI-Systemen treffen diese Unternehmen selbst. Beim Aufkommen von ChatGPT & Co. wurden zum Beispiel Gewalt, kinderpornografische Inhalte oder medizinische Ratschläge auf die "Rote Liste" gesetzt. "Diese Themen sind jedoch vielschichtig und es gibt viele Kontexte, in denen wir all das sehr wohl brauchen", erinnert Prem: "Ein Beratungstool soll über Gewalt sprechen können; wenn ich an einem Roman arbeite, möchte ich auch gruselige Passagen erzeugen; beim Training angehender Mediziner*innen brauche ich vielleicht Bilder, die Gewaltspuren darstellen."

Maschinen fällt es aber nach wie vor schwer, kontextbezogen zu agieren – "hier ist die menschliche Entscheidung noch immer der Goldstandard." Das Problem: Trainingsdaten für KI-Systeme werden oftmals händisch von Personen in Niedriglohnländern aussortiert. Nicht selten handelt es sich um traumatische Inhalte und die beschäftigten Menschen erhalten keinerlei psychologische Begleitung, kritisiert Prem.

KI-Systeme halten uns einen digitalen Spiegel vor und reflektieren unsere Geschichte, unser Sein. Und manchmal erkennen wir, dass uns das nicht gefällt – wenn wir eben frauenfeindlich oder rechtsextrem oder in einer anderen Weise übel sind. Aber wenn wir diese Umstände in einem Computerprogramm festgemacht haben, können wir sie erstens analysieren und zweitens besser machen.
Erich Prem
Lesen Sie auch
EU-Gesetz zur künstlichen Intelligenz
Die Regulierung von Künstlicher Intelligenz bietet Herausforderungen und Chancen zwischen technologischem Fortschritt und gesellschaftlichen Werten. Eine Einordnung von der Rechtswissenschafterin Iris Eisenberger.

Bei der Regulierung an einem Strang ziehen

Künstliche Intelligenzen werden von lokalen Rahmenbedingungen und globalen Infrastrukturen gleichermaßen bestimmt. Um den Einsatz von KI also so fair wie möglich zu gestalten, ist es notwendig, transdisziplinäre und auch multidimensionale Ansätze zu verfolgen, die ethische, regulatorische, technische und wissens- bzw. bildungsbezogene Maßnahmen umfassen, erklärt Mayer und plädiert für "klare Richtlinien und Standards, die der dynamischen Entwicklung der Technologien selbst und ihrer Lernfähigkeiten gerecht werden." Die EU arbeitet auf Hochtouren an einer KI Verordnung und auch die UNO hat dazu bereits eine Arbeitsgruppe eingesetzt. Ob Regulierungen KI-Systeme und letztlich unsere Gesellschaft fairer machen, gilt es abzuwarten. Oder wie ChatGPT die Sache sieht: Die Frage ist komplex. (hm)

© Picture People Dresden
© Picture People Dresden
Dagmar Gromann ist Assoziierte Professorin für Terminologiewissenschaft und Sprachtechnologie am Zentrum für Translationswissenschaft der Universität Wien. Zu ihren Forschungsschwerpunkten zählen Computerlinguistik, gendergerechtes (maschinelles) Übersetzen, Sprachtechnologien und Informationsextraktion.

Mit ihrer Forschung zu genderfairer Sprache und Sprachtechnologie möchte sie zu einem respektvollem Umgang mit unterschiedlichen Geschlechtsentwürfen beitragen.

© Ralf Rebmann
© Ralf Rebmann
Katja Mayer ist Soziologin und arbeitet an der Schnittstelle von Wissenschaft, Technologie und Gesellschaft. Seit 2019 ist sie als Senior Postdoc mit dem Elise Richter Fellowship (FWF) am Institut für Wissenschafts- und Technikforschung der Universität Wien tätig.

Wieviel und welche Arten von Offenheit braucht es, damit das maschinelle Lernen weiterhin steuerbar und kontrollierbar bleibt, und dies im Sinne des Allgemeinwohls in der Gegenwart und in der Zukunft? Diese und ähnliche Fragen erörtert sie aktuell – mit dem Ziel, Open Science Praktiken und Policies zu verbessern.

© Martin Kutschera
© Martin Kutschera
Erich Prem ist Informatiker, KI-Experte und Philosoph. An der Universität Wien lehrt und forscht er zum Digitalen Humanismus. Seine Forschungsinteressen umfassen künstliche Intelligenz, verkörperte KI, Forschungspolitik, Innovationsforschung, KI-Ethik und Epistemologie.

Derzeit arbeitet er an ethischen und erkenntnistheoretischen Fragen der Künstlichen Intelligenz. Als Berater steht er (öffentlichen) Einrichtungen in Sachen KI-Ethik zur Seite.