Internetforscherin Sandra Wachter im Interview

"Im Internet ist gar nichts neutral"

21. Dezember 2022 von Siegrun Herzog
Sandra Wachter ist eine der führenden Forscher*innen im Bereich Internet und künstliche Intelligenz. Im Interview erklärt die Alumna der Rechtswissenschaften, die seit Kurzem
Professorin am Oxford Internet Institute ist, warum es so wichtig ist, hinter die Entscheidungen von Algorithmen zu blicken.
Sandra Wachter ist Juristin und Datenethikerin am Oxford Internet Institute, wo sie rechtliche und ethische Aspekte von neuen Technologien, wie Künstliche Intelligenz und Machine Learning, erforscht. Am 16. Jänner 2023 ist die Alumna der Rechtswissenschaften zu Gast an der Uni Wien und hält die Keynote bei der Podiumsdiskussion zur Semesterfrage. © Sandra Wachter

Rudolphina: Sie haben erst vor Kurzem den Titel "Full Professor" an der Universität Oxford verliehen bekommen, Gratulation! Bei dieser Entscheidung war offensichtlich kein Algorithmus involviert, der aus vergangenen Entscheidungen für zukünftige lernt – Sie sind kein alter weißer Mann, sondern eine junge Frau …

Sandra Wachter: Ja, das ist ein gutes ­Beispiel, warum ich sehr froh bin, dass bestimmte Entscheidungen nach wie vor von Menschen getroffen werden.

Rudolphina: Für welche Alltagsentscheidungen fänden Sie es denn praktisch, einen Algorithmus zu haben?

Sandra Wachter: Ich liebe es zu forschen, zu unterrichten und mit Studierenden zu lernen, aber bei ein paar Aufgaben könnte ich mir algorithmische Hilfe gut vorstellen. Ein Algorithmus könnte mir helfen, Meetings zu koordinieren, Dienstreisen zu planen oder Fußnoten zu prüfen. Allerdings sind diese Aufgaben für einen Algorithmus viel zu komplex und daher werde ich bis auf ­Weiteres wohl auf algorithmische Hilfe ­verzichten müssen.

Rudolphina: Sie leiten die Forschungsgruppe "Governance of emerging technologies" am Oxford Internet Institute, wo Sie sich mit rechtlichen, ­ethischen und sozialen Fragen, die neue Informationstechnologien mit sich bringen, beschäftigen – was sind aktuell die brennendsten Themen?

Sandra Wachter: Wir beschäftigen uns etwa mit Internet­regulierung, Plattformregulierung, Fake News, Deep Fakes oder Robotics. Mein Fokus liegt aktuell auf künstlicher Intelligenz, ich schaue mir an, wie Algorithmen unser Leben verändern, auf positive wie auf negative Weise. Einer meiner Schwerpunkte ist der Datenschutz. Ein Algorithmus funktioniert ja nur, wenn man Daten hineinfüttert. Und ohne einen Algorithmus sind die Daten oft zu viel und zu unverständlich, um einen Nutzen daraus ziehen zu können – aber wo Daten im Spiel sind, gibt es immer auch Datenschutzprobleme. Ich möchte sozusagen die Geheimnisse ein Stück weit lüften, die ein Algorithmus über uns lernen kann, ohne dass uns das so richtig bewusst ist.

Rudolphina: Können Sie ein Beispiel nennen?

Sandra Wachter: Algorithmen sind sehr gut darin, zwischen den Zeilen zu lesen. Aufgrund von Daten, etwa darüber, welches Auto man fährt, welche Schuhe man trägt oder ob man sonntags gerne Eis isst, kann der Algorithmus bestimmte Vorhersagen über uns treffen – etwa ob jemand eine Frau ist, ob jemand schwarz ist oder einer bestimmten Religion angehört. Dinge, die man selbst nicht damit assoziieren würde. Man hinterlässt die ganze Zeit Spuren im Internet und gibt damit eigentlich mehr oder weniger sein Tagebuch ab. Algorithmen treffen oft sehr wichtige Entscheidungen über uns, etwa ob jemand ins Gefängnis gehen muss, ob jemand ein ­Darlehen bekommt, befördert oder ent­lassen wird. Und da diese Algorithmen meist sehr komplex und undurchsichtig sind, interessiere ich mich für die Frage, wie man sie erklärbar gestalten kann. Ich möchte verstehen, warum ein Algorithmus eine bestimmte Entscheidung getroffen hat, einfach um sicherzustellen, dass es auch die richtige Entscheidung war.  Und ein weiterer Fokus hat mit Gerechtigkeit, Fairness und Diversität zu tun – wir können schließlich nur die Daten sammeln, die schon entstanden sind. Und da es relativ wenige Bereiche gibt, die nicht von Sexismus, Rassismus, Heterosexismus etc. geprägt sind, muss man sich im Klaren sein, dass die Wahrscheinlichkeit, dass dieser Algorithmus unfair ist, sehr hoch ist. Man muss wachsam sein, Diskriminierungen aus der Vergangenheit nicht ungesehen zu übernehmen.

Rudolphina: Sie sagen, wir werden eigentlich alle im Internet diskriminiert, ohne es zu merken, inwiefern? Und was ist der Unterschied zwischen Diskriminierung im Internet und im analogen Leben?

Sandra Wachter: In der analogen Welt bekommen von Diskriminierung Betroffene das in der Regel mit und können sich zur Wehr setzen. ­Algorithmen machen das hinter unserem Rücken. Wenn ich mich etwa auf Jobsuche begebe, ist ab dem Zeitpunkt, wo ich den Browser öffne, bereits klar, wer ich bin – im Sinne meiner geschlechtlichen Identität, meiner sexuellen Orientierung, meiner ­ethnischen Zugehörigkeit, meiner Religion, meines Alters oder einer etwaigen Behinderung. Das bedeutet, mir wird nicht ungefiltert jeder Job angezeigt, sondern der Algorithmus sucht aus, was ich sehen soll. Es kann also sein, dass ich manche Jobs gar nicht angezeigt bekomme, weil ich vom Algorithmus als ungeeignet herausgefiltert worden bin, aber davon weiß ich gar nichts.

"In der analogen Welt bekommen von Diskriminierung Betroffene das in der Regel mit und können sich zur Wehr setzen. Algorithmen machen das hinter unserem Rücken."
Sandra Wachter
Lesen Sie auch
Digitalisierung und Demokratie
Algorithmen beeinflussen uns und unsere Gesellschaft. Deshalb sei es wichtig, dass wir die Konsequenzen ihres Einsatzes verstehen und in demokratischen Prozessen bewerten, sagt der Informatiker Sebastian Tschiatschek in seinem Gastbeitrag zur laufenden Semesterfrage "Was macht die Digitalisierung mit der Demokratie?".

Rudolphina: Was kann man gegen diese versteckte Diskriminierung tun? Ist die Bewusstseinsbildung schon ein erster Schritt? 

Sandra Wachter: Das Recht ist in diesem Fall machtlos, ein Beschwerdeverfahren kann ja nur demjenigen helfen, der sich diskriminiert fühlt. Es wurde nicht dafür geschaffen, einen Algorithmus davon abzuhalten, einem Menschen Schaden anzutun. Da muss man dringend nachbessern. Aus Statistiken wissen wir, dass 80 oder 90 Prozent der Leute glauben, dass die Suchergebnisse, die sie auf Google zu sehen kriegen, neutral sind. Aber im Internet ist gar nichts neutral, das sollten wir im Kopf behalten. Wir sitzen alle in einer Filterbubble, die maßgeschneidert ist für die Person, für die der Algorithmus uns hält. Daher muss man andere Wege ­finden, dafür zu sorgen, Menschen nicht mehr zu benachteiligen. Was man machen kann und wofür ich mich einsetze, sind sogenannte Bias-Tests. Ich sehe hier Unternehmen und Organi­sationen in der Bringschuld, sie müssen beweisen, dass ihr verwendeter Algorithmus die Gruppen gleichbehandelt.
 

Rudolphina: Wie schätzen Sie die Bereitschaft seitens der Unternehmen ein, dass sich hier etwas ändert? 

Sandra Wachter Inzwischen gibt es ein breites Problembewusstsein in Bezug auf Biases von KI und Algorithmen. Allerdings herrscht Uneinigkeit darüber, wie Fairness aussieht, wie man sie operationalisieren kann. Ich setze mich dafür ein, dass Gerechtigkeit nicht etwas Binäres ist, das zwischen 1 und 0 aufgeteilt werden kann. Gerechtigkeit ist kontextuell und schwimmt sehr stark zwischen 1 und 0 hin und her, ist historisch und kulturell fluide und eben kein einfaches mathe­matisches System. Trotzdem denke ich, dass ein aktives Bemühen um die Wahrung von Grund- und Menschenrechten etwas ist, das Konsument*innen anziehen wird. Es könnte ein netter Nebeneffekt sein, dass Firmen dafür, dass sie ethisch und auch rechtlich das Richtige tun, belohnt werden.

Rudolphina: Was macht Ihnen angesichts aktueller oder zukünftiger technologischer Entwicklungen besonders Sorgen?

Sandra Wachter: Was mich am meisten erschreckt, ist die Annahme der Unausweichlichkeit – dass Technologie eingesetzt werden muss, nur weil wir es können. Technik soll dazu genutzt werden, um unser Leben besser zu machen. Im Moment werden Algorithmen aber oft nicht dafür eingesetzt, bessere Entscheidungen zu treffen, sondern um Kosten zu sparen.

Rudolphina: Wo sehen Sie momentan große Chancen?

Sandra Wachter: In der Medizin, aber nicht um den Arzt oder die Ärztin zu ersetzen oder Pflege zu streichen. KI ist eine neue Technik, die helfen kann, bessere Entscheidungen zu treffen, etwa bei der Früh­erkennung von Hautkrebs. Algorithmen sind heute schon sehr gut darin, Krebs auf weißer Haut zu erkennen, aber nicht auf dunkler Haut. Man könnte also den Algorithmus so gestalten, um die Krebsvorsorge für nicht-weiße Menschen zu verbessern.

Rudolphina: Ihre Großmutter war eine der ersten Frauen, die an der TU Wien studiert haben – hat sie Ihr Interesse für Technik geprägt? 

Sandra Wachter: Meine Großmutter hat mich sehr stark in der Hinsicht beeinflusst, dass Technik und Mathematik und Frausein niemals im Widerspruch stehen. Ich habe mich schon als Kind für Technik interessiert, weil ich das Gefühl hatte, das kann etwas Gutes für unsere Gesellschaft sein. Das Recht hat sich dann einfach angeboten, ich bin jetzt zwar nicht diejenige, die Technik kreiert, aber vielleicht diejenige, die einen Schutzwall aufstellt, um sicherzustellen, dass Technik für die Menschen hilfreich ist.

Rudolphina: Haben Sie ein paar Tipps für unsere Leser*innen? Fehler, die man im Internet leicht vermeiden kann?

Sandra Wachter: Wichtig ist zu verstehen, wie wertvoll unsere privaten Daten sind. Die E-Mail-­Adresse anzugeben, mag harmlos erscheinen, aber wenn man sich überlegt, dass ständig jemand unsere Daten haben möchte, mit allen Mitteln, dann sind sie wahrscheinlich wertvoll. Das heißt, ich habe die wertvolle Sache in der Hand. Ich habe die Kontrolle und eigentlich habe ich die Macht. Oft gibt es Alternativen, man kann etwa Browser nutzen, die privatsphärenfreundlicher sind, z. B. Firefox, man könnte andere Suchmaschinen nutzen, wie DuckDuckGo, wo nicht so nachvollziehbar ist, was man im Internet macht. Aber eigentlich ist das so, als würde ich auf der Straße gehen, überall sind Kameras und ich gebe jemandem einen Tipp, wie er oder sie sich einen Hut gut ­aufsetzen kann oder einen Schal umwerfen, damit er oder sie icht gesehen wird. Das ist nicht Freiheit. Freiheit heißt, ich gehe hinaus, wie immer ich möchte, und ich werde in Ruhe gelassen. Mein Anliegen wäre, dass ich mich nicht ständig im Internet schützen muss – das heißt für mich Freiheit, Gerechtigkeit und Demokratie. 

Rudolphina: Danke für das Gespräch!

Wie verändert Digitalisierung die Demokratie?

Sandra Wachter: "Technologie kann Demokratie bestärken oder ihr entgegenwirken, sie sogar zerstören. Aufgabe des Rechts ist, sicherzustellen, dass die Grundrechte ausgeübt werden können. Ich will Technik genießen und Dinge machen können, die analog nicht so gut möglich wären – ohne Angst zu haben, dass jemand erfährt, welche politische Gesinnung ich habe, wer mein Gott ist oder irgendeine andere private Information, die ich nicht hergeben möchte."

© Sandra Wachter
© Sandra Wachter
Sandra Wachter ist Professorin für "Technology and Regulation" am Oxford Internet Institute der University of Oxford, wo sie die Forschungsgruppe "Governance of emerging technologies" leitet. In ihrer Forschung beschäftigt sich Wachter mit rechtlichen, ethischen und sozialen Fragen, die neue Informationstechnologien mit sich bringen. Wachter hat Rechtswissenschaften an der Universität Wien studiert.