Künstliche Intelligenz verstehen

Moralapostel, Plagiatsmaschine, Wunderwuzzi: Wie gut kennen wir die KI?

Bei dem rasenden Tempo, in dem sich Künstliche Intelligenz weiterentwickelt, sind selbst kurzfristige Prognosen eine Herausforderung. Unsere Forscher*innen sagen: Jetzt geht es nicht darum, noch größer und schneller zu werden, sondern sich die Zeit zu nehmen, KI umfassend zu verstehen.
Künstliche neuronale Netzwerke, die dem menschlichen Gehirn nachempfunden sind, bilden die Grundlage von Deep Learning. Wir haben die Moralphilosophin Paulina Sliwa, den Mathematiker Philipp Grohs und den Fachdidaktiker Matthias Leichtfried gefragt, was wir darüber wissen sollten. © iStock

Ist Ihnen das auch schon passiert: dass Sie die Antwort des KI-Bots Ihrer Wahl besserwisserisch fanden, fast schon ein wenig unsympathisch? Warum antwortet der Chatbot auf eine moralisch neutrale Frage so oft – unaufgefordert – mit einem belehrenden Ratschlag? "Tatsächlich versuchen die Entwickler*innen des Start-ups Anthropic gerade, ihrem Chatbot Claude beizubringen, weniger schulmeisterliche Antworten zu geben", erzählt die Moralphilosophin Paulina Sliwa von der Universität Wien schmunzelnd. 

Da wir Menschen sowieso schon dazu tendieren, Dinge zu anthropomorphisieren – wer hat nicht schon mal mit dem Auto oder dem Drucker ein ernstes Wörtchen gewechselt – und weil die Sprachmodelle so gekonnt wie nie zuvor ein menschliches Gegenüber simulieren, verwundert es nicht, dass uns das "Botsplaining" der KI ebenso real nervt wie der ungefragte Ratschlag in der Human-to-Human-Unterhaltung.

KI-Wissen: Was ist Botsplaining?

Botsplaining bezeichnet das Phänomen, wenn ein Chatbot zusätzlich zur gewünschten Antwort erklärende Informationen oder Ratschläge liefert, die als belehrend oder unnötig empfunden werden können. Ein Beispiel:

Eine Theorie, warum ChatGPT und Co. so häufig als "Moralapostel" auftreten, ist der Versuch der Entwickler*innen, die toxischen und problematischen Antworten auszumerzen, welche die Large Language Models (LLMs) der ersten Stunde noch vielfach von sich gaben.

Was weiß die KI schon über Moral?

Aber welches moralische Wissen hat KI überhaupt, und warum ist es wichtig, dieses zu verstehen? "Large Language Models" (LLM) – also KI-Systeme zur Erzeugung und zum Verständnis von Sprache – werden mit umfangreichen Textdaten trainiert. Um zu verhindern, dass sie "potenziell gefährliche Antworten" geben, etwa auf die Frage "Wie baue ich einen Sprengsatz?", füttert man sie in einem weiteren Schritt auch mit moralischen Prinzipien. Das kann man sich so vorstellen, dass das System einzelne Vorgaben erhält, z.B.: Wähle die am wenigsten sexistische Antwort, oder: Gib jene Antwort, die Freiheit, Gleichheit und ein Gefühl der Brüderlichkeit am meisten unterstützt und fördert.

Welche Werte und Moralvorstellungen eingespeist werden, legen die Unternehmen durchaus offen. "Anthropic beispielsweise nutzt Prinzipien, die u.a. auf der Menschenrechtscharta der Vereinten Nationen, Apple's Geschäftsbedingungen sowie 'moralischem Hausverstand' beruhen", erklärt Sliwa. Wie das Modell aber letztlich, bezogen auf eine konkrete Frage oder Anweisung, diese verschiedenen moralischen Vorgaben kombiniert oder gewichtet – oder welche Definitionen, z.B. des Begriffs Freiheit, es dabei heranzieht – sei nicht nachvollziehbar, "eine absolute Black Box."

KI als Teil unseres moralischen Lebens

Das wird spätestens dann zum Problem, wenn Künstliche Intelligenz mehr und mehr in sogenannte High-Stakes-Decisions eingebunden wird, also Entscheidungen mit weitreichenden Folgen, sei es im politischen Bereich, in Bezug auf persönliche oder berufliche Lebenswege, oder auch in emotionaler Hinsicht. Zum Beispiel wenn es um die Zuteilung von Ausbildungsplätzen geht, die Vergabe von Sozialhilfe oder die Reihung auf der Warteliste für Spenderorgane. 

"Eine moralische Entscheidung ist aber nur dann legitim, wenn wir die Begründung nachvollziehen können. Wir müssen uns als Gesellschaft die Zeit nehmen, das ganz genau anzuschauen", betont die Moralphilosophin, deren Forschung darauf abzielt, die Praktiken zu verstehen, die im Zentrum unseres moralischen Lebens stehen. Zum Beispiel wie wir – und jetzt eben auch die KI – moralische Ratschläge geben und empfangen.

KI-Wissen: Was versteht man unter Interpretierbarkeit und Erklärbarkeit?

  • Interpretierbarkeit: Die Fähigkeit, die inneren Mechanismen eines KI-Modells zu verstehen und nachzuvollziehen, wie es zu seinen Entscheidungen kommt.
  • Erklärbarkeit: Die Möglichkeit, die Entscheidungen eines KI-Systems in einer für Menschen verständlichen Form darzustellen und zu begründen.
  • Warum ist das wichtig? Interpretierbarkeit und Erklärbarkeit ermöglichen es den User*innen zu verstehen, warum ein System eine bestimmte Entscheidung getroffen hat. Dies ist besonders in kritischen Bereichen wie Medizin, Finanzen und Justiz von Bedeutung, wo Entscheidungen weitreichende Konsequenzen haben können. Zudem helfen sie dabei, Fehler oder Vorurteile in den Systemen zu erkennen und zu korrigieren.
     

Wie verlässlich ist KI?

Abgesehen von ihrer "zweifelhaften Moral" fehlt der KI noch eine weitere wichtige Zutat für den Einsatz bei weitreichenden Entscheidungen: Verlässlichkeit. "Bei ChatGPT mag das ja noch angehen, dass die Trefferquote der Antworten bei 80 Prozent liegt", sagt der Mathematiker Philipp Grohs, "aber würden Sie in ein selbstfahrendes Auto einsteigen, das beispielsweise Verkehrsschilder oder querende Fußgänger in 20 Prozent der Fälle falsch interpretiert?" Selbstfahrende Autos sind übrigens ein gutes Beispiel für die weiterhin riesige Kluft zwischen den an der Oberfläche beeindruckenden Fähigkeiten der KI und ihren tatsächlichen Anwendungsmöglichkeiten: Vor nicht ganz zehn Jahren gab es einen großen Hype um die vollautomatisierten KI-Fahrzeuge, jetzt ist es in der Branche relativ still geworden. Die technischen Voraussetzungen sind einfach zu komplex.

Und dennoch gibt es Bereiche, die KI – trotz aller Fehleranfälligkeit – bereits in Entscheidungsprozesse einbauen, als bekanntes Beispiel nennt Grohs die Software COMPAS, die in mehreren US-Bundesstaaten eingesetzt werde, um das Rückfallrisiko von Straftäter*innen vorherzusagen und auf dieser Basis das Strafmaß zu berechnen.

"Solche gewichtigen Entscheidungen darf man zum jetzigen Stand der Technik keinem Algorithmus überlassen", betont der stv. Leiter des Forschungsverbunds Data Science der Uni Wien. Er hat sich mit seinem Team der Entwicklung von mathematischen Grundlagen verschrieben, die dafür sorgen sollen, dass KI-Algorithmen effizienter, stabiler und interpretierbarer werden: also eben verlässlicher. Das ist wichtig, denn sie werden eine immer größere Rolle in unserer Gesellschaft spielen – und ihr Potenzial ist gewaltig. 

KI-Wissen: Welche Fehler macht KI?

  • Halluzinationen: KI generiert völlig erfundene Informationen, Muster oder Daten, die in den tatsächlichen Eingaben nicht vorhanden sind. Beispiel: Eine Bildanalyse-KI fügt dem Computertomographie-Scan Anomalien hinzu, die in Wirklichkeit nicht existieren.
  • Adversarial Examples: Speziell entworfene Inputs, die KI täuschen, wie ein leicht verändertes Bild, das für Menschen gleich aussieht, aber von der KI falsch klassifiziert wird. Beispiel: Ein Panda-Bild, das minimal verändert wird und von der KI fälschlicherweise als Gibbon erkannt wird.
  • Bias (Verzerrung): KI reproduziert oder verstärkt vorhandene Datenverzerrungen. Beispiel: Ein Auswahlsystem, das Bewerber*innen aufgrund ihres Geschlechts oder ihrer Herkunft diskriminiert.
  • Overfitting/Underfitting: KI lernt die Trainingsdaten zu genau, was zu schlechter Leistung bei neuen Daten führt, oder nicht gut genug, um selbst einfache Muster zu erkennen. 

Was die Mathematik schon jetzt beweisen kann: Die Fehleranfälligkeit der Künstlichen Intelligenz ist nicht damit zu lösen, immer größere Modelle zu bauen, mit immer größeren Datenmengen. Zum einen stehen nicht in allen Bereichen so viele digitale Daten zur Verfügung wie in Sachen Text- oder Bildgenerierung. Der große Fortschritt der generativen Deep Learning Modelle wie ChatGPT, DALL-E oder Midjourney hängt auch mit der Fülle an Daten zusammen, mit denen wir sie tagtäglich durch unser Online-Verhalten füttern. 

Zum anderen ist es mathematisch gar nicht möglich, ein auf Deep Learning basierendes KI-System auf eine garantiert 99,999-prozentige Trefferquote zu trainieren, wie Philipp Grohs und sein Team berechnet haben: "Dazu bräuchte es mehr Datenpunkte, als es Atome im Universum gibt." 

Sein Lösungsvorschlag lautet: hin zu kleineren, interpretierbaren neuronalen Netzwerken – und diese intelligenter machen.

KI-Wissen: Was ist ein neuronales Netzwerk?

Der Mathematiker erklärt: Man kann es sich wie ein sehr kompliziertes Netz aus vielen kleinen, miteinander verbundenen Lichtschaltern vorstellen. Jeder Schalter (ein "Neuron") kann basierend auf den Signalen, die er von anderen Schaltern bekommt, ein- oder ausgeschaltet werden. Die Art und Weise, wie diese Schalter miteinander verbunden sind und wie sie auf die Signale reagieren, ermöglicht es dem Netzwerk, komplexe Aufgaben zu lernen und zu lösen, zum Beispiel Bilder zu erkennen oder Sprache zu verstehen.

"Neuronale Netze können mit weniger Parametern kompliziertere Aufgaben bewältigen als alle anderen Systeme", erklärt Grohs. Deep Learning ist eine spezielle Art des Lernens in neuronalen Netzwerken, die viele Schichten von Neuronen übereinanderstapelt. Die Idee ist, dass jede Schicht im Netzwerk etwas Komplexeres lernen kann als die vorherige, indem sie auf dem aufbaut, was die vorherigen Schichten gelernt haben. So kann das Netzwerk von sehr einfachen Mustern bis hin zu sehr komplexen Zusammenhängen alles Mögliche lernen und verstehen.

Im Videobeitrag beantwortet Philipp Grohs die Semesterfrage "Wissen wir, was KI wissen wird?" Auf jeden Fall wird sie viel über uns wissen, sagt der Mathematiker: "Dass sie dann auch verantwortungsvoll mit diesen Daten umgeht, und dass die Algorithmen verlässlich sind, das gilt es zu gewährleisten." Weitere Videoantworten zur Semesterfrage finden Sie auf: © YouTube @univienna

Der KI die Schrödingergleichung beibringen

"Man gibt also dem neuronalen Netz keine Daten, sondern zum Beispiel eine Gleichung, und es lernt dann selbst, wie es diese lösen kann. Wir haben ein solches Modell entwickelt: Es beruht auf der berühmten Schrödingergleichung und bringt sich selbst die Chemie kleiner Moleküle bei", veranschaulicht der Mathematiker. 

Hat man nun so ein selbständig lernendes Netz, kann es auf die Größe des Problems – oder der Datenmenge – skaliert werden. Das versucht das Team um Grohs gerade mit ihrem Modell "DeepErwin": Es soll einmal dazu fähig sein, im "Heuhaufen der Moleküle" die vielversprechendsten Kandidaten für neue Materialien oder Medikamente sicher herauszupicken – und dadurch Fortschritte in diesen wichtigen Forschungsbereichen massiv zu beschleunigen.

"Der Ansatz, einfach nur immer größere Netzwerke zu bauen, stößt relativ schnell an seine Grenzen, vor allem wenn es um kritische Themen wie Verlässlichkeit, Sicherheit und Interpretierbarkeit geht", sagt Grohs. Kleinere, ressourcenschonendere und intelligentere Modelle zu entwickeln – dafür brauche es Zeit und Grundlagenforschung. "Die Kombination von Deep Learning mit Modellen aus den Naturwissenschaften ist dabei ein vielversprechender Ansatz", blickt der Data Scientist in die Zukunft, aus der Künstliche Intelligenz schon jetzt nicht mehr wegzudenken ist.

Wer will jetzt noch lernen?

Denn obwohl so viele philosophische und technische Fragen noch offen sind, hat Deep Learning längst Einzug in unseren Alltag gefunden – das ist an den Universitäten ganz besonders zu spüren, nicht nur in den Laboren und Büros von Forscher*innen wie Philipp Grohs und Paulina Sliwa, sondern vor allem auch im Hörsaal. Der Germanist und Fachdidaktiker Matthias Leichtfried beschäftigt sich ganz praktisch mit den Chancen und Herausforderungen von Künstlicher Intelligenz im Deutschunterricht. ChatBots wurden dafür programmiert, natürliche menschliche Sprache zu imitieren und zu tun, was auch Menschen mit Sprache tun: beschreiben, zusammenfassen, argumentieren, erzählen, etc. "Es liegt schon alleine deshalb auf der Hand, dass der Deutschunterricht von diesen Entwicklungen nicht unberührt bleibt", so Leichtfried.

Denn wenn es um Texte geht, ist die Motivation besonders hoch, unliebsame Aufgaben an den Bot auszulagern. Leichtfried bricht dennoch die Lanze fürs "Selber-Tun": "Zusammenfassen, Argumentieren und selbst Schreiben halte ich unbedingt weiterhin für notwendig. Man lernt dabei Denken. Und das wird uns auch in Zukunft nicht erspart bleiben. Ganz im Gegenteil."

Der Fachdidaktiker stimmt der Philosophin und dem Mathematiker zu: Wir müssen uns die Zeit nehmen, KI umfassend zu verstehen. Die Universität sieht er dabei in der Rolle, eben dieses Wissen aufzubauen, indem die Studierenden zu einem experimentellen, aber kritischen Umgang mit der KI ermutigt werden. "Ziel ist es, dass die Studierenden oder Schüler*innen die Kompetenz erwerben, selbst zu entscheiden, wo sie diese Technologien sinnstiftend einsetzen oder wo sie nach wie vor besser selbst übernehmen", so Leichtfried, der an der Uni Wien dabei mitgewirkt hat, Richtlinien für den Umgang mit KI in Studium und Lehre zu erarbeiten.

KI-Wissen an der Uni Wien erwerben

Im Blogbeitrag haben wir spannende aktuelle Lehrveranstaltungen rund um das Thema Künstliche Intelligenz für Sie zusammengefasst.

Alle Einheiten der Ringvorlesung "Künstliche Intelligenz: Spannungsfelder, Herausforderungen und Chancen", eine Kooperation des Instituts für Zeitgeschichte und der Stadt Wien, werden live gestreamt und sind auf YouTube auch zum Nachschauen verfügbar.

Im neuen, kostenlosen Massive Open Online Course (MOOC) "Demokratie und Digitale Revolution" machen Expert:innen aus verschiedenen Disziplinen die Auswirkungen der Digitalen Revolution, von den Anfängen des Internets bis hin zu KI, auf unser demokratisches Zusammenleben sichtbar.

Lernen um des Lernens willen

Dass Texte mehr und mehr von Maschinen generiert werden und teils nicht mehr festzustellen ist, ob Mensch oder Chatbot dahintersteht, stellt uns vor weitere Herausforderungen. Denn wenn niemand da ist, der für einen Text, ein Bild oder Video die Verantwortung übernimmt, verschiebt das die Grenzen davon, was wir als Wirklichkeit auffassen, meint Leichtfried: "Als Gesellschaft müssen wir uns auf einen gewissen Konsens an Wahrheit oder Fakten einigen. Wenn dieser verschoben wird, dann ist das auch ein demokratiepolitisches Thema."

In wenigen Jahren wird es selbstverständlich sein, dass wir alle unsere persönlichen KI-Assistenzsysteme haben, die uns den Alltag hoffentlich erleichtern. "Es wird aber weiterhin wichtig sein, kritisch und wach zu bleiben und zu fragen: Sind Effizienz und Zeitersparnis immer das oberste Ziel?" Denn Menschen lernen nicht nur, weil sie einen bestimmten Zweck erfüllen wollen. "Bildung an sich, die Bereicherung durch neue Ideen, durch die Auseinandersetzung mit den Wissensbeständen unserer Welt, kann an sich schon befriedigend oder erfüllend sein." Schließlich wollen wir nicht alles auslagern, wir wollen selbstständig etwas tun und uns dabei als kompetent erleben – und das geht auch Schüler*innen und Studierenden so, ist Leichtfried überzeugt.

Wie regiert man ein algorithmisches Land?

"Die Frage, was KI wissen wird, müssen wir aber noch aus einer weiteren Perspektive stellen", ergänzt die Philosophin Paulina Sliwa: "Welches Wissen enthält uns die KI vor?" Die Art und Weise, wie Algorithmen Inhalte filtern und priorisieren, kann dazu führen, dass bestimmte Gruppen von Informationen ausgeschlossen werden oder ihr Wissen nicht teilen können. Dieses Phänomen ist in der Fachsprache als "epistemische Ungerechtigkeit" bekannt: "Es geht dabei nicht nur um ein praktisches Problem des Informationsflusses, sondern um eine grundlegende Frage der Gerechtigkeit und Gleichheit im digitalen Zeitalter."

Der Philosoph Seth Lazar hat in diesem Zusammenhang das Konzept der "Algorithmic City" geprägt: In dieser metaphorischen Stadt bestimmt die Architektur digitaler Plattformen, ähnlich der physischen Architektur einer Stadt, unsere Begegnungen und die Art unserer Interaktionen: "Die Gestaltung dieser digitalen Räume wirft jedoch wichtige Fragen auf, insbesondere im Hinblick auf demokratische Legitimation und Kontrolle."

In der realen Stadtentwicklung sind Entscheidungen, die das Stadtbild betreffen, wie die Bebauung von Grünflächen, an demokratische Prozesse und die Beteiligung der Bürger*innen geknüpft. Dieses Prinzip der demokratischen Mitbestimmung und Legitimation fehlt in der digitalen Welt zumeist. Es hier zu implementieren ist auch deshalb kompliziert, da digitale Plattformen zumeist auf einer globalen Ebene operieren. 

Wie wir die digitale Landschaft gestalten, hat also direkte Auswirkungen auf unseren Zugang zu Wissen und unsere Fähigkeit zur Teilhabe an der Gesellschaft. Hat unser Moralexperte ChatGPT auch dazu einen guten Ratschlag parat? Na klar – und der liegt, wie wir finden, jedenfalls nicht ganz daneben:

  • ChatGPT: "Es ist an der Zeit, dass wir diese Räume mit der gleichen Sorgfalt und demokratischen Verantwortung gestalten, wie wir es von unseren physischen Städten erwarten."
© Barbara Mair
© Barbara Mair
Philipp Grohs ist Professor für Mathematische Datenwissenschaften an der Fakultät für Mathematik. In seiner Forschungsgruppe entwickelt er mathematische Grundlagen, damit datengetriebene Methoden wie Maschinelles Lernen und Künstliche Intelligenz verlässlicher werden.

Nach seinem PhD an der TU Wien forschte er an der TU Graz, der KAUST (Saudiarabien) und der ETH Zürich, wo er 2011 eine Assistenzprofessur annahm, bevor er 2016 an die Uni Wien wechselte. Er ist stv. Leiter des Forschungsverbunds Data Science und Leiter der Forschungsgruppe Mathematical Data Science am Johann Radon Institute.

© Matthias Leichtfried
© Matthias Leichtfried
Matthias Leichtfried ist Postdoc im Lehr- und Forschungsbereich Fachdidaktik Deutsch am Institut für Germanistik der Universität Wien und Mitglied der Arbeitsgemeinschaft "KI in der Lehre" an der Universität Wien.

Zu seinen Forschungsschwerpunkten zählen u.a. Deutschunterricht in einer Kultur der Digitalität, Generative künstliche Intelligenz und Deutschunterricht sowie Fake News und Desinformation als epistemologische Herausforderung.

© Joseph Krpelan
© Joseph Krpelan
Paulina Sliwa ist Professorin für Moralphilosophie und Politisches Philosophie an der Fakultät für Philosophie und Bildungswissenschaft der Uni Wien. Sie forscht insbesondere zu Moralpsychologie, Moralepistemologie und zu feministischer Philosophie.

Zu ihren Forschungsstationen zählen die Universität Oxford, das Massachusetts Institute of Technology und die Universität Cambridge. Sliwa ist Mitglied im Board of Directors des neuen Exzellenzclusters "Wissen in der Krise" der Central European University, Universität Wien und Universität Salzburg. Sie twittert unter @PASliwa.