Gehirn-KI-Schnittstellen
Gehirn-KI-Schnittstellen

Wie kann KI Menschen mit Sprachbehinderungen helfen?

14. Mai 2024 Gastbeitrag von Moritz Grosse-Wentrup
KI-Technologien eröffnen Menschen mit Sprachbehinderungen neue Kommunikationswege, werfen aber auch ethische Fragen auf. Neuroinformatiker Moritz Grosse-Wentrup gibt Einblicke in ein hochaktuelles Forschungsfeld.
In seinem Gastbeitrag im Rahmen der Semesterfrage "Wissen wir, was KI wissen wird?" wirft der Neuroinformatiker Moritz Grosse-Wentrup einen Blick in die Zukunft intelligenter Sprachassistenzsysteme. © Volodymyr Hryschenko/Unsplash

Stellen Sie sich vor, Sie haben Ihre Sprache verloren – nicht nur die Fähigkeit zu sprechen, sondern auch die Fähigkeit in ihrem Kopf mit Sprache zu denken. Diese beängstigende Vorstellung ist für viele Menschen Realität, zum Beispiel als Folge eines Schlaganfalls. Ein Schlaganfall kann durch eine Blutung im Gehirn oder durch eine Unterversorgung des Gehirns mit Sauerstoff als Folge eines verstopften Gefäßes entstehen und schädigt die betroffenen Gehirnareale.

Sind Sprachareale des Gehirns betroffen, führt dies zu einer Aphasie. Aphasie bedeutet, dass die Fähigkeit, sprachlich zu denken und zu kommunizieren, eingeschränkt ist. Viele betroffene Menschen können durch intensives Sprachtraining im Rahmen einer Rehabilitation ihre Sprache zu Teilen zurückgewinnen. Aber wie hilft man den Menschen, die ihre Sprache unwiederbringlich verloren haben, im Alltag zu kommunizieren?

Wie aktuelle Technologien helfen können

Diesen Menschen steht eine Bandbreite von Sprachassistenzsystemen zur Verfügung. Diese Systeme beruhen zumeist darauf, dass auf einem Computer oder Tablet häufig benutzte Phrasen als Piktogramme dargestellt werden. Bei Auswahl eines Piktogramms liest das System den hinterlegten Text mit einer Computerstimme vor. Durch eine Anpassung der hinterlegten Texte und Piktogramme kann das System personalisiert werden, so dass häufig verwendete Phrasen schnell ausgewählt werden können. Bei der Frage "Was möchtest du heute essen?" könnte die Auswahl eines Pizza-Piktogramms den Computer den Satz "Ich habe heute Lust auf Pizza." sprechen lassen.

"Wir hoffen, dass unsere Systeme Menschen mit Sprachbehinderungen helfen, wieder aktiver am täglichen Leben teilzunehmen", erklärt Moritz Grosse-Wentrup im Video. Der Neuroinformatiker entwickelt mit seinem Team KI-Systeme, welche die neuronale Aufnahmen von Gehirnaktivitäten auslesen können.

Diese Assistenzsysteme helfen Menschen mit Aphasie häufig auftretende Alltagssituation zu bewältigen. In neuen Situationen, für die kein passendes Piktogramm oder keine passende Phrase im System hinterlegt ist, sind sie weniger nützlich. Hier kann die Künstliche Intelligenz (KI) helfen. Anstatt mit vorgegebenen Phrasen zu arbeiten, kann die KI einer Kommunikation zuhören, diese analysieren, und als Teil des Sprachassistenzsystems eine Auswahl passender Antworten vorschlagen.

So könnte die KI bei einem Anruf im Finanzamt aus der Begrüßung am Telefon heraushören, dass es hier wahrscheinlich um ein Anliegen im Zusammenhang mit einer Steuererklärung geht. Die KI könnte dann die Auswahlmöglichkeiten "Ich möchte mich erkundigen, wann meine Steuererklärung bearbeitet wird?" oder "Ich möchte einen Antrag auf Fristverlängerung für meine Steuererklärung stellen." als Phrasen vorschlagen. Durch Auswahl der passenden Antwort würde diese dann durch das System vorgelesen.

Von intelligenten Sprachassistenzsystemen zu Gehirn-KI Schnittstellen

Intelligente Sprachassistenzsysteme wie hier beschrieben sind noch nicht am Markt, werden aber aktiv entwickelt und voraussichtlich in wenigen Jahren verfügbar sein. In der Forschungsgruppe Neuroinformatik an der Fakultät für Informatik der Universität Wien denken wir schon daran, wie diese Systeme in der ferneren Zukunft aussehen sollen.

Dabei beschäftigen wir uns insbesondere mit der Auswahl der gewünschten Antworten, die derzeit eine explizite Interaktion, wie ein Mausklick, mit dem System erfordert. Unser Ziel ist ein intuitives System: Ähnlich wie unser Sprachsystem automatisch funktioniert, möchten wir, dass die KI ohne bewusste Auswahl oder Bildschirmbedienung für Menschen mit Sprachbehinderungen spricht. Dafür entwickeln wir eine neue Generation von Gehirn-Computer Schnittstellen, die wir Gehirn-KI Schnittstellen nennen.

So könnte ein Chat mittels Gehirn-KI-Schnittstelle funktionieren. Das Video der Forschungsgruppe Neuroinformatik an der Uni Wien zeigt (hier in einem Experiment mit simulierten Telefongesprächen), wie über eine "Sprachneuroprothese" komplexe Kommunikation ermöglicht wird, ohne dass Sprache erzeugt werden muss. © Neuroinformatics UniVie

Zukunftsvision: Intuitive Kommunikation durch KI

Diese Schnittstellen zeichnen mit Sensoren Gehirnaktivität auf, aus der dann die KI die gewünschte Antwort herausliest, ohne dass diese durch eine explizite Interaktion mit dem System ausgewählt werden muss. Unsere Vision ist es, dass die KI in Zukunft das Sprachsystem von Menschen mit schwerer Aphasie ersetzen kann, und so diesen Menschen wieder eine mühelose Kommunikation im Alltag ermöglicht.

Mitdiskutieren: Posten Sie ihre Fragen und Kommentare zum Artikel

Würde Sie KI-Systeme nutzen, die Sie bei Ihrer Kommunikation (zum Beispiel auf sozialen Medien) unterstützen? Und welchen Einfluss hätte es auf unsere Sprache, wenn wir vermehrt durch KIs mit unseren Mitmenschen kommunizieren?

Teilen Sie Ihre Meinung und diskutieren Sie mit unserem Experten Moritz Grosse-Wentrup im Diskussionsforum auf derStandard.at!

 

Nicht nur technologische sondern auch ethische Herausforderungen

Wie viele neue Entwicklungen in der Grundlagenforschung wirft auch dieses Thema wichtige ethische Fragen auf. Wie kann zum Beispiel sichergestellt werden, dass die KI keine geheimen Informationen preisgibt? Soll es auch möglich sein mit dem System zu lügen? Und wie kann ausgeschlossen werden, dass eine Gehirn-KI Schnittstelle von Hackern übernommen wird? All dies sind Fragen, die in der Entwicklung der Gehirn-KI-Schnittstellen von Anfang an mitgedacht werden müssen.

Neben diesen ethischen Fragestellungen, die vor allem die Menschen betreffen, die eine Gehirn-KI Schnittstelle nutzen werden, stellen sich aber auch größere, gesellschaftliche Fragen. Wird KI-unterstütze Kommunikation auch für Menschen ohne Sprachbehinderungen interessant sein, zum Beispiel als Ersatz für die Texteingabe auf Smartphones? Und welchen Einfluss hätte es auf unsere Sprache, wenn wir vermehrt durch KIs mit unseren Mitmenschen kommunizieren? Diese Fragestellungen unterstreichen, wie wichtig ein Austausch zwischen den Entwicklern von KI-Systemen und allen Menschen ist, die von diesen Entwicklungen auf die eine oder andere Art betroffen sein werden.

Lange Nacht der Forschung an der Uni Wien

Besuchen Sie Moritz Grosse-Wentrup und sein Team bei der Langen Nacht der Forschung an der Uni Wien und erhalten Sie einen Einblick in die Zukunft der Sprachprothesen!

Teilnehmer*innen haben die einzigartige Gelegenheit, mit Forschenden zu sprechen, ohne dass diese den Mund bewegen. Erfahren Sie mehr über Gehirn-Computer-Schnittstellen sowie unkonventionelle Anwendungen von machine learning und AI-Systemen in einem Teilbereich der Informatik!

Am 24. Mai, 17 bis 23 Uhr im Hauptgebäude der Uni Wien!

  • Dieser Artikel erschien im Rahmen der Kooperation zur Semesterfrage auch auf derStandard.at.
© Barbara Mair
© Barbara Mair
Moritz Grosse-Wentrup ist Professor für Neuroinformatik an der Fakultät für Informatik der Universität Wien. Seine Forschungsschwerpunkte sind die Entwicklung von KI-Algorithmen für die Analyse neuronaler Daten und deren Anwendungen im Bereich der Neurotechnologien.