KI und Recht

Zeig mir dein Gesicht

31. Juli 2024 von Theresa Dirtl
Ob beim Online Banking oder im digitalen Amt – Gesichtserkennung wird zunehmend Teil unseres Alltags. Der umstrittene Einsatz dieser auf künstlicher Intelligenz basierenden Technologie wirft auch viele rechtliche Fragen auf, mit denen sich aktuell ein Team der Arbeitsgruppe Rechtsinformatik auseinandersetzt.
Im Interview erklären Jonas Pfister und Felix Schmautzer von der Arbeitsgruppe Rechtsinformatik der Uni Wien u.a., wie die EU den Einsatz biometrischer Anwendungen in Zukunft regeln will. © Pexels

Keine komplizierten Passwörter mehr merken, sondern einfach das Gesicht in die Kamera halten und schon ist man z.B. in der Online-Bank – so einfach und vor allem sicher kann Gesichtserkennung sein. Oder? Grundsätzlich ja, denn die physischen Gesichtsmerkmale eines jeden Menschen sind so einzigartig wie sein Fingerabdruck oder die Iris. Da viele Menschen ihre Passwörter für mehrere Anwendungen verwenden oder sie nicht sicher genug gestalten, ist die Gesichtserkennung im Vergleich dazu nicht nur einfacher, sondern meist auch sicherer.

Allerdings nur so lange die biometrischen Daten nicht gehackt werden. Das ist vielleicht nicht ganz so einfach wie im Fall von Passwörtern, aber auch nicht unmöglich und bereits passiert. So haben Hacker z.B. beim iPhone X die Face ID mit dem Einsatz einer Maske "überlistet". In diesem Fall wurden nur Sicherheitsmängel des Apple Produkts offengelegt, aber der kriminelle Missbrauch mit gehackten biometrischen Daten führt im schlimmsten Fall zu kompletten Identitätsdiebstählen. Gehackte Passwörter können gesperrt, verändert und verbessert werden, aber gestohlene biometrische Daten sind nicht ersetzbar.

KI-Wissen: Biometrische Gesichtserkennung

Biometrische Gesichtserkennung ist eine Technologie, die verwendet wird, um Personen anhand ihrer Gesichtsmerkmale zu identifizieren oder zu verifizieren. Sie analysiert spezifische physiologische Merkmale des Gesichts, wie die Position und Form von Augen, Nase, Mund und Kiefer. Die Technologie wird in verschiedenen Bereichen eingesetzt, darunter Sicherheit (z.B. Zutrittskontrollen), Smartphones (z.B. Entsperrung durch Gesichtserkennung) und im Strafvollzug. Das IKT-Sicherheitsportal gibt einen Überblick über Funktionsweise und Sicherheit biometrischer Gesichtserkennung.

Schutz biometrischer Daten

Ebenso wie die DNA und der Fingerabdruck zählt die Gesichtserkennung eines Menschen zu den sogenannten sensiblen personenbezogenen Daten. Diese dürfen eigentlich nur in Ausnahmefällen verarbeitet werden, wie z.B. zum Schutz der Bevölkerung. So kommt in Österreich die Gesichtserkennung etwa in der Strafverfolgung zum Einsatz.

Doch wie kann man den Einsatz dieser Technologie tatsächlich rechtlich regeln – angesichts dessen, was bereits möglich ist oder möglich sein wird? Wie werden biometrische Anwendungen in Zukunft rechtlich behandelt? Mit dem Lösungsansatz der Europäischen Union beschäftigt sich derzeit die Arbeitsgruppe Rechtsinformatik rund um Erich Schweighofer an der Uni Wien. Rudolphina sprach mit Jonas Pfister und Felix Schmautzer aus der Arbeitsgruppe, die im Projekt XAIface offene Rechtsfragen rund um Gesichtserkennung analysiert haben.

Rudolphina: Das kürzlich abgeschlossene XAIface-Projekt untersuchte Anwendungen von Gesichtserkennung und Ihre Arbeitsgruppe beschäftigte sich dabei mit den noch offenen Rechtsfragen. Was sind die wichtigsten Punkte?

Jonas Pfister: Der Fokus des Projekts lag auf der Erklärbarkeit von Gesichtserkennungstechnologien basierend auf KI-Modellen. Interessant dabei ist die akademische Debatte rund um Artikel 15 in Verbindung mit Artikel 22 der DSGVO. Demnach müssen betroffenen Personen sowohl aussagekräftige Informationen über die Logik hinter der Gesichtserkennungstechnologie, also auch die Folgen der jeweiligen Entscheidung, die auf automatisierter Verarbeitung beruht, dargelegt werden. Kerninhalt der Diskussion war nun die Frage, wie detailliert die Funktionsweise des Systems offengelegt werden muss und insbesondere, ob eine solche Einzelfallentscheidung überhaupt erläutert werden muss. Bisher war es so geregelt, dass der betroffenen Person die einzelnen Faktoren, die in die Entscheidung eingeflossen sind, nicht offenbart werden müssen.

Rudolphina: Welche Auswirkungen hat diese Diskussion auf mich als Einzelperson?

Jonas Pfister: Kennt eine Person diese Faktoren nicht, kann sie sich auch nicht gegen falsche oder diskriminierende automatisierte Entscheidungen wehren. Aktuell zeichnet sich jedoch eine Trendwende ab: der Generalanwalt des Europäischen Gerichtshofes hat festgehalten, dass genau jene Faktoren in einer für die betroffene Person interpretierbaren Weise kommuniziert werden müssen.

Für das Projekt ergab sich daher die Frage, wie diese Anforderungen für Gesichtserkennung technisch umgesetzt werden können. Um diese Erfordernisse zu erfüllen, entwickelte das Konsortium ein ganzheitliches System, das unter anderem mit sogenannten "Heatmaps" funktioniert. Aus diesen ist für den durchschnittlichen Menschen aufgrund unterschiedlicher Farbcodierung leicht erkennbar, welche Gesichtsmerkmale die Identifizierung beeinflusst haben.

Rudolphina: Was ist aus juristischer Sicht besonders problematisch bei automatisierter Gesichtserkennung?

Felix Schmautzer: Um die entsprechenden Modelle trainieren zu können, ist eine erhebliche Menge an personenbezogenen Daten notwendig. Diese Datensätze datenschutzkonform zusammenzustellen stellt ein großes Hindernis für alle Entwickler*innen dar. Selbst wenn die Daten öffentlich verfügbar sind, wie z.B. in den sozialen Medien, sind sie nämlich dennoch geschützt. Daher können sie nicht ohne Weiteres für das Modelltraining herangezogen werden. Gegen Unternehmen, die diese Praktiken dennoch nutzten, wurden von mehreren Datenschutzbehörden Verfahren eingeleitet, die in hohen Geldstrafen und Verboten endeten. Um dieser Praxis endgültig einen Riegel vorzuschieben, soll nunmehr auch ein explizites Verbot von nicht-zielgerichtetem Sammeln von Bildern zur Erweiterung von Datenbanken für Gesichtserkennungssoftware in die KI-Verordnung aufgenommen werden.

Doch die KI-Verordnung birgt auch Erleichterungen: ein zusätzlicher Verarbeitungstatbestand außerhalb der DSGVO zum Zweck der Aufbesserung von Trainingsdatensätzen wurde geschaffen. So dürfen auch besondere Kategorien personenbezogener Daten ausnahmsweise zusätzlich verarbeitet werden, um die Entwicklung eines sogenannten "Bias", also Verzerrungseffekte zu Ungunsten der Subjekte, zu verhindern, sofern sonstige Sicherheitsmaßnahmen eingehalten werden. Dies begünstigt wiederum die Verarbeitung von zusätzlichen Gesichtsdaten.

Biometrische Daten: Zwischen Nutzung, Recht und Datenschutz

Wie sicher ist die Verwendung von biometrischen Daten? Christiane Wendehorst, Professorin für Zivilrecht an der Universität Wien, klärt im Interview auf der IKT-Plattform "onlinesicherheit.at" über datenschutzrechtliche Fragestellungen sowie rechtliche Rahmenbedingungen auf.

Rudolphina: Auch die aktuellen europäischen Entwicklungen werden im Projekt einbezogen. Können Sie diese kurz skizzieren?

Jonas Pfister: Auf EU-Ebene wird aktuell versucht, einen umfassenden Rahmen für künstliche Intelligenz einzuführen. Medial wird hier vorwiegend die Einführung der KI-Verordnung diskutiert. Daneben soll aber auch die Produkthaftungsrichtlinie novelliert und zusätzlich eine KI-Haftungsrichtlinie erlassen werden. Diese Vorhaben sehen sich aber großer Kritik ausgesetzt. Das mag auch dem Umstand geschuldet sein, dass die Auffassungen darüber, wie das Haftungsregime funktionieren soll, sich in den jeweiligen Mitgliedstaaten sehr stark unterscheiden. Fakt ist allerdings, dass die bisherigen nationalen Haftungsnormen auf menschliches Verhalten zugeschnitten waren und daher jedenfalls eine Änderung notwendig ist, da ansonsten sogenannte "Haftungslücken" entstehen können, die nicht bereits durch geltendes Schadenersatzrecht abgedeckt werden.

Ein lebensnahes Beispiel: Gehen wir davon aus, dass ich als Unternehmer einen meiner Mitarbeiter schicke, um das Haus eines Kunden zu streichen. Der Mitarbeiter verhält sich ungeschickt und verschüttet einen Eimer Farbe auf dem Weg zum Kunden. Dadurch wird der Lack eines Autos eines Fremden beschädigt. Ich, als Unternehmer, hafte zumindest dann für den entstandenen Schaden, wenn der Mitarbeiter "wissentlich gefährlich" oder "habituell untüchtig" ist. Für den Einsatz eines angemieteten "habituell untüchtigen Roboters" besteht so eine Regel nicht. Daher könnte der Fremde den Schaden nicht einfach von mir, dem Unternehmer, verlangen. Solche Lücken müssen geschlossen werden.

Auf biometrische Systeme angewandt: Nehmen wir an, jemand wird fälschlicherweise von einem KI-System als fremde Person identifiziert, welche eines Verbrechens verdächtigt wird. Dadurch verliert diese Person Kundenaufträge, ihren Job oder es entsteht ihr ein sonstiger Schaden. Gesetzlich würde dieser "reine Vermögensschaden" aktuell nur in Sonderfällen ersetzt werden. In Zukunft könnte sich das ändern, falls die KI-Verordnung als sogenannte "Schutznorm" interpretiert wird.

Lesen Sie auch
Ethik der KI
Ein interdisziplinäres Expert*innengremium begleitet Österreich bei der Umsetzung der UNESCO-Empfehlungen zur Ethik der Künstlichen Intelligenz, mit dabei sind drei Wissenschafter*innen mit Uni Wien-Bezug. Rudolphina hat nachgefragt, warum KI-Governance global gedacht werden muss und welche Möglichkeiten und Gefahren sich daraus ergeben.

Rudolphina: Wie ist es überhaupt möglich, mit dieser sich schnell entwickelnden Technologie juristisch "mitzuhalten"?

Felix Schmautzer: Tatsächlich ist es sehr schwierig für den nationalen und europäischen Gesetzgeber, mit diesen Entwicklungen Schritt zu halten. Seit geraumer Zeit ist es daher die Herangehensweise des europäischen Gesetzgebers, wie beispielsweise in Bezug auf technische Datensicherheit nach der DSGVO, technologieneutrale Normen zu schaffen, deren Bedeutung und Anforderungen sich im Zuge der Entwicklung der Technologie verändern. Alleine die österreichische Rechtsordnung beruft sich mehr als 600 Mal auf den sogenannten "Stand der Technik", um in der Rechtsanwendung Flexibilität aufrecht zu erhalten. Dies gelingt allerdings nur bedingt – insbesondere in Feldern, die sich selbst schnell verändern – wie KI.

Meines Erachtens wird einzelfallbezogene Anlassgesetzgebung immer häufiger ein Thema. Auch in der KI-Verordnung wurde während des Gesetzgebungsprozesses auf Chat-GPT mit einem neuen Tatbestand, nämlich den sogenannten "general-purpose models" reagiert. Gerade bei einem computerwissenschaftlich nicht klar definierten Begriff wie "Künstliche Intelligenz" ist es jedoch schwierig, überhaupt eine Legaldefinition zu finden, die einen vernünftigen Regelungsgehalt darstellt. Jene ist aber essentiell, um ein Mindestmaß an Rechtssicherheit für den Rechts- und Wirtschaftsverkehr herzustellen. Eine "qualitativ gute" Rechtsordnung sollte daher nicht nur geeignete Ziele und Zwecke verfolgen, sondern verständlich und einfach anwendbar sein. Dies lässt die KI-Verordnung vermissen.

Sie folgt zudem einem risikobasierten Ansatz. Anwendungsbereiche mit größerem Gefährdungspotential, wie zum Beispiel die automationsunterstützte Diagnostik in der Medizin oder der Einsatz von biometrischen Systemen in der Strafverfolgung, sollen daher stärker reguliert werden. Dies endet jedoch regelmäßig in einem Spagat zwischen undefinierbar abstrakten Regelungen und einzelnen verbotenen Sachverhalten. Denn um die KI-Verordnung dennoch zukunftssicher zu gestalten, wird vom Gesetzgeber auf sogenannte delegierte Akte zurückgegriffen. Das bedeutet in diesem Fall, dass der Europäischen Kommission die Befugnis eingeräumt wird, in einem einfachen und schnellen Verfahren nachträglich KI-Anwendungen als Hochrisiko-KI einzustufen. Dies überbrückt zwar "abstrakte" und "Anlassgesetzgebung", birgt jedoch immense Kostenrisiken für Wirtschaftsträger, die bereits über lange Zeiträume beträchtliches Kapital für die Entwicklung einer solchen KI aufgewandt haben.

Trotz dieser Probleme und der umfassenden Kritik an den neuen europäischen Normen sind wir aber grundsätzlich der Meinung, dass die Entwicklungen sowohl positiv, als auch notwendig sind. Wir benötigen einen einheitlichen Rechtsrahmen, in welchem europäische Werte reflektiert werden.

Jonas Pfister ist Projektassistent und Vice Managing Scientist in der Arbeitsgruppe Rechtsinformatik, Abteilung für Völkerrecht und Internationale Beziehungen mit den Schwerpunkten Datenschutz im Betrieb und in der Forschung sowie Algorithmen.
Felix Schmautzer ist Projektassistent und Managing Scientist in der Arbeitsgruppe Rechtsinformatik, Abteilung für Völkerrecht und Internationale Beziehungen mit dem Schwerpunkt Datenschutz und operativer Datensicherheit.