Direkt zum Inhalt wechseln

Zugangskontrollen per Gesichtsscan, Altersklassifizierung im E-Commerce, Stimmerkennung im Kundenservice oder Analyse von Emotionen in Video-Calls – Anwendungsfälle von biometrischen Systemen gibt es in der Unternehmenspraxis viele. Künstliche Intelligenz (KI) macht viele dieser Systeme besser, schneller und effektiver.
Aber der Einsatz von KI unter Nutzung biometrischer Daten ruft nicht nur die Datenschützer auf den Plan – vor dem Hintergrund der KI-Verordnung (KI-VO) stellt sich für viele Unternehmen die Frage:

Welche biometrischen Anwendungen sind nach der KI-VO verboten, welche gelten als Hochrisiko und wann greifen „nur“ Transparenzpflichten?

Was sind biometrische Daten?

Unter biometrischen Daten versteht man personenbezogene Daten, die aus einer technischen Verarbeitung von physischen, physiologischen oder verhaltensbezogenen Merkmalen eines Menschen resultieren. Dazu gehören z. B. Gesichtsbilder, Fingerabdrücke, Iriserkennungsdaten, Stimm- oder Sprechermerkmale, Ganganalyse oder Tippdynamik.
Anders als die DSGVO verlangt die KI-VO nicht, dass eine eindeutige Identifizierung dieser Person ermöglicht oder bestätigt wird.

Checkliste: Ist ein Datensatz biometrisch? JA, wenn:

  • sich die Daten auf körperliche, physiologische oder verhaltensbezogene Merkmale einer Person beziehen und
  • sie aus einer technischen Verarbeitung (z. B. Feature-Extraktion, Musterabgleich) resultieren.

Die Risikoklassen der KI-VO beim Einsatz von Biometrie

Biometrische Daten sind in der Regel besondere Kategorien personenbezogener Daten (Art. 9 DSGVO) und ihre Verarbeitung ist aus datenschutzrechtlicher Sicht daher nur erlaubt, wenn eine explizite gesetzliche Erlaubnis vorliegt (insbesondere die ausdrückliche Einwilligung).

Die KI-VO reguliert Künstliche Intelligenz bekanntermaßen risikobasiert. Die KI-VO regelt also nicht, ob der KI-Einsatz unter Nutzung biometrischer Daten erlaubt ist oder nicht, sondern differenziert hinsichtlich der Anforderungen an ein entsprechendes KI-System nach Funktion, Zweck und Kontext. Dabei ordnet die KI-VO biometrische KI-Systeme grundsätzlich drei Risikoklassen zu:

  1. Verbotene KI-Praktiken (Art. 5 KI-VO)
  2. Hochrisiko-KI-Systeme (Art. 6 Abs. 2 i.V.m. Anhang III KI-VO)
  3. KI-Systeme mit Transparenzpflichten (Art. 50 KI-VO)

Welche Risikoklassen einschlägig ist, hängt von der bestimmungsgemäßen Funktion des KI-Systems ab:

  • Biometrische Identifizierung – „Wer ist diese Person?“

Eine biometrische Identifizierung liegt vor, wenn biometrische Merkmale (z. B. Gesicht, Stimme, Fingerabdruck) genutzt werden, um eine Person eindeutig zu erkennen oder zu verifizieren.

  • Verboten: nur im Ausnahmefall
    Die biometrische Identifizierung ist nicht per se verboten. Grundsätzlich nicht erlaubt ist lediglich die Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden.
  • Grundsatz: Hochrisiko-KI
    Im Übrigen wird die biometrische Identifizierung natürlicher Personen unabhängig vom Einsatzbereich als Hochrisiko eingestuft (Anhang III Nr. 1 KI-VO). Das gilt z. B. für:

    • Zutrittskontrollen zu Gebäuden
    • Besucher- oder Kunden-Check-in
    • nachträgliche Gesichtserkennung in Bild- oder Videomaterial
  • Keine zusätzliche Transparenzpflicht
    Allein die Identifizierungsfunktion löst hingegen noch keine gesonderte Transparenzpflicht nach Art. 50 KI-VO aus.
  • Biometrische Kategorisierung – „Zu welcher Gruppe gehört die Person?“

Bei der biometrischen Kategorisierung werden Personen anhand biometrischer Merkmale Kategorien zugeordnet. Dazu gehören z. B. das Alter, das Geschlecht oder Stimm- und Verhaltensprofile

Bei der Risikoklassifizierung ist die entscheidende Frage: Wie sensibel sind die Merkmale?

  • Verboten: die Ableitung sensibler Merkmale
    KI-Systeme sind verboten, wenn die biometrische Kategorisierung auf besondere Kategorien personenbezogener Daten abzielt, konkret die ethnische Herkunft, Religion, Gesundheit, politische Meinung oder sexuelle Orientierung.
  • Hochrisiko-KI und Transparenzpflichten: sonstige biometrische Kategorisierung
    Soll das KI-System eine biometrische Kategorisierung vornehmen, ist das KI-System in Bezug auf alle Kategorisierungsmerkmale – also auch weniger „sensible“ Merkmale wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierungen oder persönliche Vorlieben und Interessen als Hochrisiko-KI (Anhang III Nr. 1 KI-VO) einzustufen und muss zusätzlich die Transparentpflichten nach Art. 50 Abs. 3 KI-VO erfüllen.
  • Ausnahme: KI-Systeme, die als reine Nebenfunktion aus objektiven technischen Gründen untrennbar mit einem anderen kommerziellen Dienst verbunden sind.
    Der Einsatz von KI ist zum Beispiel erlaubt, wenn sie im E-Commerce zur Kategorisierung von Gesichts- oder Körpermerkmalen verwendet wird, um Verbrauchern eine virtuelle Anprobe der angebotenen Kleidung zu ermöglichen.
  • Emotionserkennung – „Wie fühlt sich die Person?“

Emotionserkennung zielt auf das Erkennen oder Ableiten von Emotionen oder Absichten aus Mimik, Stimme, Körperhaltung oder sonstigen physiologischen Signalen ab.

  • Verboten: im Arbeits- und Bildungskontext
    KI-basierte Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen ist grundsätzlich untersagt. Ausnahmen sind nur aus medizinischen oder Sicherheitsgründen mit hohen Garantien denkbar, die Anforderungen sind aber hoch.
  • Hochrisiko: biometrischem KI-Systeme zur Emotionserkennung
    Ein KI-System, das Emotionen wie Angst, Ärger oder und Überraschung automatisch anhand von Mimik, Gestik und Stimme erkennt, birgt so hohe Risiken für die Betroffenen. Daher müssen insbesondre Anbieter solcher Systeme die hohen Anforderungen der KI-VO für Hochrisiko-KI-Systeme erfüllen.
  • Grundsatz: Transparenzpflicht
    Emotionserkennungssysteme unterfallen wie KI-Systeme zur biometrischen Kategorisierung den Transparenzpflichten in Art. 50 Abs. 3 KI-VO – Betroffene müssen durch den Betreiber daher über den Einsatz sowie die Verarbeitung personenbezogener Daten informiert werden, damit sie selbst entscheiden können, ob sie sich dem aussetzen möchten oder nicht.
  • Sonderfall: Scraping

Das ungezielte massenhafte Auslesen (etwa durch Webcrawler oder Bots) von Gesichtern aus Internet, Social Media oder Überwachungsaufnahmen zum Aufbau oder zur Erweiterung von Gesichtserkennungsdatenbanken ist grundsätzlich verboten. Hier greifen weder Hochrisiko- noch Transparenzregeln – das System darf schlicht nicht eingesetzt werden.

Das Verbot erstreckt sich allerdings nur auf Gesichtsbilder, nicht auf andere biometrische Daten wie Stimmen oder Fingerabdrücke. Außerdem ist nur der Aufbau einer Datenbank zu Zwecken der Gesichtserkennung verboten – andere Zwecke, z. B. das Training generativer KI zu trainieren, ist hingegen nicht per se verboten.

Kurzfazit

Unternehmen, die biometrische KI-Systeme einsetzen oder dies planen, sollte sich daher neben den datenschutzrechtlichen Fragen immer auch die Anforderungen der KI-VO ansehen und prüfen, welche biometrische Funktion in welchem Kontext und zu welchem Zweck eingesetzt werden.

Wenn Sie bei der Risikoklassifizierung eines biometrischen KI-Systems für Ihr Unternehmen Unterstützung brauchen – sprechen Sie uns gern an!

Kontakt mit Marlene Schreiber aufnehmen

Name(erforderlich)
E-Mail(erforderlich)
Wie können wir Ihnen weiterhelfen? Schreiben Sie uns – wir sind gerne für Sie da.