Ab August 2026 gelten die Transparenzpflichten aus Art. 50 der KI-Verordnung („KI-VO“ oder auch „AI Act“). Spätestens jetzt stellt sich für viele Unternehmen die Frage: Müssen wir KI-generierte Inhalte Websitebeiträge, Newslettertexte – oder -bilder kennzeichnen? Wenn ja, wann, wie und gegenüber wem? Und vor allem: Was bedeutet das ganz konkret für unsere Website, unseren Chatbot oder unsere Produktbilder?
Inhaltsverzeichnis
1. Welche KI-Inhalte müssen gekennzeichnet werden?
Art. 50 KI-VO enthält Transparenz- und Kennzeichnungspflichten für KI-Systeme, die Inhalte generieren oder manipulieren und deren Ausgaben von Menschen wahrgenommen werden – also z. B. sichtbar, lesbar oder hörbar sind. Grund für die Kennzeichnungspflicht ist das hohe Manipulations- oder Verwechslungsrisiko solcher KI-Systeme – denn deren Fähigkeiten sind denen von Menschen sehr ähnlich und wir sollen wissen, wann wir es mit authentischen und wann mit synthetischen Inhalten zu tun haben.
Der Kennzeichnungspflicht unterliegen daher KI-Systeme, die
- für die direkte Interaktion mit natürlichen Personen bestimmt ist (z.B. Chatbots), Abs. 1;
- zur Erzeugung synthetischer Inhalte (Audio, Bild, Video oder Text), Abs. 2,
- zur Erzeugung von Deepfakes, Abs. 4 Var. 1, oder
- zur Erzeugung oder Manipulation von Text, der die Öffentlichkeit informieren soll, Abs. 4 Var. 2,
oder – in der Praxis der meisten Unternehmen aber eher nicht relevant – wenn
- es sich bei dem KI-System um ein Emotionserkennungssystem oder ein System zur biometrischen Kategorisierung handelt, Abs. 3.
Übersicht kennzeichnungspflichtiger KI-Systeme:
Anwendungsfall | Wer ist in der Pflicht? | Beispiel |
---|---|---|
Interaktives System (Abs. 1) | Anbieter | Chatbots, Voicebots |
Synthetisch erzeugte Inhalte (Abs. 2) | Anbieter | KI-Generierte Produktbilder |
Deepfakes (Abs. 4 Var. 1) | Betreiber | KI-generierte Bilder eines Prominenten |
Texte zu Themen von öffentlichem Interesse (Abs. 4 Var. 2) | Betreiber | KI-generierter Pressetext |
Emotionserkennung, biometrische Kategorisierung (Abs. 3) | Betreiber | KI zur Gesichtsauswertung |
Schauen wir uns die Anwendungsfälle einmal genauer an:
Interaktive KI-Systeme
Wenn Menschen direkt mit KI-Systemen kommunizieren, sollen sie auch eindeutig erkennen können, dass sie eben nicht mit einem Menschen interagieren. Die Pflicht zur Transparenz dient dem Schutz vor Täuschung oder Identitätsbetrug.
Eine direkte Interaktion liegt vor, wenn das KI-System so gestaltet ist, dass Menschen denken könnten, sie hätten es mit einer anderen echten Person zu tun. Entscheidend ist also nicht die Technik im Hintergrund, sondern der äußere Eindruck.
Es geht hier stets um Situationen, in denen Mensch und Maschine miteinander in Austausch treten – also aufeinander reagieren. Das kann schriftlich, mündlich oder auch über Gesten oder Bewegungen geschehen. Entscheidend ist die wechselseitige Kommunikation zwischen Mensch und KI.
Beispiele:
- Chatbots auf Webseiten oder in Hotlines, die über Text oder Sprache kommunizieren
- Sprachassistenten, die auf gesprochene Befehle reagieren
- Soziale Roboter, z. B. in der Pflege oder Industrie
- Social Bots, die in sozialen Medien posten, kommentieren oder liken und wie echte Menschen erscheinen
- Apps, die z. B. in Spielen als menschliche Gegner auftreten, obwohl tatsächlich eine KI spielt
Synthetisch erzeugte Inhalte
Gemeint sind Inhalte, die nicht von einem Menschen erschaffen, sondern künstlich erstellt wurden und dabei „echt“ wirken, obwohl sie es nicht sind. Menschen sollen künstliche Inhalte stets von echten unterscheiden können, damit Täuschung oder Betrug, Identitätsmissbrauch und die Manipulation von Meinungen verhindert wird.
Beispiele:
- Artikel, E-Mails oder Geschichten, die von Textgeneratoren wie ChatGPT geschrieben wurden
- Bilder, die durch Bildgeneratoren wie DALL·E oder Midjourney künstlich durch Texteingaben erstellt wurden
- Videos, in denen Menschen in Videos Dinge sagen oder tun, die tatsächlich nie passiert sind
- KI-Stimmen, die täuschend echt die Stimme eines Menschen nachahmen (z. B. für Fake-Anrufe)
- Avatare oder virtuelle Influencer, die wie reale Personen wirken, aber vollständig KI-generiert sind
Deepfakes
Unter „Deepfakes“ versteht das Gesetz künstlich erstellte oder manipulierte Bild-, Ton- oder Videoinhalte, die so wirken, als zeigten sie echte Personen, Orte oder Ereignisse – obwohl die Abbildungen oder Situationen nicht echt sind.
Während Texte nicht erfasst sind, sind visuelle oder akustische Medien (Bild, Ton, Video) dann Deepfakes, wenn sie realen Personen, Gegenständen, Orten oder Ereignissen ähneln – es muss also erkennbar sein, auf was oder wen sich der Inhalt bezieht, z. B. eine berühmte Person oder ein tatsächliches Ereignis, und dies dazu geeignet ist, einen Menschen zu täuschen. Auch durchschaubare Fakes fallen darunter, wenn sie auf den ersten Blick für den durchschnittlichen Betrachter echt wirken.
Beispiele:
- Ein KI-generiertes Video, das zeigt, wie eine bekannte Politikerin scheinbar eine skandalöse Rede hält
- Eine Tonaufnahme, in der die Stimme eines Prominenten künstlich nachgebildet wird, um Falschaussagen zu verbreiten
- Ein Bild, das einen realen Ort zeigt, dort aber manipuliert wurde – z. B. ein Konzert auf dem Gendarmenmarkt in Berlin, das dort tatsächlich nie stattgefunden hat
- Ein Video von einem Schauspieler, der scheinbar in einer realen Nachrichtensendung auftritt
- Eine verfälschte Pressekonferenz, bei der die Aussagen eines Politikers durch KI verändert wurden
Texte zu Themen von öffentlichem Interesse
Wenn jemand mithilfe von KI Texte erzeugt oder verändert, die sich an die Öffentlichkeit richten und über gesellschaftlich relevante Themen informieren, muss das grundsätzlich offengelegt werden. Ziel ist es, das Vertrauen in öffentliche Debatten und Informationsquellen zu schützen.
Gemeint sind Texte, die Themen wie Politik, Gesellschaft oder Kultur betreffen und die öffentliche Meinungsbildung beeinflussen – vor allem dann, wenn sie über allgemein zugängliche Kanäle wie Social Media, Nachrichten oder Webseiten verbreitet werden und sich an ein breites oder leicht zugängliches Publikum richten.
Ein Text fällt unter die Offenlegungspflicht, wenn:
- eine KI ihn ganz oder teilweise generiert oder verändert hat, und
- der Inhalt gesellschaftlich, politisch, wirtschaftlich oder kulturell relevant ist, und
- der Text an die Allgemeinheit gerichtet ist, z. B. über Webseiten, Social Media, Blogs oder Zeitungen.
Nicht erfasst sind rein private oder interne Mitteilungen, etwa E-Mails an einen engen Kreis oder Chatnachrichten innerhalb eines Teams.
Beispiele:
- Ein Social-Media-Post über eine Wahl, der vollständig von ChatGPT erstellt wurde
- Ein Blogbeitrag zur Energiepolitik, der automatisch durch eine KI-Plattform generiert wurde
- Ein Online-Kommentar zum Nahostkonflikt, den ein Bot verfasst und gepostet hat
- Ein KI-verfasster Artikel in einem Online-Magazin über die wirtschaftliche Lage in Europa
- Ein automatisch erstellter Newsletter eines Verbands zu gesellschaftlichen Debatten
2. Wer muss die Pflichten erfüllen?
Wer welche Transparenz- bzw. Kennzeichnungspflichten erfüllen muss, hängt maßgeblich davon, welche Rolle das jeweilige Unternehmen in Bezug auf das KI-System einnimmt. Die Pflichten aus Art. 50 KI-VO betreffen sowohl Anbieter als auch Betreiber der einschlägigen KI-Systeme:
- Anbieter: also z.B. Unternehmen, die KI-Systeme entwickeln oder entwickeln lassen und dann unter eigenem Namen oder Marke auf den EU-Markt bringen oder unter eigenem Namen bzw. eigener Marke in Betrieb nehmen.
- Betreiber: Unternehmen, die KI-Systeme in eigener Verantwortung nutzen, etwa zur Optimierung interner Arbeitsprozesse, in der Kundenkommunikation oder im Marketing.
Die meisten Unternehmen, die gängige generative Drittanbieter-KI-Tools wie ChatGPT, MS Copilot, Midjourney usw. in ihren Unternehmen einsetzen, sind Betreiber. Für sie gelten die Absätze 3 und 4 von Art. 50 – also bei Deepfakes und KI-generierten Texten von öffentlichem Interesse.
Es kann aber auch sein, dass Ihr Unternehmen Anbieter eines KI-Systems ist, z.B. wenn Ihr Unternehmen ein KI-System von einem Dritten entwickeln lässt und es dann unter eigenem Namen für die interne Prozessautomatisierung nutzt. Dann treffen Ihr Unternehmen Transparenzpflichten im Zusammenhang mit KI-Systemen zur direkten Interaktion oder bei synthetischen Inhalten.
Weitere Informationen zu den Rollen des Anbieters bzw. Betreibers und den weiteren Akteuren der KI-VO finden Sie hier.
3. Wie muss gekennzeichnet werden?
Bestehen Kennzeichnungspflichten, so müssen die Informationen wie folgt zur Verfügung gestellt werden:
- Zeitpunkt: spätestens bei erster Interaktion oder Wahrnehmung des Inhalts
- Form: klar, eindeutig und transparent – nicht irgendwo im Fließtext, in kleiner Schrift oder auf an anderer Stelle der Website versteckt
- Barrierefrei: der Hinweis muss die Anforderungen zur Barrierefreiheit erfüllen, z. B. ausreichende Kontraste, Vorlesbarkeit für Screenreader usw.
Entsprechende Formulierungen könnten je nach Kontext z.B. so aussehen:
- Text: „Dieser Text wurde mit Unterstützung von KI erstellt.“
- Video: sichtbarer Hinweis vor Start oder Einblendung im Bild
- Audio: akustischer Hinweis zu Beginn – je nachdem, wie lang der Audioinhalt dauert, ggf. auch zwischendurch noch einmal
4. Gibt es Ausnahmen von der Kennzeichnungspflicht?
Ja, es gibt auch Fälle, in denen nicht gekennzeichnet werden muss:
Interaktive Systeme (Anbieter)
Eine Kennzeichnung ist ausnahmsweise nicht nötig, wenn für durchschnittlich informierte und aufmerksame Nutzer:innen klar erkennbar ist, dass sie mit einer KI interagieren. Die Erkennbarkeit muss offensichtlich und kontextbezogen sein.
Bei Chatbots ist in der Regel eine Kennzeichnung erforderlich.
Synthetische Inhalte
Eine Kennzeichnungspflicht entfällt, wenn die KI nur unterstützend arbeitet und die Inhalte nicht wesentlich verändert wurden.
Beispiele: Die KI macht Anpassungsvorschläge zum Stil eines Textes oder korrigiert Rechtschreibfehler, übersetzt oder formatiert.
Deepfakes
Deepfakes müssen nicht gekennzeichnet werden, wenn:
- diese sich nicht auf real existierende Personen, Gegenstände, Orte, Einrichtungen oder Ereignisse beziehen, sondern auf fiktionale Darstellungen, oder
- eindeutig und sofort erkennbar ist, dass der Inhalt nicht der Realität nachempfunden ist, oder
- der jeweilige Inhalt offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Charakter hat – aber nur insoweit, wie die Kennzeichnung den Genuss oder die Darstellung des Werks beeinträchtigen würde.
Kontrollfrage: „Kann der durchschnittliche Nutzer durch den KI-Output getäuscht werden?“
Texte zu Angelegenheiten von öffentlichem Interesse
Die Kennzeichnungspflicht entfällt, wenn die KI-generierten oder -bearbeiteten Texte:
- intern bleiben oder nur einem geschlossenen Personenkreis zur Verfügung gestellt werden,
- keinen Bezug zu öffentlichem Interesse haben, oder
- nachweislich ein Mitarbeitender die Inhalte prüft und die redaktionelle Verantwortung übernimmt.
5. Empfehlung für Mandanten
- Führen Sie ein zentrales KI-Verzeichnis für Content- und Kommunikationssysteme ein
- Definieren Sie feste Rollen – z. B. den AI-Verantwortlichen im Content-Team
- Erstellen Sie klare interne Guidelines für KI-Kennzeichnung, inkl. Standardformulierungen für Text, Bild, Video und Audio, der technischen Umsetzung auf Website, in Tools, CMS etc. und zur Sicherstellung der Barrierefreiheit
- Führen Sie ein Review- und Prüfprozess ein, insb. bei Inhalten von öffentlichem Interesse sollte dieser folgende Schritte umfassen:
- Redaktionsverantwortung dokumentieren
- Prüfprozess vor Veröffentlichung (z. B. manuelle Abnahme bei KI-generierten Artikeln)
- Dokumentation der Abgrenzung: Öffentlich vs. intern
- Dokumentieren Sie Ausnahmefälle bzw. Prüfprotokolle für nicht gekennzeichnete Inhalte
Sie möchten Ihre Prozesse jetzt KI-VO-konform aufstellen? Sprechen Sie uns an – wir unterstützen individuell oder in Workshop-Formaten.