Die rasante Evolution generativer künstlicher Intelligenz (KI) seit Veröffentlichung von ChatGPT im November 2022 ist nichts anderes als verblüffend. Large Language Modes (LLMs) und andere generative KI-Modelle überbieten sich ständig in Umfang, Fähigkeiten und Realitätsnähe. Nicht nur Text- sondern auch Bild-, Audio- und Videogeneratoren sind mittlerweile für ungeschulte Augen und Ohren kaum von menschengeschaffenen Inhalten zu unterscheiden. Dies wirft auch mit Blick auf die Videospielentwicklung eine Vielzahl von rechtlichen Fragen – insbesondere bezüglich Deepfakes und Persönlichkeitsrechten auf.
Übersicht
Rechtliche Grundlagen und Risiken
In Deutschland schützen verschiedene Gesetzte die Persönlichkeitsrechte natürlicher Personen. Dazu gehören vor allem das allgemeine Persönlichkeitsrecht (Art. 2 Abs. 1 GG i.V.m. Art. 1 Abs. 1 GG), das Namensrecht (§ 12 BGB), das Recht am eigenen Bild (§§ 22 ff. KUG) sowie das Recht am geschriebenen und gesprochenen Wort. Auch ohne den Einsatz von KI sollten Entwickler:innen und Publisher stets mögliche Verletzungen von Persönlichkeitsrechten Dritter auf dem Schirm haben.
Die Nutzung von KI-Modellen zur Generierung von NPCs (von „non player characters“ oder Nichtspielercharaktäre) in Videospielen birgt allerdings das inhärente Risiko das Persönlichkeitsrechtsverletzungen schneller und – bei fehlender Kontrolle des KI-Ergebnisses – unbemerkt erfolgen. Die Verwendung von Stimmgeneratoren, die eine konkrete Stimme mit nur wenigen Trainingsdaten nachahmen können, sowie 3D-Scan-Techniken für Gesichtszüge und eine entsprechende Analyse der Gestik können dazu eingesetzt werden, um sehr detailgetreue virtuelle Nachahmungen eines Menschen zu erstellen. Ein generatives KI-Modell, das mit Reden und Tweets eines Prominenten – z.B. Scarlett Johansson (denken Sie hier an die Präsentation von OpenAI) – trainiert wurde, könnte die Persönlichkeitsrechte dieser Person verletzen, wenn ein entsprechender NPC ohne die erforderliche Einwilligung einem Videospiel eingesetzt werden.
Die Relevanten Persönlichkeitsrechte im Überblick
Allgemeines Persönlichkeitsrecht
Das allgemeine Persönlichkeitsrechtschützt grundlegend die individuelle Freiheit und Würde einer Person. Eine Verletzung könnte dann vorliegen, wenn die Darstellung des Charakters gleichzeitig als unwürdige oder in die Privatsphäre eingreifende Weise Nachahmung der Originalperson abbildet selbst wenn Name und Bildnis nicht explizit verwendet werden.
Da Videospiele auch als Kunstwerk im Sinne des Art. 5 Abs. 3 GG gewertet werden können und die Kunstfreiheit dann im Wiederspruch zum allgemeinen Persönlichkeitsrecht des Betroffenen steht, muss stets eine Abwägung der sich gegenüberstehenden Rechte und Interessen stattfinden.
Namensrecht
Das Namensrecht schützt den eigenen Namen einer Person vor unbefugter Verwendung (§ 12 BGB). Dies gilt sowohl für den bürgerlichen Namen als auch für Künstlernamen oder Pseudonyme.
Wichtig zu Beachten ist, dass die bloße Nennung des Namens nicht bereits eine Verletzung des Namensrechts auslöst. Vielmehr muss ein Großteil des Publikums davon ausgehen, dass der Namensträger in die Nutzung des Namens eingewilligt hat. Gerade wenn NPCs Namen bekannter Personen tragen, die im Videospiel eine gesonderte Rolle spielen, dürfte dies regelmäßig der Fall sein.
Recht am eigenen Bild
Das Recht am eigenen Bild ergibt sich aus den §§ 22 ff. KUG verbietet die Verbreitung oder öffentliche Zurschaustellung von Bildnissen einer Person ohne Erlaubnis. Die relevantesten Ausnahmefälle für Videospielen sind dabei § 23 Abs. 1 Nr. 1 und 4 KUG, wonach Bildnisse auch ohne Einwilligung verbreitet und zur Schau gestellt werden, wenn sie solche aus dem Bereiche der Zeitgeschichte sind (Nr. 1) oder solche, die nicht auf Bestellung angefertigt sind, sofern die Verbreitung oder Schaustellung einem höheren Interesse der Kunst dient (Nr. 4). Diese Befugnis erstreckt sich jedoch nicht auf eine Verbreitung und Schaustellung, durch die ein berechtigtes Interesse des Abgebildeten oder, falls dieser verstorben ist, seiner Angehörigen verletzt wird (§ 23 Abs. 2 KUG).
Somit kommt es auch hier, wie in so vielen Aspekten des Rechts, auf eine Abwägung der Interessen der Entwickler:innen und Publisher auf der einen Seite mit den Interessen des Abgebildeten auf der anderen Seite an.
„Deepfakes“ stellen in Bezug auf das Recht am eigenen Bild eine besondere Herausforderung dar. Durch die Verwendung von KI können hyperrealistische Bilder, Videos und eben 3D-Modelle als NPCs erstellt werden, die den Eindruck erwecken, die abgebildete Person sei wirklich an dem Projekt aktiv beteiligt. In Bezug auf die kunsturheberrechtliche Einwilligungsbefreiung dürfte sich jedoch bereits die Frage stellen, ob der Erlaubnistatbestand bei „Deepfakes“ überhaupt eröffnet ist. Darüber hinaus dürften bei „Deepfakes“ die berechtigten Interesse des Abgebildeten am Schutz seines Rechts am eigenen Bild von vornherein eine besonders hohe Bedeutung zukommen.
Recht am gesprochenen Wort
Als Teil des allgemeinen Persönlichkeitsrechts wird auch das Recht vor unbefugter Aufzeichnung und Verbreitung des gesprochenen Wortes geschützt. Dies betrifft insbesondere private und vertrauliche Gespräche, in denen die Beteiligten keine Zustimmung zur Aufnahme oder Verbreitung erteilt haben.
Im Kontext der Spieleentwicklung könnte das Recht am gesprochenen Wort beispielsweise dann betroffen sein, wenn die Stimme einer realen Person in einem Spiel verwendet wird, ohne dass diese Person ihre Zustimmung gegeben hat. Dies gilt insbesondere dann, wenn Stimmgeneratoren verwendet werden, die die Stimme einer Person anhand weniger Daten nachahmen können. Auch hier gilt, dass Entwickler und Publisher sicherstellen sollten, dass die betroffenen Personen eine ausdrückliche Zustimmung erteilen, bevor ihre Stimme im Spiel verwendet wird, um rechtliche Konsequenzen zu vermeiden.
Deepfakes in der KI-Verordnung
Wo früher bei Deepfakes nur auf den Schutz der Persönlichkeitsrechte abgestellt wurde, greift heute auch die KI-Verordnung (auch „AI Act“ oder „KI-VO“) ein. Der AI Act ist eine EU-Verordnung, die harmonisierte Vorschriften für die Entwicklung, das Inverkehrbringen und die Nutzung von künstlicher Intelligenz schafft. Ihr Ziel ist es, die Grundrechte natürlicher Personen zu schützen und sicherzustellen, dass KI-Systeme und KI-Modelle, sowie dadurch generierte Inhalte transparent und sicher eingesetzt werden.
In der KI-Verordnung werden Deepfakes explizit geregelt. Art. 50 KI-VO verpflichtet Anbieter und Betreiber von KI-Systemen, die Deepfakes erzeugen oder verbreiten, diese Inhalte klar als künstlich erzeugt zu kennzeichnen. Hier ist eine kurze Übersicht über die Transparenzpflichten:
- Für Anbieter ( 50 Abs. 2 KI-VO): Wer ein KI-System entwickelt oder in Verkehr bringt, das als generative KI Audio-, Bild-, Video- oder Textinhalte erzeugt, muss sicherstellen, dass diese Inhalte maschinenlesbar und klar als künstlich erzeugt gekennzeichnet sind. Die Pflicht kann bei Videospielen ggf. entfallen, denn die generative Funktion eine unterstützende Funktion für de Standardbearbeitung ausführt oder die Eingabedaten der Betreiber nicht wesentlich verändert.
- Für Betreiber ( 50 Abs. 4 KI-VO): Betreiber von KI-Systemen, die Deepfakes erzeugen oder manipulieren, sind ebenfalls verpflichtet, offenzulegen, dass die Inhalte künstlich erzeugt wurden. Für die meisten Videospiele zutreffend wird die Erleichterung dieser Pflicht in Art. 50 Abs. 4 S. 3 KI-VO sein, wonach sich die Transparenzpflichten darauf beschränken, das Vorhandensein von Deepfakes in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt, wenn der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms.
Deepfakes werden nicht automatisch als „Hochrisiko“-KI eingestuft. Nach Art. 6 KI-VO bemisst sich das Risiko anhand der potenziellen Gefahren für die Sicherheit, Gesundheit oder die Grundrechte von Personen. Deepfakes sind dabei keine eigenständige Kategorie von Hochrisiko-KI-Systemen. Es muss daher bei der Verwendung eines KI-Systems, welches die Erstellung von Deepfakes ermöglicht, stets eine ordnungsgemäße Prüfung nach den allgemeinen Prinzipien des Art. 6 KI-VO vorgenommen werden (mehr dazu können Sie in unserem Beitrag „Risikoklassifizierung nach der KI-Verordnung“ lesen). Sollte im Ergebnis der Prüfung eine Einordnung als Hochrisiko-KI erfolgen, ergeben sich weitergehende Pflichten für Entwickler:innen und Publisher.
Für die Praxis ist folgendes festzuhalten:
Entwickler:innen und Publisher von Videospielen sollten folgende Maßnahmen ergreifen, um rechtliche und ethische Konflikte zu vermeiden:
- Einwilligungen einholen: Im Optimalfall sorgen Entwickler:innen und Publisher dafür, dass sie die ausdrückliche Zustimmung der betroffenen Personen einholen, bevor Sie sie in Ihrem Spiel darstellen. Dies bezieht sich auf alle Aspekte des Persönlichkeitsrechts.
- Verantwortungsvoller Einsatz von Deepfakes: Die Verwendung von Deepfakes birgt besondere Risiken, sowohl rechtlicher als auch ethischer Natur. Es sollte stets sorgfältig abgewogen werden, ob der Einsatz gerechtfertigt ist.
- In-House Compliance: Entwickler:innen und Publisher sollten klare Richtlinien für den Einsatz dieser Technologien in der Entwicklung ihrer Spiele festlegen und sicherstellen, dass diese auch eingehalten werden.
- Transparenz gewährleisten: Entwickler:innen und Publisher sollten die Spieler über den Einsatz von KI und Deepfakes in Ihrem Spiel informieren und Verantwortung im Umgang mit diesen Technologien zeigen.
Fazit
Die Nutzung von KI und Deepfakes in Videospielen bringt nicht nur technische Innovationen, sondern auch neue rechtliche und ethische Herausforderungen mit sich. Entwickler und Publisher sollten sich dieser Risiken bewusst sein und verantwortungsvoll mit diesen Technologien umgehen, um Persönlichkeitsrechte zu wahren und rechtlichen Problemen vorzubeugen. Es bleibt daher auch bei der Verwendung von KI zur Generierung von NPCs wichtig, Sorgfalt walten zu lassen und alle Aspekte hinreichend zu berücksichtigen.
Planen Sie, KI und Deepfakes in Ihr nächstes Spielprojekt einzubinden oder sind schon dabei? Wir unterstützen Sie gerne dabei, rechtliche Vorgaben effizient in Ihre Entwicklungsprozesse zu integrieren. Lassen Sie uns gemeinsam praxisnahe Lösungen finden, die Innovation und Rechtssicherheit verbinden.