In Videospielen ist künstliche Intelligenz schon lange kein Fremdwort. NPCs (vom englischen „non-player characters“ für Nichtspielercharaktäre) und Bots werden seit jeher als KI bezeichnet. Doch der Vorstoß in der Sphäre tatsächlich tauglicher, generativer KI, wie z.B. das im Rahmen des Events Computex 2023 vom Grafikkartenhersteller NVIDIA angekündigten eigenen KI-Tools für die Spielentwicklung unter dem Namen NVIDIA Omniverse ACE (Avatar Cloud Engine).
Durch die technologischen Fortschritte im Bereich generativer KI haben sich auch bislang noch nie dagewesene Möglichkeiten eröffnet, NPCs zu kreieren und mit „Leben“ zu füllen. So wird im ohnehin schon sehr immersiven Medium eine noch tiefere Immersionsstufe ermöglicht.
Die Implementierung von durch generative KI getriebenen Kommunikationsmöglichkeiten kann dazu führen, dass es für Gamer:innen nicht mehr ohne weiteres möglich ist, echte Personen von der KI zu unterscheiden. Dies kann sowohl positive als auch negative Effekte hervorrufen.
Positive Effekte dessen wären beispielsweise ein schnelleres Match-Making in Spieler gegen Spieler-Modi (PvP) oder eine noch lebendiger wirkende Welt in einem MMO (Massive Multiplayer Online-Game). Dies kann den Life-Cycle von Videospielen erheblich verlängern, da Spieler:innen Online-Games, die nur noch eine kleine aktive Community haben (oft auch als „dead“ bezeichnet), regelmäßig meiden und stattdessen zu „belebteren“ Spielen wechseln.
Negative Effekte hingegen können entstehen, wenn Entwickler:innen beispielsweise auf die Idee kommen, die generative KI einzusetzen, ohne jedoch die Spieler:innen über diesen Einsatz aufzuklären. Wird ein Spiel nicht als „dead“ angesehen, ist es wahrscheinlicher, dass es Spieler:innen anlockt. Wenn Spieler:innen nicht wissen, dass das Spiel viele Bots (KI-gesteuerte NPCs) hat, gehen sie davon aus, dass viele Personen das Spiel spielen und sind eher bereit, ihre wertvolle Zeit und ihr Geld zu investieren. Das kann dazu führen, dass andere, vergleichbare Spiele, die keine KI einsetzen, oder den Einsatz von KI offen kommunizieren, benachteiligt werden, weil es Spieler:innen von Online-Games in erster Linie um den interpersonalen Aspekt ankommt – sei es Kontaktknüpfung und Unterhaltung, oder um sich und die eigenen Fähigkeiten gegen andere Menschen zu messen.
Diese Verwendung von generativer KI könnte unter Umständen als ein wettbewerbsrechtlich relevantes Handeln gewertet werden. Es besteht das Risiko, dass eine derartige Einbindung von KI-Bots als unlauter im Sinne des §§ 3 Abs. 1, 5a Abs. 1 UWG angesehen wird, wenn der Hersteller die Spieler:innen nicht entsprechend informiert und die Spieler:innen nicht zwischen realer Person und KI-Bot unterscheiden können. Dies kann sodann Unterlassungs- (§ 8 UWG) und Schadensersatzansprüche (§ 9 UWG) begründen.
Darüber hinaus besteht das Risiko, dass die KI in dem Versuch, authentisches menschliches Kommunikationsverhalten im Spiel zu emulieren, auch beleidigende und diskriminierende Aussagen trifft, die sich gegen menschliche Spieler:innen richten. Sollte dem die Qualität einer Verletzung von Persönlichkeitsrechten zukommen, haften im Zweifel die Spielehersteller. Zudem kann ein nicht jugendfreies KI-Verhalten zu einer ungewollt höheren USK-Einstufung des Spiels führen.
Für die Praxis ist folgendes festzuhalten:
- Wenn generative KI in Online-Videospielen eingesetzt wird, um als Spieler den Eindruck von einem aktiveren Spiel zu erwecken, sollten Entwickler:innen dies entsprechend kennzeichnen. Anderenfalls besteht das Risiko wettbewerbsrechtlicher Abmahnungen durch Mitbewerber.
- Wenn die KI Chat-Funktionalitäten besitzt, soll darauf geachtet werden, dass diese nicht dazu verleitet werden kann ausfallend, beleidigend und diskriminierend zu werden. Für Persönlichkeitsverletzungen haftet im Zweifel dann das Games-Studio.