Die Welt der Online-Spiele birgt eine faszinierende Dynamik, in der Spieler:innen aus aller Welt virtuelle Welten erkunden und miteinander interagieren können. Doch hinter den Kulissen dieser digitalen Realitäten stehen Entwickler:innen und Publisher vor einer entscheidenden Aufgabe: die Moderation von Spielerverhalten und die Sicherstellung der Fairness im Wettbewerb. Online-Games, die auf Kooperation und Wettstreit setzen, sehen sich mit der Herausforderung konfrontiert, eine positive Spielumgebung zu bewahren und sich gegen Cheating und Hacking zur Wehr zu setzen.
Im Folgenden zeigen wir auf, wie diese Probleme mithilfe von künstlicher Intelligenz in den Griff bekommen werden können und was es dabei zu beachten gilt, um mögliche rechtliche Risiken abzumildern.
1. KI-Moderation
Die Moderation von Online-Games ist für die Durchsetzung der eigenen Verhaltenskodizes nicht wegzudenken. Spiele, die auf die Kooperation von Spieler:innen basieren, sind darauf angewiesen, eine angenehme Atmosphäre und freundliche Umgangsweise zu fördern. Wird ein Spiel von einer negativen Community überflutet und erfolgt keine Kontrolle durch Entwickler:innen oder Publisher, können Spieler:innen dieses Spiel schnell als „toxisch“ markieren und meiden. Dies hat zur Folge, dass die Zahl der Spieler:innen schrumpft und somit der Eindruck erweckt wird, das Spiel sei „dead“.
Die Moderation von Online-Spielen mit einer größeren Gefolgschaft kann jedoch schnell für einen menschlichen Customer-Support unmöglich werden. Bereits jetzt setzen bekanntere Spiele automatisierte Moderation ein, die bestimmte Begriffe filtert und Chat-Sperren für besonders „toxische“ Spieler:innen verteilt. Der Einsatz generativer KI-Modelle für die Überwachung und Moderation von In-Game Text- und Sprachchat kann hier weitere Abhilfe schaffen. Eine gut trainierte, lernende KI kann auch Verstöße gegen die Nutzungsbedingungen und besonders „toxisches“ Verhalten, wie Beleidigungen, Mobbing und Rassismus erkennen und maßgeschneiderte Strafen an die Spieler:innen verhängen. Diese können von Stummschaltungen bis hin zu permanenten Bans (Kontosperrungen) rangieren. Die KI kann dabei auch Begriffe erlernen, die Spieler:innen nutzen, um einfachere automatisierte Systeme auszutricksen, wie z.B. Wörter getrennt zu schreiben, Vokale oder andere Buchstaben weglassen oder durch Sondersymbole zu ersetzen, etc.
2. KI-Anti-Cheat
Auch die Bekämpfung von Cheater:innen und Hacker:innen spielt eine besonders wichtige Rolle bei dem Erhalt der Spielintegrität. Insbesondere in kompetitiven Spielen versuchen einige Spieler:innen, sich immer wieder einen unfairen Vorteil gegenüber anderen zu verschaffen. Dies tun sie, indem sie Programme einsetzen, die es ihnen zum Beispiel ermöglichen durch Wände zu sehen, besser zu zielen, lenken etc. Zudem kommt es oft vor, dass Spieler:innen, die das Spiel lange spielen und zum Beispiel einen hohen Rang oder ein hohes Level erreicht haben, neue Accounts anlegen, um gegen Anfänger:innen zu spielen und diese haushoch zu besiegen (sog. „Smurfing“) oder um Anfänger:innen oder schlechtere Spieler:innen dabei zu unterstützen, Ränge und Level zu erreichen, die nicht ihren Fähigkeiten entsprechen (sog. „Boosting“). Zudem bedienen sich Spieler:innen seit jeher sogenannter Bots, um zeitfressende, repetitive Aufgaben, wie das Sammeln von Materialien zu umgehen. Während das für die nutzenden Spieler:innen einen Vorteil bringt, kann es einen negativen einfluss auf einem Spiel-Internen Marktplatz und somit der Wirtschaft des Spiels nehmen. Wird Cheating und Hacking nicht bekämpft, kann ein Spiel ebenfalls schnell an Beliebtheit und somit an aktiven Spieler:innen verlieren.
Anti-Cheat-Anbieter Anybrain hat im Rahmen ihrer Kooperation mit dem E-Sport-Plattform-Anbieter G-Loot in einem Pilotprojekt im First-Person-Shooter Valorant von Epic Games aufgezeigt, wie KI-basierte Anti-Cheat-Software anhand von Nutzer:innenverhalten unter Auswertung von Tastatur- und Mauseingaben im Spiel Rückschlüsse über Hacking und Cheating zulässt. Die von Anybrain berichteten Erfolge bei der Entdeckung von Hackern, Smurfs und Boostern sind beeindruckend und zeigen die Zukunft von Cheat-Prävention auf. Spieler:innen werden dabei entweder vollautomatisch vom System erfasst und gemeldet, oder von anderen Spieler:innen gemeldet, wobei ihre Daten mithilfe der KI ausgewertet werden können.
Spannend wird die Frage, wenn der Markt von Cheats und Hacks geflutet wird, die auf moderne KI-Algorithmen beruhen. Da es bei solchen Programmen denkbar ist, dass sie die Eingaben und das Verhalten von echten Spielern täuschend echt simulieren, kann dies zu einem Wettrüsten oder einem Katz- und Mausspiel zwischen Hack-Anbeiter:innen und Spiele-Enwtickler:innen führen, bei der die jeweils eingesetzten KI-Systeme versuchen sich gegenseitig aufzuspüren bzw. auszutricksen.
3. Risiken
Der Einsatz derartiger KI-Moderation und Anti-Cheats birgt jedoch auch das Risiko, dass Spieler:innen auch unbegründet sanktioniert werden. Wenn die KI so programmiert ist, dass sie durch Spieler:innen-Input lernt (z.B. manuelle Meldungen von Spieler:innen), kann sie unter Umständen auch unbedenkliche Kommunikation fälschlicherweise als Verstoß einstufen, oder legitimes Spielverhalten als Cheating oder Hacking werten. Wird hier die Höchststrafe (permanenter Ban) verhängt, können Gamer:innen den Zugriff auf ihr Konto auf Dauer verlieren. Dies kann zur Folge haben, dass Spieler:innen, die z.B. das Spiel gekauft haben und/oder In-Game-Käufe getätigt haben sämtliche Nutzungsmöglichkeiten der erkauften und erspielten Inhalte verlieren.
Dies ist ein besonderes Problem, da Spiele-Konten je nach getätigter Investitionen durch die Gamer:innen einen erheblichen Wert annehmen können. In diesen Fällen unberechtigter Sperre kommen neben Ansprüche auf Freischaltung der Konten auch Schadensersatzansprüche der betroffenen Spieler:innen in Betracht. Derartige rechtliche Auseinandersetzungen können auf der einen Seite mit erheblichen Kosten für die Spielbetreiber verbunden werden. Auf der anderen Seite gehen sie jedoch Hand in Hand mit negativer Berichterstattung einher und können so dem Ruf des Spiels schädigen und zu einem Verlust an Spieler:innen führen.
Für die Praxis ist folgendes festzuhalten:
- Der Einsatz generativer KI für die Moderation von Online-Games und den Schutz vor Cheat-Einsätze kann eine erhebliche Entlastung für die Entwickler:innen und Publishern bringen. Er birgt jedoch auch konkrete rechtliche Risiken.
- Um dem vorzubeugen, empfiehlt sich eine Implementierung eines Modells, das die Überprüfung schwerwiegender Strafen (wie dauerhafte Bans und/oder Löschungen von Spielkonten) von menschlicher Hand erfolgt.
- Es ist zudem auch empfehlenswert, ein System für die Einlegung von Einsprüchen gegen längerfristigen Ban und Löschungen zu implementieren, in dem die Fälle ebenfalls durch Angestellte manuell geprüft werden, um unrechtmäßige Strafen zu vermeiden.