Direkt zum Inhalt wechseln

Generative KI, insbesondere aktuelle Large Language Models (LLMs) wie ChatGPT, sind in aller Munde. Die „Goldgräberstimmung“ hat bereits begonnen. Sowohl Privatpersonen als auch Unternehmen versuchen die revolutionäre Technologie in ihrem Alltag und in ihren Arbeitsabläufen einzubinden, um die eigene Produktivität und Funktionalität zu steigern. Dass die Verwendung von ChatGPT im beruflichen Umfeld jedoch mit Risiken verbunden ist, ist neulich am Beispiel von Samsung verdeutlicht worden.

In diesem Beitrag zeigen wir die rechtlichen Risiken der KI-Nutzung im Kontext des deutschen Geschäftsgeheimnisschutzgesetzes auf und präsentieren mögliche Lösungsansätze.

Samsung und ChatGPT

The Economist hat berichtet, dass der südkoreanische Technologiehersteller Samsung es Ingenieur:innen im Halbleitergeschäft erlaubt hatte, ChatGPT als Unterstützung bei ihrer Arbeit zu verwenden. Bei dieser Nutzung hätten nun vereinzelt Mitarbeitende vertrauliche Daten in ChatGPT eingegeben. Bei den Daten handelte es sich unter anderem um Quellcode von proprietären Anwendungen, der zum Zecke von Debugging durch die KI eingegeben worden sei. Zudem seien geheime interne Meeting-Notizen verwendet worden, um daraus mit Hilfe von ChatGPT Präsentationen zu erstellen. Da OpenAI, Betreiber von ChatGPT, in den eigenen Nutzungsbedingungen vorgibt, dass von Nutzern im Chat eingegebene Inhalte für die weitere Entwicklung und Optimierung des Services gespeichert und verwendet werden können, bedeutet das, dass diese vertraulichen Informationen nun bei OpenAI liegen. Vor kurzem hat Samsung nun intern die Nutzung von ChatGPT und ähnlichen generativen KI-Modellen auf Eis gelegt, um unternehmensinterne Sicherheitsmaßnahmen zu entwickeln und so die sichere Nutzung generativer KI zu gewährleisten. Den Berichten zufolge erwägt Samsung nun, auch eine eigene KI-Lösung zu entwickeln, um solchen Problemen vorzubeugen.

ChatGPT und das deutsche Geschäftsgeheimnisschutzgesetz

Der Fall von Samsung dürfte nicht der einzige sein. Immer mehr Unternehmen aber auch Angestellte werden dazu greifen, die aktuellen KI-Anwendungen zu verwenden und in ihrem Arbeits- und Geschäftsablauf einzubinden. Für Unternehmen in Deutschland stellt sich daher die Frage, ob eine Verwendung von ChatGPT zu einem Verstoß gegen das Geschäftsgeheimnisschutzgesetz (GeschGehG) führen kann.

Das Geschäftsgeheimnis ist in § 2 Nr. 1 GeschGehG definiert:

„Im Sinne dieses Gesetzes […] ist ein Geschäftsgeheimnis eine Information,
a) die weder insgesamt noch in der genauen Anordnung und Zusammensetzung ihrer Bestandteile den Personen in den Kreisen, die üblicherweise mit dieser Art von Informationen umgehen, allgemein bekannt oder ohne Weiteres zugänglich ist und daher von wirtschaftlichem Wert ist und
b) die Gegenstand von den Umständen nach angemessenen Geheimhaltungsmaßnahmen durch ihren rechtmäßigen Inhaber ist und
c) bei der ein berechtigtes Interesse an der Geheimhaltung besteht.“

Hinsichtlich der zu schützenden Informationen ist die Ergreifung „angemessener Geheimhaltungsmaßnahmen“ durch den Inhaber des Geschäftsgeheimnisses erforderlich. Gemäß § 2 Nr. 2 GeschGehG ist Inhaber des Geschäftsgeheimnisses „jede natürliche oder juristische Person, die die rechtmäßige Kontrolle über ein Geschäftsgeheimnis hat“. In der Regel wird es sich dabei um den Arbeitgeber handeln.

Als mögliche Geheimhaltungsmaßnahmen kommen hier in Betracht insbesondere:

  • vertragliche Maßnahmen (Vertraulichkeitsvereinbarungen),
  • organisatorische Maßnahmen (Festlegung von Verantwortlichkeiten, Schutzkonzept) und
  • technische und physische Schutzvorrichtungen (Firewall, Safe, Passwortschutz).

In Unternehmen, die die notwendigen Maßnahmen ergreifen, werden insbesondere Prototypen, Quelltext, Preisstrukturen, Finanzierungsinformationen und weitere hoch sensible Informationen oft unter den Begriff des Geschäftsgeheimnisses fallen. Angestellte werden zudem vermehrt konkreten arbeitsvertraglichen Vertraulichkeitspflichten unterworfen. Darüber hinaus gehört auch der Abschluss von Verschwiegenheitsvereinbarungen (Non-Disclosure-Agreements, NDAs) im B2B-Bereich zum geschäftlichen Alltag. Sämtliche Personen, die Zugang zu den unter dem Geschäftsgeheimnis zu subsumierenden Inhalten haben, sind entsprechend zur Wahrung des Geheimnisses verpflichtet und dürfen dieses nicht an unberechtigte Dritte offenlegen.

Gibt eine Person, die zur Wahrung des Geschäftsgeheimnisses verpflichtet ist, dieses in dem Chat-Feld von ChatGPT ein, kommt sie als möglicher Rechtsverletzer im Sinne des § 2 Nr. 3 GeschGehG in Betracht. OpenAI kommt ebenfalls als Rechtsverletzer in Betracht, da das Unternehmen die eingegebenen Informationen (Geschäftsgeheimnisse) für die Optimierung der eigenen Services nutzen kann. Im Folgenden zeigen wir auf, ob eine Anwendung des rechtlichen Rahmens diese Einordnung zulässt.

1. Nutzer als Rechtsverletzer

Personen, die mit dem Geschäftsgeheimnis betraut sind und ChatGPT verwenden (Nutzer) können durch die Nutzung als Rechtsverletzer im Sinne des § 2 Nr. 3 GeschGehG eingestuft werden. Demnach ist ein „Rechtsverletzer jede natürliche oder juristische Person, die entgegen § 4 ein Geschäftsgeheimnis rechtswidrig erlangt, nutzt oder offenlegt“, solange keine Ausnahme nach § 5 GeschGehG vorliegt.

Die Nutzung von ChatGPT kann als Offenlegung im Sinne der §§ 2 Nr. 3, 4 Abs. 2 Nr. 3 GeschGehG gewertet werden. Die Offenlegung ist die Preisgabe der geheimen Information gegenüber einem unberechtigten Dritten. Gemäß Ziffer 3 lit. (c) der eigenen Nutzungsbedingungen speichert OpenAI sämtliche Inhalte, die nicht über die API eingegeben werden. OpenAI behält sich vor, diese Inhalte für die Verbesserung der eigenen Dienste zu verwenden. Eine Eingabe von Geschäftsgeheimnissen im Chatfenster von ChatGPT stellt demnach eine Offenlegung dar.

§ 2 Nr. 3 GeschGehG setzt voraus, dass die Offenlegung des Geschäftsgeheimnisses auch rechtswidrig ist. Legen Nutzer von ChatGPT Geschäftsgeheimnisse offen, obwohl sie zur Geheimhaltung verpflichtet sind, stellt dies einen Verstoß gegen § 4 Abs. 2 Nr. 3 GeschGehG dar. Dies indiziert die Rechtswidrigkeit der Offenlegung. Die Rechtswidrigkeit kann jedoch entfallen, wenn der Inhaber des Geschäftsgeheimnisses in die Offenlegung eingewilligt hat. Eine generelle Gestattung der Nutzung von ChatGPT ohne Beschränkung mit Blick auf Geschäftsgeheimnisse könnte auch als eine Einwilligung gewertet werden. Dagegen könnte sprechen, dass eine generelle Gestattung der Nutzung nicht automatisch eine Einwilligung in die Nutzung unter Eingabe von Geschäftsgeheimnissen darstellt. Hat der Nutzer eine Vertraulichkeitsvereinbarung mit abgeschlossen, muss davon ausgegangen werden, dass eine Gestattung der generellen Nutzung von ChatGPT ohne ausdrücklichen Hinweis darauf, dass auch Geschäftsgeheimnisse verwendet werden dürfen, nicht als eine Einwilligung zu werten ist.

Im Streitfall wird es wohl auf eine Abwägung zwischen dem Willen des Inhabers des Geschäftsgeheimnisses bei der Gestattung der Nutzung auf der einen Seite und der Art und Weise der Kommunikation dieser Gestattung auf der anderen Seite ankommen.

Eine Sache ist klar: Hat der Inhaber des Geschäftsgeheimnisses die Nutzung von ChatGPT nicht gestattet, dann ist die Rechtswidrigkeit der Offenlegung anzunehmen. Die Person, die das Geschäftsgeheimnis in ChatGPT eingegeben hat, ist . Ein Ausnahmefall gemäß § 5 GeschGehG wird wohl in keinem Fall der ChatGPT-Nutzung anzunehmen sein.

Ist ein Nutzer Rechtsverletzer, kommen für den Geheimnisinhaber insbesondere Auskunfts-, Unterlassungs- und Schadensersatzansprüche in Betracht. Steht der Nutzer in einem Arbeitsverhältnis zum Inhaber des Geschäftsgeheimnisses, können die Folgen je nach Schwere des Verstoßes gegen das GeschGehG von einer Abmahnung bis hin zu einer fristlosen Kündigung rangieren.

Hat der Nutzer das Geschäftsgeheimnis aus Eigennütz, zugunsten eines Dritten oder in der Absicht, dem Geheimnisinhaber Schaden zuzufügen offengelegt, kommt eine Strafbarkeit nach Maßgabe des § 23 GeschGehG in Betracht.

2. OpenAI als Rechtsverletzer

Um es vorwegzunehmen: OpenAI scheidet als Rechtsverletzer aus. Gemäß § 4 Abs. 3 S. 1 GeschGehG setzt eine Einordnung als Rechtsverletzer voraus, dass OpenAI das Geschäftsgeheimnis über eine andere Person erlangt hat und zum Zeitpunkt der Erlangung, Nutzung oder Offenlegung weiß oder wissen müsste, dass diese das Geschäftsgeheimnis entgegen Absatz 2 genutzt oder offengelegt hat“. Diese Voraussetzungen liegen nicht vor. Nutzer von ChatGPT werden bei der Nutzung darauf hingewiesen, dass die Unterhaltungen mit der KI von AI Trainern betrachtet und bewertet werden können, um die eigenen Systeme zu optimieren. Nutzer werden ausdrücklich gebeten, in ihren Unterhaltungen mit ChatGPT keine sensiblen Informationen preiszugeben. OpenAI hat keine Kontrolle darüber, welche Informationen Nutzer im Programm eingeben. Dem Unternehmen kann auch nicht bekannt sein, welche Informationen als Geschäftsgeheimnis eingestuft werden und ob Nutzer diese Informationen mit oder ohne Erlaubnis des Geheimnisinhabers im Chat-Verlauf teilen.

Um auf diese und weitere Bedenken einzugehen, hat OpenAI vor kurzem Nutzern die Möglichkeit eingeräumt, auch im Rahmen der normalen ChatGPT-Nutzung (also auch ohne Nutzung des API) eine Speicherung der Chatverläufe und eine Nutzung dieser Daten zum Training des KI-Modells auszuschließen. Darüber hinaus kündigte das KI-Unternehmen für die kommenden Monate eine Business-Version an, die den rechtlichen Bedenken der Nutzung gänzlich ausräumen soll.

3. Maßnahmen zum Schutz des Geschäftsgeheimnisses

Ausgehend von dem Umstand, dass Geschäftsgeheimnisse durch die Nutzung von ChatGPT entgegen den Willen des Inhabers des Geschäftsgeheimnisses offengelegt werden können, stellt sich die Frage, wie eine sichere Nutzung des beliebten LLM im beruflichen Alltag umgesetzt werden kann.

Der Unternehmer, der die Nutzung von ChatGPT erlaubt, muss sicherstellen, dass eine interne Kategorisierung von Informationen und Daten vorhanden ist, die es den Mitarbeitenden ermöglicht klar nachzuvollziehen, welche Informationen als Geschäftsgeheimnis kategorisiert sind. Insbesondere in größeren Unternehmen ist eine genaue Kennzeichnung der jeweiligen Informationen notwendig, damit den Nutzern eine Entscheidung über die Teilung der Inhalte abgenommen werden kann. Denkbar ist ein System, bei dem als Geschäftsgeheimnis eingestufte Informationen als solche ausdrücklich bezeichnet werden, z.B. „Secret“, „Confidential“, „Vertraulich“ etc. Wichtig ist dabei, dass die Vertraulichkeit klar und deutlich zu erkennen ist.

Sofern eine derartige Kategorisierung innerhalb des Unternehmens noch nicht erfolgt, ist es notwendig, dass die notwendigen Maßnahmen ergriffen werden und der Workflow auf die Kategorisierung von Inhalten hin optimiert wird. Besteht bereits eine derartige Kategorisierung im Unternehmen, empfiehlt es sich, bei einer Erlaubnis der Nutzung von ChatGPT und ähnlichen LLMs konkrete interne Richtlinien zu implementieren. Insbesondere im Fall von ChatGPT wird es zwingend notwendig sein, die Nutzung nur unter der Bedingung zu gestatten, dass die Nutzer die neuen Daten-Einstellungen verwenden und so eine Speicherung und Verwendung der Chatverläufe für Modell-Training auszuschließen.

Risiken mit der tatsächlichen Umsetzung dieses Vorgehens können jedoch darin liegen, dass es zum einen zu einer Überkorrektur kommen kann, sodass sämtliche (auch nicht relevante) Informationen inflationär als „Vertraulich“ gekennzeichnet werden könnten. Zum anderen kann es auch dazu kommen, dass kritische Informationen, die als Geschäftsgeheimnis eingestuft werden sollten, übersehen werden und daher nicht entsprechend den internen Vorgaben als „Vertraulich“ gekennzeichnet werden der die Daten-Einstellungen nicht richtig verwendet werden. In diesen Fällen kann auch der Geheimnisschutz entfallen. Je größer das Unternehmen und somit der Nutzerkreis, desto höher dürfte auch das mit der Nutzung verbundene Risiko ausfallen.

Als besonders sicher wird stets ein Verbot der Nutzung von ChatGPT zu Berufszwecken zu bewerten sein. Spricht das Unternehmen das Verbot aus, kann es dieses durch eine lokale Sperrung von ChatGPT durchsetzen.

Das Unternehmen wird zwischen den Risiken und den möglichen Vorteilen durch die Nutzung von ChatGPT abwägen und die entsprechenden Maßnahmen ergreifen müssen. Es wird dabei unter anderem darauf ankommen, welchen Personen die Nutzung erlaubt werden soll und welche Verbesserungen im Workflow oder sogar am eigenen Geschäftsmodell sich das Unternehmen durch die Nutzung verspricht.

Fazit

Die Nutzung von ChatGPT und ähnlichen LLMs zu Berufszwecken kann zu einer erheblichen Steigerung der Produktivität führen. Im Ernstfall kann sie jedoch auch zu einem Verstoß gegen das Geschäftsgeheimnisschutzgesetz führen. In diesen Fällen stehen dem Inhaber des Geschäftsgeheimnisses zwar Unterlassungs- und Schadensersatzansprüche gegen den Rechtsverletzer zu, dieser hat im Zweifel jedoch keine Möglichkeit, die offengelegten Informationen von den KI-Betreibern zurückzuholen oder löschen zu lassen.

Unternehmen, die eine Nutzung von ChatGPT gestatten wollen, sind angehalten, die Genehmigung der Nutzung so auszugestalten, dass aus die erlaubten Nutzungsformen klar und deutlich zu erkennen sind. Insbesondere ist es empfehlenswert, einen Hinweis auf das Verbot der Eingabe von Geschäftsgeheimnissen und vertraulichen Informationen aufzunehmen und auf die Risiken der Nutzung hinzuweisen. Zudem sollten Unternehmen die Nutzung davon abhängig machen, dass die Angestellten die Einstellungen so wählen, dass eine Speicherung der Eingaben und Nutzung dieser zu Trainingszwecken ausgeschlossen ist. Dies kann in der Form von unternehmensinternen KI-Nutzungs-Richtlinien erfolgen.

Wenn sich Unternehmen gedulden können, kann es sich anbieten, die Einbindung von ChatGPT bis zur Einführung von ChatGPT Business hinauszuschieben. Wie diese Version aussieht, hat OpenAI noch nicht vorgestellt. Es ist jedoch davon auszugehen, dass es damit für Unternehmen künftig möglich ist, die eigenen Nutzer zu verwalten und Sicherheitseinstellungen vorzunehmen, die eine Offenlegung der im Chat eingegebenen Inhalte ausschließen.