Am 19. Februar 2020 veröffentlichte die Europäische Kommission ein Whitepaper zur künstlichen Intelligenz zur Stellungnahme. Das Whitepaper legt ein auf Regulierung und Finanzierung ausgerichtetes Konzept vor, das die Nutzung von KI fördern und gleichzeitig auf die mit dieser Technologie einhergehenden Gefahren eingehen soll.

Mit dem Whitepaper will die Europäische Kommission zum Schutze der Individuen Leitlinien setzen und gleichzeitig die Entwicklung der künstlichen Intelligenz durch gezielte Finanzierung vorantreiben. In ihren eigenen Worten nennt die Kommission dies die Schaffung von einem „Ökosystem für Vertrauen“ und einem „Ökosystem für Exzellenz“.Die EU möchte gemäss Whitepaper in den nächsten 10 Jahren insgesamt mehr als 20 Mrd. Euro jährlich in die künstliche Intelligenz investieren. Im Jahr 2016 betrugen die Investitionen der EU nach eigener Aussage noch 3.2 Mrd. Euro. Zudem sollen die Forschungs- und Innovationsgemeinschaften der Mitgliedstaaten besser vernetzt werden und sich auf gewisse Kernthemen fokussieren.

Ökosystem für Exzellenz

Die EU möchte gemäss Whitepaper in den nächsten 10 Jahren insgesamt mehr als 20 Mrd. Euro jährlich in die künstliche Intelligenz investieren. Im Jahr 2016 betrugen die Investitionen der EU nach eigener Aussage noch 3.2 Mrd. Euro. Zudem sollen die Forschungs- und Innovationsgemeinschaften der Mitgliedstaaten besser vernetzt werden und sich auf gewisse Kernthemen fokussieren.

Bestehen Produkte und Lösungen im Bereich der künstlichen Intelligenz, sollen dann schlussendlich auch die KMU und der öffentliche Sektor profitieren können und die Wirtschaft dadurch gestärkt werden.

Ökosystem für Vertrauen

Der Schutz des Einzelnen vor Entscheiden durch künstliche Intelligenz soll mit gezielten Regulierungen und aufbauend auf den bereits bestehenden europäischen Rechtsvorschriften (bspw. dem Datenschutz oder dem Diskriminierungsverbot) gewährleistet werden. Es wird demnach kein Gesetz über die künstliche Intelligenz geben, sondern vielmehr sollen die Grundrechte in den diversen bestehenden Gesetzen jeweils auch in Bezug auf die künstliche Intelligenz geschützt werden.

Zur verhältnismässigen Regulierung wird zwischen künstlicher Intelligenz mit hohem Risiko (High Risk AI) und künstlicher Intelligenz ohne hohes Risiko unterschieden. Eine KI-Anwendung soll dann als eine Anwendung mit hohem Risiko eingestuft werden, wenn folgende Kriterien kumulativ erfüllt sind:

  • Die KI wird in einem Sektor eingesetzt wird, in dem aufgrund der Art der typischen Tätigkeiten mit erheblichen Risiken zu rechnen ist; und
  • Die KI wird so eingesetzt, dass mit erheblichen Risiken zu rechnen ist.

Die zusätzlichen Anforderungen an KI-Anwendungen mit hohem Risiko sollen sich dann gemäss Kommission auf die folgenden Schlüsselmerkmale beziehen, welche im Whitepaper ausführlicher besprochen werden:

  • Trainingsdaten
  • Aufbewahrung von Daten und Aufzeichnungen
  • Vorzulegende Informationen
  • Robustheit und Genauigkeit
  • Menschliche Aufsicht
  • besondere Anforderungen an bestimmte KI-Anwendungen, z. B. Anwendungen für die biometrische Fernidentifikation.

Zur Sicherstellung der Durchsetzung dieser neuen Anforderungen ist die Kommission der Meinung, dass eine objektive, vorab vorzunehmende Konformitätsbewertung erforderlich wird. Die Konformitätsbewertungen sollten dabei Teil der bestehenden Konformitätsbewertungsmechanismen sein, die es bereits für gewisse Produkte im EU-Binnenmarkt gibt.

Für jene Wirtschaftsteilnehmer, die KI-Anwendungen ohne hohes Risiko anbieten und damit nicht dem obligatorischen Verfahren, soll es die freiwillige Möglichkeit geben die Anforderungen zu erfüllen und so eine Art Gütesiegel zu erlangen.

Die Europäische Kommission verweist in ihrem Whitepaper weiter auf den bereits veröffentlichten Bericht zur Haftung für künstliche Intelligenz vom 21. November 2019 und die Ethischen Richtlinien vom 9. April 2019.

Es besteht nun die Möglichkeit Stellungnahmen zum Whitepaper einzureichen bis zum 19. Mai 2020.

 

Quellen: