DREHSCHEIBE DUBAI

EU-Recht im Zeichen der Künstlichen Intelligenz

+

Künstliche Intelligenz (KI) ist in den letzten Jahren Teil unseres Alltags geworden. Innovative Programmiermöglichkeiten, Softwaresysteme und Roboter vereinfachen das menschliche Leben und machen viele Arbeitsabläufe effizienter. Die Anwendungsgebiete umfassen mittlerweile Übersetzungen, Suchmaschinen, Autonomes Fahren, Smart Homes bis hin zu medizinischer Diagnostik.

KI-basierte Programme simulieren menschliche Intelligenz, kombinieren neue Möglichkeiten des Deep Learnings und der Datenverarbeitung und führen komplexe Aufgaben quasi ohne menschliche Kontrolle oder Überwachung aus. Da es sich um riesige zu verarbeitende Datenmengen handelt, stützen sich diese Systeme auf Algorithmen, sodass die KI-Entscheidungsfindung oft undurchsichtig ist. Dadurch ist es auch viel schwieriger, das Verhalten eines mit KI ausgestatteten Produkts vorherzusagen und die möglichen Ursachen für Schäden zu verstehen. Hinzu kommt, dass KI-Produkte von Natur aus viel anfälliger sind für Cyber-Bedrohungen.

Aus diesem Grund hat die EU am 21. April 2021 einen Vorschlag für ein Gesetz über künstliche Intelligenz vorgelegt. Dabei werden den Entwicklern und Nutzern sowie den Importeuren von KI-Systemen umfangreiche neue Verpflichtungen auferlegt. Der Entwurf sieht außerdem abschreckende Geldbußen von bis zu 30 Mio. Euro für Unternehmen vor, die gegen das neue Gesetz verstoßen (oder bis zu 6 % ihres weltweiten Jahresumsatzes im vorangegangenen Geschäftsjahr). Auf Basis eines Risikobewertungskonzepts nach dem Motto „Je höher das Risiko, desto strenger die Regel“ werden KI-Systeme in vier Kategorien unterteilt:

  • Unannehmbare Risiken: Diese KI-Systeme werden verboten (z. B. eine eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte der Menschen usw.)

  • Hohe Risiken: Werden nur zugelassen, wenn die KI bestimmte obligatorische Anforderungen erfüllt (z. B. Datenmanagement, Dokumentation und Aufzeichnung, Transparenz und Bereitstellung von Informationen für die Nutzer)

  • Geringes Risiko: Unterliegen nur bestimmten Transparenzpflichten (z. B. müssen die Bürger wissen, dass auf der anderen Seite eine Maschine mit ihnen interagiert)

  • Minimales Risiko: Es gelten keine besonderen Verpflichtungen.

Der Prozess innerhalb der EU bezüglich des endgültigen Wortlauts des besagten Gesetzesentwurfs ist allerdings noch nicht abgeschlossen. Darüber hinaus hat die EU im September 2022 eine neue KI-Haftungsrichtlinie eingeführt, die das Funktionieren des Binnenmarktes verbessern soll. Demnach soll eine außervertragliche zivilrechtliche Haftung für Schäden festlegt werden, die durch den Einsatz von KI-Systemen verursacht wurden. Da die EU-Mitgliedstaaten derzeit auf die Verabschiedung der neuen KI-Verordnung warten, haben sie noch keine spezifischen nationalen Vorschriften für KI erlassen.

Die Slowakische Republik hat in diesem Zusammenhang bereits einen langfristigen Strategieplan für die digitale Transformation 2030 und einen konkreten Aktionsplan für die digitale Transformation 2019-2022 veröffentlicht. Im Rahmen der österreichischen KI-Strategie wurde vom BMK die Artificial Intelligence Mission Austria 2030 plus Annex auf Basis des Koordinierten Aktionsplans der EU zu KI publiziert.