Newsroom / News / Medien / Infomagazin LGP News 02/2021 / Wer haftet für die Straftaten einer KI?

Wer haftet für die Straftaten einer KI?

Wer haftet für die Straftaten einer KI?

Künstliche Intelligenz (KI) ist heute allgegenwärtig. Sie begegnet uns im OP-Saal in Form von Roboterchirurgen, im Straßenverkehr mittels autonomer Fahrzeuge oder vor Gericht als Entscheidungshilfe für Richter. Während sich KI-Technologien unaufhaltsam weiterentwickeln und immer mehr an praktischer Bedeutung gewinnen, hinkt der Gesetzgeber mit der Umsetzung rechtlicher Rahmenbedingungen hinterher.

Obwohl KI ständig in unserem digitalisierten Leben präsent ist und sicherlich auch eine bedeutende Rolle für eine grünere Zukunft spielen kann, wird diese aktuell kaum reguliert. De facto gibt es keine gesetzlichen Bestimmungen, die speziell Künstliche Intelligenz regeln. Auf europäischer Ebene gibt es bereits erste Ansätze: So hat die EU-Kommission etwa „Maßnahmen zur Förderung der Exzellenz im Bereich KI und Regeln“ als Basis für zukünftige Verordnungen vorgeschlagen und KI in unterschiedliche Risikostufen pyramidal eingeordnet. Dadurch will die Kommission klar definieren, was durch KI zulässig bzw. verboten sein soll. Social Scoring etwa, wie in China praktiziert, würde demnach als unzulässig gelten. KI-Systeme wie „Chatbots“ würden als begrenztes Risiko eingestuft und wären somit unter gewissen Rahmenbedingungen (Zustimmung der Nutzer) erlaubt. KI, eingesetzt in kritischen Infrastrukturen wie beispielsweise Verkehr oder als Sicherheitskomponente von Produkten (roboterassistierte Chirurgie), würde hingegen als hohes Risiko eingestuft. 

Neben der geplanten Verordnung hat die Kommission dazu auch ein Gremium aus Spezialisten einberufen. Die High Level Expert Group on AI (HLEG) befasst sich mit 7 Schlüsselanforderungen für einen ethisch-korrekten Umgang mit KI. Dazu gehören sowohl die sichere Handhabung des Datenschutzes und der Datenverwaltung als auch das Streben nach gesellschaftlichem und ökologischem Wohlergehen (Stichwort Green Energy). Doch auch diese Schlüsselanforderungen wurden bislang nicht in rechtlich verbindliche Bestimmungen transformiert. 

Gesetzlicher Rahmen 

Durch die fehlenden gesetzlichen Bestimmungen stellen sich einige grundlegende rechtliche Fragen: Wer haftet, wenn die KI einen Fehler macht? Der Hersteller, der Importeur oder vielleicht doch die KI selbst? Wie ist die datenschutzrechtliche Lage zu beurteilen? Sind alle Daten geschützt? Außerdem wird die spannende Frage aufgeworfen, ob KI wirklich zu einer nachhaltigen und umweltschonenderen Zukunft aktiv beitragen kann. 

Um auf diese relevanten Fragen eine Antwort geben zu können, bedarf es eines Rückgriffs auf die bestehenden Gesetze. Für die haftungsrechtlichen Fragen kämen hier etwa das Eisenbahn- und Kraftfahrzeughaftpflichtgesetz (EKHG) oder das Produkthaftungsgesetz (PHG) in Frage. Letzteres aber nur dann, sofern man ein KI-System als Produkt subsumiert. Hier gehen die Meinungen allerdings weit auseinander. Bejaht man diesen Aspekt und wird durch den Fehler eines Produkts ein Mensch getötet, am Körper verletzt oder anderweitig gesundheitlich geschädigt, so haftet für den Ersatz des Schadens entweder der Hersteller oder der Importeur der KI. Problematisch wird es allerdings, wenn ein Unternehmen für sein in den Warenverkehr gebrachtes Produkt die Hardware selbst herstellt und sich die KI-Software von einem Dritten liefern lässt. Ein gutes Beispiel wäre ein Autobauer, der die KI für das Auto extern besorgt. Wer haftet dann, wenn die KI versagt? Der Zulieferer der KI oder doch das Unternehmen, welches das fertige Auto auf den Markt bringt? Diskutiert wird übrigens auch, ob man die KI selbst haften lässt, indem man ihr eine eigene Rechtspersönlichkeit zuordnet: eine sog. E-Person. 

Warum es – zumindest bis zum jetzigen Zeitpunkt – keiner E-Person bedarf, ist relativ einfach erklärt: Das sogenannte autonome Handeln von KI ist momentan noch beschränkt und kann so gut wie immer auf menschliches Verhalten zurückgeführt werden. Denn ein KI-System muss von Menschen programmiert werden. Der Stand der Technik ist eben (noch) nicht so weit, dass ein KI-System so selbstständig wird, dass es gar keiner menschlichen Komponente mehr bedarf. Allerdings sollte dieses Konzept der E-Person für die Zukunft im Hinterkopf behalten werden – es ist nämlich nicht auszuschließen, dass KI-Systeme in Zukunft noch autonomer werden. 

Ansonsten können grundsätzlich auch Hersteller eines Teilprodukts für Fehler haften. Um das zu verdeutlichen, kann man nochmals das Auto mit der KI-Software als Beispiel nehmen. Führt ein Fehler der KI zu einem Schaden und ist dieser klar von der Hardware abzugrenzen, kann der Hersteller der KI zur Verantwortung gezogen werden. Ist ein mechanisches Teil des Autobauers fehlerhaft und führt dies zu einem Schaden, wird der Autobauer haften müssen. Wo nun aber die Grenzen des Zusammenspiels von KI und Hardware oder auch von anderen Daten Dritter zerfließen, kann es sehr schwer bis unmöglich werden, einen Verantwortlichen auszumachen. Dann würde als Lösung mit den derzeitigen Rechtsmitteln nur eine solidarische Haftung in Frage kommen. Oder (und das wäre besonders empfehlenswert): Es werden neue Gesetze erlassen, die diese Fälle juristisch klar regeln. 

Bestimmungen für Datenschutz 

Auch das Thema Datenschutz spielt im Zusammenhang mit KI eine große Rolle. KI zeichnet sich einfach gesagt durch das Sammeln von riesigen Datenmengen (Big Data) aus. Daher gilt es bei der Verarbeitung personenbezogener Daten durch KI mehr denn je die Vorschriften der DSGVO einzuhalten. Nach Art 6 DSGVO bedarf es für die Verarbeitung personenbezogener Daten immer einer Rechtsgrundlage, etwa der Einwilligung des Betroffenen oder einem überwiegend berechtigten Interesse des Verantwortlichen. Denkbar und durchaus problematisch wäre es, wenn die KI autonom „neue“ Daten erhebt, die keiner dieser Rechtsgrundlagen unterliegen. Die Funktionsweise der KI könnte auch mit dem Grundsatz der Datenminimierung des Art 5 c DSGVO differieren. Denn KI-Systeme brauchen Unmengen an Daten, damit sie funktionieren und sich weiterentwickeln können. Eine Überlegung wert wäre auch, die Vereinbarkeit mit Art 17 DSGVO zu überprüfen und dem darin geregelten Recht auf Löschung bzw. dem Recht auf Vergessenwerden. Kann eine KI überhaupt Daten löschen bzw. vergessen? Wenn das möglich wäre, bestünden dann auch Möglichkeiten, die gelöschten Daten wiederherzustellen? Auch im Datenschutzrecht konfrontiert uns KI deshalb mit vielen Fragen, auf die es noch keine legistische Antwort gibt. 

KI spielt aber auch eine wichtige Rolle beim Thema Klimaschutz und Ökologie. Hat der Einsatz von KI tatsächlich einen positiven Einfluss auf unser Klima bzw. auf das Erreichen der von der EU formulierten Klimaziele? Die Antwort ist ambivalent: Künstliche Intelligenz kann erheblich zum Klimaschutz beitragen. Bereits jetzt wird sie beispielsweise in der Landwirtschaft und zur Prävention illegaler Rodungen eingesetzt. Allerdings wäre es falsch, davon auszugehen, dass Künstliche Intelligenz automatisch zu mehr Klimaschutz führt. Auch hier muss man Nachhaltigkeit bewusst in den Vordergrund stellen und entsprechende Rahmenbedingungen setzen. KI-Anwendungen benötigen nämlich große Mengen an Energie und Ressourcen und könnten daher den weltweiten Stromverbrauch erhöhen. 

Abschließend ist zu sagen, dass angesichts der derzeitigen legistischen Grundlagen noch viele Fragen ungeklärt bleiben. Klar ist aber auch: KI ist dem Gesetzgeber bereits voraus. Zwar ist bis zu einem gewissen Grad der Rückgriff auf bestehende Gesetze möglich, es mangelt allerdings an neuen, spezifischeren Gesetzen, die direkt auf KI-Systeme abzielen und diese explizit regulieren. 


AUTOREN:

Dr. Julia Andras, Rechtsanwalt und Managing Partner bei LANSKY, GANZGER + partner
(von links nach rechts: Clarissa Wölfer, Philip Grünberger, Marie Posch)

Auch in diesem Jahr beschäftigte LGP wieder Ferialangestellte, welche in den Alltag einer Großkanzlei hineinschnuppern konnten. Diesmal haben unter anderem Clarissa WölferMarie Posch und Philip Grünberger ihr Praktikum bei LGP absolviert. Die drei Studenten*Innen haben sich dabei inhaltlich mit dem spannenden und zukunftsträchtigen Thema „Künstliche Intelligenz“ sowie mit daraus resultierenden relevanten Rechtsfragen auseinandergesetzt. Denn das Thema „Künstliche Intelligenz“ hat nicht nur moralische, ethische und technische Aspekte, sondern wirft auch zahlreiche Rechtsfragen – insbesondere auf dem Gebiet der Haftung für Straftaten oder Schädigungen, aber auch im Bereich des Datenschutzes – auf.LGP freut sich und ist stolz darauf, den gemeinschaftlich verfassten Artikel präsentieren zu können. 

Meine Dokumente

Seite hinzufügen

There are currently no documents in your basket.