Viele Kanzleien. Ein starkes Netzwerk.
Aktuelles
Neues aus Markt und Netzwerk
 

Recht und KI Vorschläge aus Brüssel: Haftung für künstliche Intelligenz (KI) – Teil 1/3: Einleitung.

KI ist in Brüssel in aller Munde. KI steht für künstliche Intelligenz und ist potenziell in vielerlei Hinsicht anwendbar. Von selbstfahrenden Autos über Medizinroboter und autonome Kunst bis hin zu Einstellungs- und Auswahlalgorithmen: KI kann dafür sorgen, dass Software automatisch Entscheidungen trifft, die vorher durchweg von Menschen aus Fleisch und Blut getroffen wurden. Das Automatisieren solcher Entscheidungen wirft die notwendigen moralischen, ethischen und rechtlichen Fragen auf. Diese stehen nun auch im Fokus der europäischen Gesetzgeber. Nachdem die Europäische Kommission im Jahr 2021 einen  Vorschlag für eine KI-Verordnung  erstellt hat, in der bestimmte Anforderungen an Entwicklung und Anwendung von KI gestellt werden, veröffentlichte die Europäische Kommission kürzlich das „KI-Haftungspaket“. Das Paket besteht aus einem Vorschlag zur Änderung der Produkthaftungsrichtlinie („WRPA“) und der komplett neuen vorgeschlagenen Richtlinie über KI-Haftung „(RAIA“) . Der Wunsch der Brüsseler Gesetzgeber, die KI-Haftung zu regeln, ist schon seit einiger Zeit bekannt: Dem KI-Haftungspaket ging im Jahr 2020 die  Empfehlung des Europäischen Parlaments für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz  voraus.

In dieser Blog-Trilogie nehme ich Sie mit auf einen Rundgang durch die Bereiche des KI-Haftungspakets. Ich skizziere die Konturen der vorgeschlagenen Regeln und stelle sie dem Hintergrund der (erwarteten) KI-Innovationen und der Doktorarbeit gegenüber, die ich kürzlich mit dem Titel „ Regulating Innovation of Autonomous Vehicles – Improving Liability and Privacy in Europe “ verteidigt habe und die bei  DeLex in Amsterdam  veröffentlicht wurde. Ein zentrales Ergebnis meiner Doktorarbeit ist, dass der derzeitige Rahmen von Vorschriften zur Haftung und zum Schutz der Privatsphäre keine optimalen Ausgangspunkte für die Förderung von KI-Innovationen und die Akzeptanz von KI-Technologie in der Gesellschaft bietet. Um ein besseres Klima für Innovation und Akzeptanz zu schaffen, habe ich dem Unionsgesetzgeber einige Vorschläge unterbreitet, unter anderem zum Produkthaftungssystem, zu den Vorschriften für die Haftung im Straßenverkehr und schließlich zu den Vorschriften für die Verarbeitung personenbezogener Daten. Diese Vorschläge laufen kurz gesagt darauf hinaus, dass die Position der Opfer von Schäden, die (teilweise) durch KI verursacht wurden, verbessert werden muss. Dabei sollte die Rechtssicherheit für Innovatoren und Verbraucher nicht aus den Augen verloren werden, und es ist wichtig, dass die Erfüllung gesetzlicher Anforderungen für Innovatoren machbar/umsetzbar ist. Abschließend müssen die anwendbaren Gesetze und Vorschriften so gestaltet werden, dass sie flexibel sind und sich mit Technologieentwicklung mitbewegen können. Der Anfang sollte meiner Meinung nach bei einer Minimierung der (finanziellen, grundrechtlichen und physischen) Risiken für Verbraucher liegen, die mit KI in Berührung kommen. Das führt unter anderem dazu, dass es für Opfer von KI-bezogenen Unfällen einfacher werden muss, ihre Schäden gegen demjenigen, der verantwortlich ist, geltend zu machen. 

Nach der derzeitigen Verschuldenshaftung ist es für „KI-Opfer“ äußerst kompliziert, um unter anderem nachzuweisen, dass durch den Einsatz einer KI-Anwendung eine bestimmte gesetzliche Norm verletzt wurde, wodurch Schäden entstanden sind. Das hat zur Folge, dass ein KI-Opfer nicht einfach davon ausgehen kann, dass es den entstandenen Schaden erfolgreich bei beispielsweise dem Hersteller oder einem Betreiber von KI-Technologie geltend machen kann. Das kann wiederum negative Auswirkungen auf das Vertrauen in und die gesellschaftliche Akzeptanz und Umarmung von KI im breiten Sinne haben – wobei gerade dies für erfolgreiche KI-Innovationen in der Europäischen Union notwendig ist. Der Unionsgesetzgeber scheint dies nun erkannt zu haben.

In diesem Teil 1 der Trilogie skizziere ich Hintergründe und Grundsätze des Unionsgesetzgebers in Bezug auf das KI-Haftungspaket und ich analysiere die Konturen der vorgeschlagenen Regelungen. Im 2. Teil analysiere ich die RAIA und im 3. Teil die WRPA. In diesem Rahmen bespreche ich auch, inwiefern und ob die vorgeschlagenen Richtlinien zu einer Verbesserung des Innovationsklimas und der Akzeptanz von KI in Europe führen können. 

Hintergründe

Den derzeitigen Europäischen Haftungsvorschriften, die auf von KI verursachte Schäden anwendbar sein können, wie beispielsweise die in der harmonisierten Produkthaftungsrichtlinie und den (oft nicht harmonisierten) verschuldensabhängigen Haftungsvorschriften enthaltenen Regeln, wird oft das Behindern von Innovationen vorgeworfen. Dies steht ausführlich in den Präambeln der RAIA und ist auch in der akademischen Literatur – einschließlich meiner Doktorarbeit – ein Ausgangspunkt. 

Genauer gesagt besteht dieses Hindernis in dem Vertrauen – oder zumindest dem fehlenden Vertrauen –, das die Opfer in die „Schadenswiedergutmachungsfähigkeit“ des Haftungsrechts, wie es in heutiger Form bei KI-Unfällen angewandt wird, haben können. Oft müssen Opfer, unter Anwendung einer verschuldensabhängigen Haftungsregel wie der „unerlaubten Handlung“ nach Artikel 6:162  Burgerlijk Wetboek  (niederländisches Bürgerliches Gesetzbuch, kurz: BW), einen  Verstoß gegen die Normen  und den  Kausalzusammenhang  zwischen dem Fehler und dem eingetretenen Schaden darlegen und beweisen. Wenn KI an einer Kette von mehreren Schadensereignissen beteiligt ist, bedeutet dies, dass ein Opfer über tiefgreifende technische Kenntnisse verfügen muss, um einen eventuellen  Fehler  erkennen zu können. KI verwendet in der Regel selbstlernende und daher stets „in Bewegung“ befindliche Algorithmen, die Daten in großem Maßstab verarbeiten. Dies macht die Feststellung einer unerlaubten Handlung noch komplizierter. Autonome Fahrzeuge (die es übrigens noch nicht gibt, zumindest nicht in „völlig“ autonomer Form) werden mit verschiedenen Sensoren, Kommunikationsgeräten und Berechnungsmodellen ausgestattet sein, die notwendig sind, um sich im Verkehr zurechtzufinden und zu berechnen, wie man von A nach B kommt, und dies auf sichere Weise. Im Idealfall „verbessert“ sich das Fahrverhalten laufend und lernt das Fahrzeug aus seinen eigenen Fahrerfahrungen und denen anderer Fahrzeuge. Dabei bedient man sich selbstlernender Algorithmen. Wenn ein autonomes Fahrzeug unter weniger idealen Umständen an einem Unfall beteiligt ist, obliegt es dem motorisierten Opfer ( nicht -motorisierte Personen sind gesetzlich besser geschützt), gegenüber einem anderen Verkehrsteilnehmer zu beweisen, dass ein  Verstoß gegen eine (Verkehrs-)Norm  stattgefunden hat – und dass es einen  Kausalzusammenhang  zwischen dem Verstoß gegen die Norm und dem Schaden gibt. Dies erfordert spezialisierte Forschung zu immer komplexeren Fragen, wobei eine ebenso wachsende Zahl von Faktoren einzubeziehen ist. Das kostet Zeit und eine Menge Geld. 

Gelingt der Nachweis eines Normverstoßes oder einer Kausalität nicht, und kann dadurch keine Haftung festgestellt werden, bleibt das Opfer auf seinem Schaden sitzen. Je komplexer die KI-Technologie wird, desto größer das Risiko, dass die Anwendung des (schuldabhängigen) Haftungsrechts nicht länger zu einem effektiven Schadensersatz führt. Für das  Vertrauen  in KI und damit für erfolgreiche KI-Innovationen in Europa ist dies äußerst ungünstig. 

Die Anwendung der derzeitigen Produkthaftungsvorschriften (die Europäische Produkthaftungsrichtlinie aus dem Jahr 1985 wurde in Artikel 6:185 BW implementiert) führt für KI-Opfer zu vergleichbaren Problemen. Zunächst einmal ist noch nicht sicher, ob KI sec unter die Definition eines  Produkts  – und damit in den Anwendungsbereich der Vorschriften – fällt. Das ist der Fall, wenn KI dazu führt, dass ein physisches Produkt wie ein autonomes Fahrzeug mangelbehaftet ist. Ein Produkt ist mangelbehaftet, wenn es nicht die Sicherheit bietet, die die Allgemeinheit berechtigterweise erwarten darf. Dieser Maßstab enthält allerdings eine Unsicherheit: Welches Sicherheitsniveau darf von einem autonomen Fahrzeug erwartet werden? In dem Zusammenhang ist es auch bei dem Nachweis eines Mangels notwendig, dass das Opfer einen Fehler im Algorithmus sucht, der dazu geführt hat, dass ein Unfall mit Schaden eingetreten ist. Auch nach den Produkthaftungsvorschriften ist der Nachweis der Kausalität kompliziert, weil der Nachweis eines  conditio sine qua non Zusammenhangs gefordert wird. Der bloße Nachweis einer Wahrscheinlichkeit reicht (auch hier) nicht aus. Wenn ein Opfer überhaupt beweisen kann, dass ein Mangel in einem Produkt zu einem Schaden geführt hat, hat der Hersteller mehrere Möglichkeiten, sich erfolgreich gegen die Haftung zu wehren. Beispielsweise wenn er glaubhaft macht, dass der Mangel erst, nachdem das Produkt in den Verkehr gebracht wurde, oder noch später entstanden ist. Ein anderes Argument zur Verteidigung kann vorgebracht werden, wenn einem Hersteller die Entdeckung eines Mangels vor dem Inverkehrbringen – aufgrund der zu dem Zeitpunkt verfügbaren technischen und wissenschaftlichen Kenntnisse – unmöglich gewesen ist. Beide Argumente führen dazu, dass es für Opfer von Produkten, in denen selbstlernende KI verarbeitet wurde, noch schwieriger wird, von einem Hersteller erfolgreich Schadensersatz zu verlangen, als wenn keine selbstlernende KI im Spiel gewesen wäre. Meines Erachtens könnte dies zu einem schwindenden Vertrauen in die „Entschädigungskräfte“ der derzeitigen Produkthaftungsvorschriften führen. Fraglich wäre auch, was dies für die schadensvermeidende Wirkung des Systems bedeutet, die auch vom Gesetzgeber beabsichtigt war. 

Die Europäische Kommission möchte mit dem vorgeschlagenen KI-Haftungspaket zumindest einen Anreiz für die Hersteller schaffen, die Produktsicherheitsvorschriften einzuhalten und ihre Produkte so sicher wie möglich zu machen, um so das Risiko von Schäden zu verringern. Gleichzeitig beabsichtigt die Kommission, durch eine Regelung, dass Opfer effektiv so viel Schaden wie möglich erstattet bekommen, so viel  Vertrauen  („trust“) in KI wie möglich zu schaffen. Die Europäische Kommission möchte mit dem KI-Haftungspaket in Verbindung mit der vorgeschlagenen KI-Verordnung einen „ganzheitlichen Ansatz für KI“ verfolgen.

Kann das Vertrauen durch das KI-Haftungspaket wachsen? 

Wie ich in meinen folgenden zwei Beiträgen ausführen werde, bin ich der Meinung, dass die RAIA einen kleinen und die WRPA einen großen Schritt in die richtige Richtung bedeuten. Mit dem in der RAIA vorgeschlagenen System wird die Beweislage von KI-Opfern mit Hilfe eines – wenn auch komplizierten – Systems von Beweisvermutungen, das für die Opfer von Vorteil ist – verbessert. Was die RAIA jedoch nicht tut, ist die Beseitigung der wichtigsten „Hürden“ in Bezug auf den Nachweis der Verletzung von Normen und der Kausalität, z. B. durch die Einführung einer harmonisierten verschuldensunabhängigen Haftungsregelung, wie sie das Europäische Parlament im Jahr 2020 vorgeschlagen hatte. Die RAIA berührt die derzeitigen (verschuldensabhängigen) Haftungsregelungen der 27 EU-Mitgliedsstaaten damit nicht. Und es gibt große Unterschiede zwischen diesen Systemen, die der Unionsgesetzgeber jetzt beseitigen könnte. Beispielsweise die Verkehrshaftung: In Frankreich gibt es aufgrund des Loi Badinter eine verschuldensunabhängige Haftungsregelung, die effektiv auf Unfälle, an denen sowohl „normale“ als auch autonome Fahrzeuge beteiligt sind, angewendet werden kann, obwohl dies in den Niederlanden nur begrenzt der Fall ist. Die Regelung von Artikel 185 Wegenverkeerswet, die die verschuldensunabhängige Haftungsregelung des Fahrzeugeigentümers regelt, kann zwar von und für nicht-motorisierte Opfer von – gegebenenfalls – autonomen Fahrzeugen effektiv eingesetzt werden, aber das gilt nicht für motorisierte Opfer, die ihrer Forderung die verschuldensabhängigen Haftungsregelung von Artikel 6:162 BW zugrunde legen. Die RAIA löst die Probleme für diesen Typ (motorisierter) KI-Opfer nicht effektiv, obwohl dies der Fall wäre, wenn der Vorschlag des Europäischen Parlaments aus dem Jahr 2020 angenommen worden wäre.

Die WRPA würde in den jetzt vorgeschlagenen Formulierungen eine erhebliche Verbesserung der Position von KI-Opfern bedeuten. Das kommt auch dadurch, dass „Software“ und (un)greifbare Komponenten und verbundenen Dienstleistungen ausdrücklich in den Anwendungsbereich der Produkthaftungsvorschriften fallen werden. Das gilt auch für die Verpflichtungen der Hersteller, ihre Produkte auch dann weiter zu sichern, nachdem diese auf den Markt gebracht wurden, und die Verpflichtung, eine eventuelle Beweisnot der Opfer durch Weitergabe bestimmter Informationen an diese zu lindern. Die angenommenen Verbesserungen der Opferrolle nach der WRPA kann meiner Meinung nach zu einem größeren Vertrauen in die Präventiv- und Entschädigungskräfte des Systems führen, obwohl sich in diesem Punkt noch mehr gewinnen ließe, wenn der Unionsgesetzgeber im Hinblick auf Text und Ziele der RAIA ambitiöser wäre. 

Alle Fachbeiträge zeigen