Künstliche Intelligenz Neue Produkthaftungsregeln und KI: Gut für Innovation und Akzeptanz?
Es handelt sich hierbei um eine deutsche Übersetzung (Dr. Arjen S. Westerdijk, Petra M. Stickel) des von Herrn Dr. De Bruin geschriebenen Artikels, erschienen im Juli 2023 in der Zeitschrift Verkeersrecht ANWB, VR 2023/80.
1. Einleitung
KI, die oft verwendete Abkürzung für „künstliche Intelligenz“, steht im Mittelpunkt des Interesses. Obwohl sich KI nicht einfach definieren lässt, enthält KI-Technologie aus rechtlicher Sicht einige interessante Aspekte, die KI von anderen Technologien unterscheidet. Eine dieser Eigenschaften ist, dass KI oft über eine Art „Autonomie“ verfügt. Autonomie ist ebenfalls ein schwer zu umreißender Begriff,[1] kann aber von einem Juristen als die Fähigkeit eines Systems, Entscheidungen zu treffen, verstanden werden. Dabei geht es um Entscheidungen, die von einem System (d.h. „künstlich“) getroffen werden, die zuvor von Menschen getroffen worden wären und die im wirklichen Leben oder im Rechtsbereich Konsequenzen haben können.[2] Nehmen wir zum Beispiel die Entscheidung eines vollständig autonomen Fahrzeugs, ein anderes Fahrzeug zu überholen, wobei ein anderes Fahrzeug angefahren wird. Oder, im positiveren Sinn, ein Pathologie-Algorithmus, der eine bestimmte Zellstruktur als Tumorgewebe identifiziert, die vom menschlichen Auge nicht als solches erkannt werden würde. Autonomie ist kein zweigeteiltes Konzept und kann in vielen Abstufungen auftreten: Je größer die systemische Entscheidungsfähigkeit, desto größer ist der Grad der Autonomie des Systems.[3] Autonomie setzt ein bestimmtes Maß an „Intelligenz“ voraus. Intelligenz kann als die Fähigkeit betrachtet werden, das Verhalten an sich ändernde Umstände anzupassen. Dies erfordert Eigenschaften wie Lernen (d.h. „Machine Learning“),[4] logisches Denken, Problemlösung, Wahrnehmung der Umwelt und Sprachverständnis.[5] Technologie mit einem gewissen Grad an KI boomt. Denken Sie zum Beispiel an chirurgische Roboter,[6] medizinische Diagnostik[7] oder an „generative KI“, die Texte wie das inzwischen berühmte ChatGPT erzeugt.[8]
Es bedarf wohl kaum der Erwähnung, dass die KI-Technologie in vielerlei Hinsicht vielversprechend ist – daher werden wir dies hier nicht weiter ausführen –, um uns in diesem Beitrag auf eine der Schattenseiten zu konzentrieren, bei der KI (teilweise) zu Unfällen und Schäden führt. Opfer von Unfällen, an denen Produkte, die KI enthalten, beteiligt sind, können mit erheblichen Schwierigkeiten konfrontiert werden, wenn sie versuchen, von den Herstellern Schadenersatz zu erhalten, z. B. im Rahmen der derzeitigen Produkthaftungsregelung.[9] Diese Probleme können unterschiedlicher Art sein. Sie haben unter anderem mit dem Mangel bzw. Fehler des Produkts zu tun, der vom Geschädigten bzw. Opfer nachgewiesen werden muss. Welche Sicherheit kann man von einem autonomen Auto erwarten? Und wie erkennt man einen solchen Fehler in einem technologisch komplexen, oft mit dem Internet und anderen Produkten vernetzten und mit selbstlernenden Algorithmen ausgestatteten Big-Data-Produkt? Mindestens ebenso kompliziert wird es sein, einen Kausalzusammenhang zwischen Fehler und Schadenseintritt nachzuweisen, während sich verklagte Hersteller „leicht“ verteidigen können, indem sie plausibel machen, dass der Fehler noch nicht vorhanden war, als das Produkt in Verkehr gebracht wurde, oder dass der Fehler nach dem damaligen Stand der technischen und wissenschaftlichen Erkenntnisse nicht bekannt sein konnte.[10]
Am 28. September 2022 veröffentlichte die Europäische Kommission einen Vorschlag für eine überarbeitete Produkthaftungsrichtlinie (kurz: „WRPA“),[11] die unter anderem diese Probleme aus der Welt schaffen müsste. Gleichzeitig schlug die EU-Kommission die Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (kurz: „RAIA“) vor,[12] die zusammen mit der (etwas) veralteten, vorgeschlagenen KI-Verordnung[13] das sogenannte „KI-Gesetzespaket“ darstellt. In diesem Essay werden wir die WRPA eingehender betrachten. Denn unsere Frage lautet, ob sich die Position von Opfern von Unfällen mit autonomen Fahrzeugen mit den vorgeschlagenen Regelungen und im Hinblick auf die heutige Situation verbessern ließe. Wir werden die Antworten auf diese Frage in eine kurze Bewertung der möglichen Auswirkungen der neuen Vorschriften auf die KI-Innovation und die gesellschaftliche Akzeptanz der Ergebnisse dieser Innovation einbeziehen. Dabei werden wir den Bewertungsrahmen verwenden, den der Autor während seiner Doktorarbeit entwickelt hat.[14]
Dieses Essay ist wie folgt strukturiert. Nach der Einleitung erläutern wir in Paragraf 2 die neuen Regelungen der WRPA und vergleichen diese mit den gegenwärtig geltenden Regeln. Zur Illustration arbeiten wir mit KI-bezogenen Beispielen. In Paragraf 3 wird „bewertet“, was die Erkenntnisse aus Paragraf 2 für die Innovation und die Akzeptanz von autonomen Fahrzeugen bedeuten könnten: aus der Perspektive der Verbraucher einerseits und aus der Perspektive der Innovatoren im Rahmen des vorgeschlagenen WRPA andererseits.
2. Grundzüge der WRPA
a. Ausgangspunkte der WRPA
Mit der WRPA wird beabsichtigt, die Produkthaftungsregeln auf den neuesten Stand zu bringen, vor allem im Hinblick auf den „grünen und digitalen Wandel“.[15] Zu letzterem stellt der Unionsgesetzgeber fest, dass die alte Regelung Unklarheiten enthält, unter anderem in Bezug auf den Anwendungsbereich der derzeit geltenden Vorschriften, und stellt klar, dass diese auch für Software und KI gelten sollten und dass es grundsätzlich immer möglich sein sollte, eine Partei in der EU für Produkte haftbar zu machen, die Schäden verursachen.[16] Dabei kann es sich um einen Hersteller von Hardware handeln, die KI enthält, aber auch ein Softwarehersteller oder ein Anbieter „digitaler Dienste, die sich auf den Betrieb des Produkts auswirken“ (z. B. ein Navigationsdienst in einem autonomen Fahrzeug“).[17] Die Verantwortung für die Sicherheit von KI-Produkten endet nicht mit der Vermarktung eines betroffenen Produkts: Während der wirtschaftlichen Lebensdauer stellt der Hersteller, soweit möglich, Sicherheitsupdates zur Verfügung.[18] Da KI ein hohes Maß an technischer Komplexität mit sich bringt, hält es der Gesetzgeber für angemessen, den Opfern von KI-bezogenen Unfällen in ihrer Beweislage entgegenzukommen. Sie müssen unter anderem einfacher Zugang zu Beweismaterial bekommen, das sich bei einem Hersteller in Besitz befindet.[19] Darüber hinaus werden die nationalen Gerichte in vielen Fällen mit (widerlegbaren) Beweisvermutungen hinsichtlich der Fehlerhaftigkeit und/oder Kausalität arbeiten müssen, wenn glaubhaft ist, dass ein KI-Produkt zu einem entstandenen Schaden beigetragen hat.[20] Um jedoch das Gleichgewicht zwischen dem Schutz der Opfer und der Innovation zu wahren, muss die Beweislast (und das Beweisrisiko) weiterhin bei der Partei liegen, die von einem Hersteller Schadenersatz fordert.[21]
Nachstehend erläutern wir, wie diese Ausgangspunkte in dem jetzt vorliegenden Gesetzentwurf ausgestaltet wurden. Dabei beschränken wir uns auf die Themen, die unserer Ansicht nach für Innovatoren und Verbraucher von KI-Produkten am wichtigsten sind. Unter b konzentrieren wir uns auf die Änderungen in den Produktdefinitionen und unter c erklären wir, inwiefern der Begriff „Fehler“ erweitert wird. In d kommen wir kurz auf die Innovatoren zu sprechen, die haftbar gemacht werden können. Das Recht auf Schadensersatz und ersetzbare Schäden behandeln wir unter e. Unter f betrachten wir die (wahrscheinlich) wichtigsten Haftungseinwände, die sich auf Fehler/Mängel beziehen, die nach der Markteinführung entstanden sind, sowie die Einrede des Entwicklungsrisikos. Anschließend gehen wir in g auf die vorgeschlagenen verfahrensrechtlichen Instrumente für Opfer ein.
b. Änderungen der Definition „Produkte“ und verbundene digitale Dienstleistungen
Die WRPA definiert ein Produkt als eine „bewegliche Sache, auch nachdem sie in eine andere [bewegliche oder unbewegliche] Sache integriert worden ist“. Außerdem werden unter einem Produkt auch „Elektrizität, Dateien für die digitale Fertigung und Software“ verstanden.[22] Mit dieser Definition wird der alte Begriff „Produkt“ aus 1985 erheblich erweitert. Der Gesetzgeber integriert Software ausdrücklich in den Geltungsbereich der Richtlinie, um die bisherige Rechtsunsicherheit in diesem Punkt zu beenden,[23] und wegen der wachsenden Bedeutung von Software für die Produktsicherheit.[24] Dabei macht es keinen Unterschied, wie die Software bereitgestellt wird: Auch Software „aus der Cloud“ und Stand-alone-Software fallen unter diese neue Definition.[25] Gleichzeitig fallen Gratis- und Open Source Software, die „außerhalb einer gewerblichen Tätigkeit entwickelt oder geliefert werden“[26], nicht in den Geltungsbereich der Richtlinie. Software, die zwar „gratis“ angeboten wird, aber bei der der Käufer in Form seiner personenbezogenen Daten (die anschließend zu anderen Zwecken als der Verbesserung der Sicherheit, der Interoperabilität oder der Kompatibilität von Software verwendet werden) bezahlt, fällt allerdings wiederum in den Geltungsbereich.
Erläuterung 1: Für Hersteller von (KI-)Software ist die vorgeschlagene Produktdefinition von erheblicher Bedeutung. So werden beispielsweise die Hersteller von Software für selbstlernende Medizinroboter zu direkten Normadressaten gemäß der WRPA. Auch Fertigungsunternehmen von eigenständiger KI-Software (ohne dass diese mit Hardware verbunden ist), beispielsweise über Internet-zugängliche „generative KI“ wie ChatGPT oder Dall-E, haften verschuldensunabhängig für Schäden, die infolge der Software entstehen.
In der WRPA werden auch „Komponenten“ ausdrücklich angegeben. Eine Komponente ist jeder materielle oder immaterielle Gegenstand oder eine „zugehörige Dienstleistung“, der/die vom Fertigungsunternehmen in das Produkt integriert oder mit diesem verbunden wird[27] oder unter der Kontrolle[28] des Herstellers steht. Die WRPA deckt auch „zugehörige Dienstleistungen“ ab, die so in ein Produkt integriert oder mit ihm verbunden sind, dass das Produkt eine oder mehrere seiner Funktionen ohne die betreffende Dienstleistung nicht ausführen könnte.[29] Nach der WRPA sind auch die Hersteller dieser Arten von Komponenten (zusätzlich zum Fertigungsunternehmen des Produkts, in das sie integriert sind) haftbar, wenn sie fehlerhaft sind.[30]
Erläuterung 2: Neben Softwareherstellern können nach der WRPA beispielsweise auch Anbieter von Quelldaten haftbar gemacht werden, wenn die Quelldaten zu fehlerhaften Produkten und Schäden führen. Dazu könnten Anbieter von Dateien, Modellen und Algorithmen zur Vorhersage von Kreditwürdigkeit oder Betrugsrisiken gehören.[31] „Verbundene Dienstleister“ werden ebenfalls risikohaftbar. Dazu gehören z.B. die Anbieter von Verkehrsdaten, die für die Navigation selbstfahrender Autos benötigt werden, oder die Anbieter von Speicherdiensten, die zur Speicherung und Verarbeitung von Bildern verwendet werden, die von autonomer medizinischer Diagnosesoftware analysiert werden.
c. Erweiterung der Definition „Fehler“
In Artikel 6 WRPA heißt es, ähnlich wie in der derzeitigen Regelung, dass ein Produkt als fehlerhaft gilt, „wenn es nicht die Sicherheit bietet, die die Allgemeinheit erwarten darf“.[32] Der Gesetzgeber fügt dann eine ganze Reihe von Umständen hinzu, die bei der Bestimmung der Fehlerhaftigkeit im Vergleich zu der derzeit geltenden Definition zu berücksichtigen sind. Die wichtigsten in diesem Zusammenhang sind in den Buchstaben c bis f enthalten.
Buchstabe c gibt die Auswirkung des Selbstlernens auf das Produkt an, nachdem es in Verkehr gebracht oder in Gebrauch genommen wurde. In Verbindung mit Buchstabe d, der sich auf die Auswirkungen auf andere Produkte bezieht[33], Buchstabe e, der sich auf den Zeitpunkt des Inverkehrbringens bezieht und berücksichtigt, inwieweit der Hersteller nach diesem Zeitpunkt die Kontrolle über das Produkt behalten hat, und in Verbindung mit den neuen Verpflichtungen, z. B. Software nach der Markteinführung mit Sicherheitsupdates zu versorgen, ergibt sich ein umfangreicher Auftrag an die Hersteller, (KI-)Produkte nach dem Inverkehrbringen „in Schuss“ und sicher zu halten.[34] Unter f wird hinzugefügt, dass in diesem Zusammenhang auch "Produktsicherheitsanforderungen, einschließlich sicherheitsbezogener Cybersicherheitsanforderungen" berücksichtigt werden können. Wenn die Hersteller die angemessenen Erwartungen der breiten Öffentlichkeit[35] (und die gesetzlichen Verpflichtungen) in diesen Bereichen nicht erfüllen, kann dies zur Fehlerhaftigkeit ihrer Produkte im Sinne der WRPA führen.
Erläuterung 3: Endet die Verantwortung der Hersteller nach den heutigen Vorschriften oft nach dem Inverkehrbringen eines Produkts, gilt nach den vorgeschlagenen Regelungen eine fortdauernde Verpflichtung, beispielsweise KI-Algorithmen sicherzustellen. Das führt dazu, dass Hersteller verhindern müssen, dass das Selbstlernen der Systeme, die sie auf den Markt bringen, nach einiger Zeit dazu führen, dass die Systeme unsicher oder im Bereich der Cybersicherheit anfällig werden. Unterlassen die Hersteller dies, kann das zu einem Fehler im Sinne der WRPA führen.
Wie die „angemessenen“ Erwartungen der Verbraucher in Bezug auf die KI-Technologie zu bestimmen sind, kann noch nicht allgemein festgelegt werden – zumindest nicht auf Grundlage des aktuellen WRPA-Textes. Infolgedessen sind diese Erwartungen vorerst offene Normen, die sowohl für Verbraucher als auch für Hersteller große Auswirkungen haben können. In Bezug auf selbstfahrende Autos könnte man zum Beispiel einerseits argumentieren, dass von ihnen erwartet werden sollte, dass sie sicherer fahren als der beste menschliche Fahrer[36] - während man andererseits auch argumentieren könnte, dass (insbesondere, solange die Technologie noch in der Entwicklung ist) der durchschnittliche menschliche Fahrer als Maßstab genommen werden sollte, was unserer Meinung nach das absolute Minimum sein sollte.[37]
d. Innovatoren, die haftbar gemacht werden können: One-Stop-Shop
Neben dem Fertigungsunternehmen fehlerhafter Produkte muss ein Opfer nach der WRPA unter anderem auch die Fertigungsunternehmen einer fehlerhaften Komponente (einschließlich digitaler Dienstleistungen) haftbar machen können, wenn dieser einen Fehler im (End)Produkt zur Folge hat.[38] Ist das Fertigungsunternehmen außerhalb der Europäischen Union niedergelassen, können Importeur und Bevollmächtigter des Fertigungsunternehmens haftbar gemacht werden.[39] Ein solcher Bevollmächtigter ist die „in der Europäischen Union niedergelassene natürliche oder juristische Person, die durch ein Fertigungsunternehmen bevollmächtigt wurde, in seinem Namen spezielle Aufgaben zu erfüllen.“[40] Ist in der Europäischen Union kein Importeur oder Bevollmächtigter zu finden, kann sich ein Opfer auch an den „Erfüllungsdienstleister“ wenden.[41] Es handelt sich dabei um denjenigen, der auf gewerblicher Grundlage mindestens zwei der folgenden Dienstleistungen erbringt: „Lagerung, Verpackung, Adressierung und Versand eines Produkts“[42] – bestimmte Postdienste, Paketzustelldienste und Frachtdienste ausgeschlossen.
Erläuterung 4: Der Erfüllungsdienstleister könnte beispielsweise eine Partei sein, die Produkte nicht unter eigenem Namen und auf Ersuchen eines anderen im Ausland bestellt (gegebenenfalls nicht in Massen), lagert und nach dem Verkauf an Verbraucher versendet, wie Lagerunternehmen und Spediteure.
Kann kein Fertigungsunternehmen, Bevollmächtigter, Importeur oder Erfüllungsdienstleister innerhalb der Europäischen Union lokalisiert werden, kann ein Produkthaftungsanspruch gegen „jeden Händler“ gerichtet werden, wenn dieser Händler nicht innerhalb eines Monats auf Verlangen des Klägers die Identität des verantwortlichen Wirtschaftsteilnehmers oder des betreffenden Lieferanten bekannt gibt.[43]
Neben dem Händler gilt diese Verpflichtung (und Haftung) auch für die „Anbieter einer Online-Plattform“[44], die es Verbrauchern ermöglicht, Fernabsatzverträge mit Händlern zu schließen, die weder Fertigungsunternehmen noch Importeur oder Händler sind“.[45]
Derjenige, der ein bereits in Umlauf gebrachtes Produkt einschneidend ändert, wird nach der neuen Richtlinie auch als Fertigungsunternehmen betrachtet – vorausgesetzt, dass der ursprüngliche Fertigungsunternehmen keine Kontrolle darüber hat.[46]
Erläuterung 5: Wenn ein „Roboter-Begleiter“, der ursprünglich als Chat-Begleiter gedacht war, nach einem selbst hergestellten „Upgrade“, das beim örtlichen Programmierer gekauft wurde, als allgemeiner Haushaltshelfer eingesetzt wird, eine chinesische Vase aus der Ming-Dynastie mit Müll verwechselt wird, könnte das geschädigte Opfer bei dem örtlichen Programmierer, der die Modifikation vorgenommen hat, Schadensersatz verlangen.
Mit der Hinzufügung des Erfüllungsdienstleisters, des „Modifikators“ und der Anbieter von Online-Plattformen erweitert der Gesetzgeber den „One-Stop-Shop“ für die Geltendmachung von Haftungsansprüchen der Verbraucher erheblich. Artikel 11 bestimmt, dass alle relevanten Parteien gesamtschuldnerisch haftbar gemacht werden können; eine eigene Rückgriffsregelung enthält die WRPA nicht. Eigenes Verschulden des Klägers kann zur Minderung oder zum Ausschluss der Haftung führen – wie unter der heutigen Regelung.[47] Darüber hinaus wurde bestimmt, dass „die Haftung eines Wirtschaftsteilnehmers nicht gemindert wird, wenn der Schaden sowohl durch die Fehler eines Produkts als auch durch die Handlungen oder Unterlassungen eines Dritten [außer dem Kläger selbst, Autor] verursacht wurde“.[48] Unserer Meinung nach impliziert diese Bestimmung, dass, wenn der tatsächliche Kausalzusammenhang (zwischen Fehler und eingetretenem Schaden) feststeht, dieser Grundsatz dazu führen sollte, dass dem Fertigungsunternehmen der gesamte Schaden zugerechnet wird,[49] wobei natürlich die Möglichkeit besteht, das eigene Verschulden des Opfers abzuziehen.
Erläuterung 6: Konkret würde diese Regelung beispielsweise bedeuten, dass der Hersteller auch für die Schäden haftet, wenn ein Hacker sich Zugang zu der Software oder den damit verarbeiteten Daten verschafft und diese manipuliert hat, wodurch Schäden entstanden sind – ungeachtet dessen, ob der Hersteller seinen Verpflichtungen zur Gewährleistung der Sicherheit der Produkte nach der Markteinführung nachgekommen ist.[50]
e. Recht auf Schadensersatz: jetzt auch Verfälschung von Daten im Geltungsbereich
Nach der WRPA haftet der Hersteller gegenüber natürlichen Personen, denen aufgrund eines mangelhaften Produkts Schäden entstehen. In Artikel 4 Absatz 6 sind drei Kategorien „materieller Verluste“ aufgelistet, die für Schadensersatz in Betracht kommen. Erstens wird auf Schäden infolge von Tod oder Körperverletzung verwiesen (jetzt ausdrücklich auch auf „medizinisch anerkannte psychische Erkrankungen“).[51] „Beschädigung oder Zerstörung von Waren“ ist als zweite Kategorie aufgeführt. Ausgeschlossen sind Schäden am Produkt selbst, Produkte, die aufgrund einer defekten Komponente beschädigt wurden, und „Waren, die ausschließlich zu beruflichen Zwecken verwendet werden“.[52] Eine Neuerung ist in Abschnitt c enthalten, in dem festgelegt wird, dass auch der "Verlust oder die Verfälschung von Daten, die nicht ausschließlich für berufliche Zwecke genutzt werden“, in den Begriff des Schadensersatzes einbezogen wird.
Erläuterung 7: Wenn ein KI-System, das „in der Cloud“ aktiv ist und Quelldaten eines Verbrauchers verarbeitet, beispielsweise eine Fotokollektion oder Dokumentensammlung, haftet der Hersteller wahrscheinlich für den Verlust, oder die Unzugänglichkeit zu diesen Informationen infolge eines defekten Algorithmus. Allerdings stellt sich die Frage, ob dieser Grundsatz zu Ausnahmen führt, wenn ein KI-Algorithmus auf einem eigenen Gerät (Telefon, Tablet, Laptop, Auto, usw.) des Verbrauchers installiert bzw. darauf heruntergeladen wird, und anschließend ein Fehler im Algorithmus entsteht, wodurch das Gerät (und damit verarbeitete Daten/Informationen) nicht mehr funktioniert und ersetzt werden muss.
f. Haftungseinreden: Begrenzung von Ausnahmen bei KI-bezogenen Produkten
In Anbetracht einer gerechtfertigten Risikoverteilung zwischen Verbrauchern und Fertigungsunternehmen[53] enthält auch die WRPA (Artikel 10) eine erschöpfende Auflistung von Ausnahmen. Neben den „üblichen“ und zum Teil erkennbaren Verteidigungsmitteln[54] kann der Hersteller zwar eine Ausnahme geltend machen, falls ein Fehler nach Markteinführung entstanden ist,[55] aber nicht, wenn: a) der Fehler durch einen zugehörigen Dienstleister verursacht wird, über den das Fertigungsunternehmen Kontrolle hat; b) der Fehler einer Software und Updates und Upgrades, über die das Fertigungsunternehmen Kontrolle hat, zuzuschreiben ist; oder c) der Fehler durch fehlende Software-Updates oder -Upgrades, die zur Gewährleistung der Sicherheit notwendig sind, entstanden ist, sofern das Fertigungsunternehmen Kontrolle darüber hat.
In demselben Zusammenhang muss auch die verschärfte Einrede des Entwicklungsrisikos betrachtet werden.[56] Hersteller können sich gegen eine Schadensersatzforderung wehren, wenn sie nachweisen können[57], dass es „aufgrund des objektiven Stands der wissenschaftlichen und technischen Kenntnisse zum Zeitpunkt, zu dem das Produkt in den Handel gebracht oder zur Nutzung bereitgestellt wurde, oder während des Zeitraums, in dem sie Kontrolle über das Produkt hatten , [Unterstreichung durch Autor] nicht möglich war, die Fehler zu entdecken.
Erläuterung 8: Wenn man diese Ausnahmen von der Haftungsausnahme zusammen mit der verschärften Fehlerdefinition und den (Cyber-)Sicherheitsverpflichtungen aus diesen und verwandten EU-Verordnungen betrachtet, wird deutlich, dass die Sorgfaltspflichten der (KI-)Hersteller viel weiter reichen werden als bisher. Kurz gesagt: KI-Hersteller, die es versäumen, ihre Produkte sicher und/oder funktionsfähig zu halten, obwohl sie dazu – entweder aufgrund gesetzlicher Vorschriften oder aufgrund der Erwartungen der breiten Öffentlichkeit – verpflichtet sind, riskieren, dass ihr Produkt als fehlerhaft/mangelbehaftet betrachtet wird, und sie können sich durch Argumente oder Nachweise entlasten, dass man den Fehler zum Zeitpunkt der Markteinführung nicht kannte. Das führt dazu, dass die gegebenenfalls von dem System selbst initiierten Entwicklungen sehr sorgfältig geprüft werden müssen, wenn man selbstlernende, autonome Systeme betreiben möchte. Die Einrede eines Herstellers, dass er den fraglichen Fehler/Mangel nicht kannte, wird ihn im Nachhinein oft nicht entlasten, wenn er den Mangel hätte kennen, vermeiden oder beheben können.
g. Verfahrenstechnische Instrumente für Opfer
Die Beweislast für den Nachweis eines Defektes, Schadens und der Kausalität ruht auch nach der WRPA weiterhin auf den Schultern der Opfer[58], um damit „eine gerechtfertigte Verteilung von Risiken zu realisieren“.[59] Der Unionsgesetzgeber kommt den klagenden Parteien jedoch sehr entgegen – und das ist auch dringend notwendig: Für Opfer wird es oft schwierig sein, einen Fehler in selbstlernenden KI-Produkten und die Kausalbeziehung zwischen Fehler und Schaden nachzuweisen.[60] Ursächlich ist auch, dass KI-Technologie per Definition komplex ist, oft mit anderen Technologien zusammenhängt, bei denen große Datenmengen genutzt werden, und sich im Laufe der Zeit wegen des selbstlernenden Charakters auch noch selbst anpassen kann. Zugang zur und die Möglichkeiten in Bezug auf die Software, die Logik des entscheidenden Algorithmus und die verarbeiteten Daten werden Opfer vor Herausforderungen stellen, um den Beweis eines Fehlers in einem KI-Produkt erbringen zu können.[61] Wenn beim Zustandekommen eines Schadens, an dem auch KI beteiligt ist, verschiedene Faktoren eine Rolle spielen können, wird auch das Rätsel der Kausalität oft schwer zu lösen sein. Weil diese Kausalität ein grundsätzliches binäres Konzept ist (verankert in der conditio sine qua non Prüfung) und es bei zusammenkommenden Umständen, an denen KI beteiligt ist, oft kompliziert sein wird, Sicherheit darüber zu gewinnen, welcher Faktor den Schaden nun genau verursacht hat, wird die Feststellung der Kausalität und damit auch die Begründung der Produkthaftung schwierig bleiben.
Der Unionsgesetzgeber kommt den Klägern in zweierlei Hinsicht entgegen. Einerseits wird eine Regelung vorgeschlagen, um Zugang zu Beweismaterial zu erhalten,[62] und andererseits müssen die nationalen Gericht unter bestimmten Umständen, bei denen eine Beweiserbringung für die Opfer schwierig ist, mit Beweisvermutungen arbeiten.[63] Was den Zugang zu Beweismaterial betrifft, regelt Artikel 8 WRPA, dass die nationalen Gerichte einem Hersteller auftragen können, „das relevante Beweismaterial, über das er verfügt, zu veröffentlichen“[64] – zumindest gegenüber der klagenden Partei. Dafür ist es allerdings notwendig, dass der Kläger „Fakten und Beweismaterial eingereicht hat, die dazu ausreichen, einen Schadensersatz glaubhaft zu machen“. Es spielt dann keine Rolle, ob der Beklagte das Material bereits hat. Diese Verpflichtung bezieht sich auch auf „Dokumente […], die der Beklagte durch die Zusammenstellung oder Klassifizierung von verfügbarem Beweismaterial neu herstellen muss“.[65] Liefert der fragliche Hersteller das betreffende Material nicht, führt dies zu der Beweisvermutung, dass sein Produkt einen Fehler/Mangel hatte.[66] Die Verpflichtung, Beweismaterial vorzulegen, gilt nicht uneingeschränkt. So sollten beispielsweise eine Verhältnismäßigkeitsprüfung und eine Subsidiaritätsprüfung durchgeführt werden.[67] Dabei müssen auch die „gerechtfertigten Interessen aller Parteien, einschließlich derer von beteiligten Dritten, berücksichtigt werden, vor allem im Hinblick auf den Schutz vertraulicher Informationen und Geschäftsgeheimnisse“[68], im Sinne der Richtlinie der Europäischen Union über den Schutz von Geschäftsgeheimnissen.[69] Das bedeutet nicht, dass, wenn es sich um geschäftlich geheime Informationen handelt, diese nie in einem Verfahren verwendet werden können, sondern dass ein Gericht spezielle Maßnahmen ergreifen kann, um die „Geheimhaltung dieser Informationen zu gewährleisten“.[70]
Erläuterung 9: Angenommen, dass ein autonomer, selbstlernender Pathologie-Algorithmus bestimmtes Zellmaterial zu Unrecht nicht als Tumorgewebe qualifiziert hat, weshalb der Patient eine bestimmte Behandlung, die möglicherweise lebensrettend hätte sein können, nicht angeboten bekam – weil sich ein Fehler in den Beurteilungsmechanismus eingeschlichen hat. Für eine erfolgreiche Schadensersatzforderung wegen Produkthaftung muss unter anderem festgestellt werden, dass ein Fehler im Algorithmus vorlag, und es einen kausalen Zusammenhang zwischen Fehler und entstandenem Schaden gab. Dafür ist es notwendig, dass der Kläger Zugang zur Entscheidungsmethodik bezüglich der Bewertung des angebotenen Gewebes erhält. Diese ist in der Regel in Besitz des (Software-)Herstellers. Wenn dieser die fragliche Entscheidungsmethodik (also die Algorithmen), deren (selbstlernende) Entwicklung und die Anwendung in der konkreten Situation auf Antrag des Klägers dem Kläger nicht offenbart, kann das Gericht den Hersteller nach den vorgeschlagenen Vorschriften dazu verurteilen. Sollte der fragliche Hersteller meinen, dass dadurch geschäftsgeheime Informationen offenbart werden müsste, kann das Gericht beispielsweise anordnen, dass bestimmte Teile der Informationen unleserlich gemacht werden, oder dass sich die Verwendung der Informationen im Gerichtssaal auf einen kleinen Personenkreis beschränkt, und dass diese Informationen kein Bestandteil eines eventuell öffentlichen Urteils werden.
Mit dem Zugang zu den relevanten Beweisen ist der Kläger schon ein gutes Stück weitergekommen, aber damit sind noch nicht alle Hürden genommen, insbesondere wenn es um KI-Technologie geht. Die Informationen müssen nach wie vor analysiert und interpretiert werden, um u.a. den Mangel und die Kausalität zu belegen. Was den Nachweis eines Fehlers anbelangt, so stellt der Gesetzgeber dem Kläger zwei spezifische Möglichkeiten (zusätzlich zu den bereits erwähnten) und eine allgemeine zur Verfügung. So wird vermutet, dass ein Produkt fehlerhaft ist, wenn der Kläger nachweist, dass das betreffende Produkt bestimmte zwingende Sicherheitsvorschriften nicht erfüllt hat, „die vor dem Risiko des eingetretenen Schadens schützen sollen“.[71] Eine Fehlervermutung wird auch angenommen, wenn der Kläger nachweist, dass der Schaden „aufgrund einer offensichtlichen Funktionsstörung des Produkts bei normalem Gebrauch oder unter normalen Bedingungen“ entstanden ist.[72]
Erläuterung 10: Angenommen, der Roboter-Begleiter aus Anmerkung 5 rastet plötzlich und ohne ersichtlichen Grund aus und verpasst seinem Besitzer eine Ohrfeige, so wird dies vermutlich als „offensichtliche Funktionsstörung bei normalem Gebrauch“ gewertet. Ein Fehler/Mangel wird auch vermutet, wenn ein selbstfahrendes Auto unter Verletzung (künftiger) spezifischer gesetzlicher Sicherheitsvorschriften keinen ausreichenden Abstand einhält und nach abruptem Bremsen mit seinem Vorgänger kollidiert.
Die Kausalität zwischen Fehler/Mangel und Schaden wird gemäß Artikel 9 Absatz 3 WRPA als plausibel angesehen, wenn ein Mangel festgestellt wurde und „die Art des verursachten Schadens im Allgemeinen mit dem betreffenden Fehler/Mangel übereinstimmt“.
Erläuterung 11: Angenommen, bei dem Auffahrunfall aus dem vorigen Beispiel spielten auch andere Umstände eine Rolle, wie z.B. dichter Nebel und eine glatte Fahrbahn, so ist dennoch eine Kausalität anzunehmen, wenn nachgewiesen werden kann, dass der Schaden aus dem eingetretenen Auffahrunfall eine typische Folge der „fehlerhaften“ unzureichenden Abstandhaltung ist.
Zusätzlich zu diesen spezifischen Beweisvermutungen sieht der Unionsgesetzgeber eine weitere allgemeine Beweisvermutung vor, die als Auffangnetz dienen kann. Nach Artikel 9 Absatz 4 sind die nationalen Gerichte verpflichtet, dem Kläger entgegenzukommen. Sie müssen dies tun, wenn sie feststellen, dass es „aufgrund der technischen oder wissenschaftlichen Komplexität für den Kläger übermäßig schwierig ist, die Fehler des Produkts und/oder den Kausalzusammenhang nachzuweisen [...]“. In diesen Fällen muss das Gericht „den Fehler und/oder den Kausalzusammenhang annehmen“, wenn es ausreichende Beweise dafür gibt, dass „a) das Produkt zu dem Schaden beigetragen hat“ und „b) es wahrscheinlich ist, dass das Produkt fehlerhaft war und/oder dass seine Fehler eine wahrscheinliche Ursache für den Schaden sind“. Im Übrigen ist der Beklagte berechtigt, die behauptete übermäßige Härte, die besagte Wahrscheinlichkeit und die ansonsten aufgestellten Beweisvermutungen zu bestreiten bzw. zu widerlegen.[73]
Erläuterung 12: Angenommen, der Kläger erhält die erforderlichen Informationen über den Pathologie-Algorithmus aus Erläuterung 9, doch wäre es aufgrund seines Umfangs und seiner Komplexität ein sehr langwieriges, zeitaufwändiges und teures Unterfangen, ihm auf den Grund zu gehen. Wenn der Kläger nachweisen kann, dass der Algorithmus zu der Entscheidung, nicht zu behandeln, beigetragen und einen Schaden verursacht hat, der vermeidbar gewesen wäre (wir lassen hier bewusst die Rolle und Verantwortung des betreffenden Arztes beiseite), und dass sich wahrscheinlich ein „Fehler“ in den Beurteilungsalgorithmus eingeschlichen hat, müsste das Gericht eine Vermutung sowohl für die Fehlerhaftigkeit als auch für die Kausalität annehmen.
3. Alle Probleme gelöst?
Unserer Ansicht nach bedeuten die vorgeschlagenen Vorschriften eine wesentliche Verbesserung für Opfer von KI-bedingten Unfällen im Vergleich zur derzeitigen Regelung. Die Ausweitung des Produktbegriffs, durch die (KI-)Software ausdrücklich in den Anwendungsbereich einbezogen wird, und das System neuer Verpflichtungen in Bezug auf die dauerhafte Einhaltung der geltenden Normen durch die betreffenden Produkte werden möglicherweise dazu beitragen, dass die Verbraucher darauf vertrauen, dass KI-Systeme sicher sind und bleiben.[74] Darüber hinaus bedeuten die vorgeschlagenen Verpflichtungen in Bezug auf die Verfügbarkeit von Beweismitteln für die Kläger und natürlich die Beweisvermutung der Fehlerhaftigkeit und des Kausalzusammenhangs, dass es einfacher als bisher sein wird, einen Produkthaftungsanspruch erfolgreich geltend zu machen. In Verbindung mit der Einschränkung der Verteidigungsmöglichkeiten von Herstellern, die die Möglichkeit hatten, ihre Produkte nach dem Inverkehrbringen sicher zu machen (und dies dennoch versäumt haben), löst die neue Regelung einige der Probleme, die ich bereits in dieser Zeitschrift und in meiner Dissertation angesprochen habe.[75] Das Risiko, dass die Verbraucher auf ihren Verlusten sitzen bleiben, wird wahrscheinlich deutlich sinken.[76]
Gleichzeitig stellt die vorgeschlagene Regelung zwar in gewisser Hinsicht einen Fortschritt für die Innovatoren dar (die Rechtssicherheit[77] wird durch eine eindeutige und zukunftssichere flexible[78] Festlegung, dass KI(-Software) von der Richtlinie abgedeckt ist und welche Faktoren bei der Beurteilung der Fehlerhaftigkeit berücksichtigt werden können, sowie durch die Klärung und Ausweitung der den Opfern zur Verfügung stehenden verfahrensrechtlichen Instrumente erhöht), doch gibt es auch offensichtliche Nachteile. In der Praxis werden die neuen Vorschriften daher wahrscheinlich die Produkthaftung für Innovatoren beschleunigen. Dies bedeutet, dass die finanzielle Belastung in diesem Bereich zunehmen wird.[79] Der Einwand der Hersteller, dass der vorgeschlagene Rahmen daher zu „abschreckenden Effekten“[80] für Innovationen führen wird, ist leicht zu erraten. Es ist natürlich nicht undenkbar, dass wachsende finanzielle Risiken aufgrund strengerer (und klarerer) Vorschriften einige Hersteller davon abhalten werden, in KI-Innovationen zu investieren. Andererseits ist es wichtig, den letztendlichen Schaden gerecht zwischen Innovatoren und Verbrauchern zu verteilen, und wir sind der Ansicht, dass das WRPA die Risiken bei den Parteien (den Innovatoren) ansiedelt, die sie im Prinzip viel besser bewältigen können als die Opfer. Dabei trifft es auch zu, dass das Nicht-Ändern der geltenden Produkthaftungsregelung, so dass die Opfer ihren Schaden kaum oder gar nicht geltend machen können, zu einem Rückgang des Vertrauens in die KI-Technologie führen könnte. Umgekehrt könnte die Regelung einer leichteren Schadensregulierung möglicherweise zu einem größeren Vertrauen der Verbraucher in die KI-Technologie und zu deren Akzeptanz führen.
Was die neue Regelung noch besser machen würde, wäre eine angemessene Regelung für die Verarbeitung personenbezogener Daten. Vor allem jetzt, da sich der Gesetzgeber für ein System entscheidet, bei dem die Hersteller Beweise aufbewahren, gegebenenfalls erstellen und an die Kläger übermitteln sollen, muss berücksichtigt werden, dass dies die Verarbeitung personenbezogener Daten in großem Umfang zur Folge haben wird.[81] Während in der KI-Verordnung an einigen Stellen ausdrücklich auf das Verhältnis zur Datenschutz-Grundverordnung[82] eingegangen wird, fehlt dies im WRPA völlig. Wir würden vom Gesetzgeber erwarten, dass er zumindest klarstellt, dass die Pflichten eine Verarbeitung personenbezogener Daten voraussetzen, dass dafür eine Grundlage geschaffen wird und dass, soweit es sich um besondere personenbezogene Daten handelt, eine Ausnahme vom grundsätzlichen Verbot der Verarbeitung solcher Daten gemacht wird.
Fußnoten:
[1] Siehe A.P. Wiliams, A.P., „Defining Autonomy in Systems: Challenges and Solutions“, in A.P. Williams & P.D. Scharre, Autonomous Systems – issues for Defence Policymakers, Den Haag: NATO Communications and Information Agency, via https://bit.ly/3iq01wI.[2] Siehe u.a. M. de Cock Buning, L.P.C. Belder en R.W. de Bruin, „Mapping the Legal Framework for the Introduction into Society of Robots as Autonomous Intelligent Systems“, in: S. Muller, S. Zouridis, M, Frishman, en L. Kistemaker, L. (red.), The Law of the Future and the Future of Law: Volume II, Den Haag: Torkel Opsahl Academic EPublisher 2012, S. 195-210.; V. Breemen en A. Wouters, „Hoofdstuk 5, Casestudy Zelfrijdende auto’s“, in: S. Kulk, & S. van Deursen, Juridische aspecten van algoritmen die besluiten nemen. Een verkennend onderzoek, Den Haag: WODC 2020, S. 71-104.; und R.W. de Bruin, Regulating Innovation of Autonomous Vehicles: Improving Liability & Privacy in Europe (Diss. Universiteit Utrecht), Amsterdam: deLex 2022, S. 26-28.[3] S. Chopra & L.F. White, A Legal Theory for Autonomous Artificial Agents, Ann Arbor: The University of Michigan Press 2014.[4] Siehe beispielsweise R. Devillé, N. Sergeyssels & C. Middag, „Chapter 1 – Basic Concepts of AI for Legal Scholars“, in J. De Bruyne & Cedric Vanleenhove (eds.), Artificial Intelligence and the law, S. 1-22.[5] Siehe De Bruin 2022, S. 28 und der Verweis in Fußnote 74 auf unter anderem C.R. Davies, „An Evolutionary Step in Intellectual Property Rights – Artificial Intelligence and Intellectual Property“ Computer Law & Cybersecurity Review 2011, Ausgabe 27, S. 603.[6] Siehe beispielsweise: https://www.deingenieur.nl/artikel/robot-voert-zelf-kijkoperatie-uit. [7] Siehe beispielsweise: https://www.radboudumc.nl/nieuws/2020/naar-een-aidiagnose-zoals-die-van-de-dokter. [8] Selbst testen auf: https://openai.com/blog/chatgpt. [9] Ein möglicherweise noch größeres Problem stellen die verschuldensabhängigen Haftungsregeln dar. Beispiele nannte der Autor in einer vorherigen Ausgabe dieser Zeitschrift: R.W. de Bruin, „Verkeersrecht en Autonome Voertuigen: „zoek de fout“ wordt problematisch“, VR 2022/2.[10] Siehe Artikel 6:185 Absatz 1.b und 1.e BW (niederländisches Bürgerliches Gesetzbuch).[11] Europäische Kommission, COM(2022) 495 - Proposal for a directive of the European Parliament and of the Council on liability for defective products (https://single-market-economy.ec.europa.eu/document/3193da9a-cecb-44ad-9a9c-7b6b23220bcd_en).[12] Europäische Kommission, COM(2022) 496, final – Vorschlag einer Richtlinie zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an künstliche Intelligenz (KI), (https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496 ).[13] Vorgeschlagene Verordnung des Europäischen Parlaments und des Rates COM (2021) 206 final, zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (https://eur-lex.europa.eu/legal-content/NL/ALL/?uri=CELEX:52021PC0206).[14] R.W. de Bruin, Regulating Innovation of Autonomous Vehicles: Improving Liability & Privacy in Europe (Diss. Universiteit Utrecht), Amsterdam: deLex 2022, p. 131-134.[15] Erläuterung zur VRPA, S. 1, 6.[16] Ibidem, S. 1-2. Siehe ebenfalls Erwägungsgründe 12, 13, 15, 22-23 (Produktbegriff) en 26-28, 40 (One-Stop-Shop für Opfer).[17] Ibidem, S. 6.[18] Siehe unter anderem Erwägungsgrund 23, 37-38 und auch 41, 43-44.[19] Ibidem, S. 6, und Erwägungsgründe 30-33.[20] Erwägungsgründe 33-34.[21] Erwägungsgrund 35.[22] Artikel 4 Absatz 1 VRPA.[23] Siehe De Bruin 2022, S. 79 für einen Überblick über diesen Diskurs. [24] Siehe Erwägungsgrund 12.[25] Übrigens merkt der Gesetzgeber an, dass der Quellcode von Software nicht in den Geltungsbereich fällt, „da dies nur der Information dient“. [25] Man kann mit dieser Feststellung nicht einverstanden sein (denn ohne Quellcode keine funktionierende Software; und kompilierter Quellcode ist auch Information, auch wenn er direkt verwendet wird, um einen Prozessor in Betrieb zu nehmen, und sich somit vom Quellcode dadurch unterscheidet, dass er noch kompiliert („übersetzt“) werden muss, um von einem System ausgeführt werden zu können), aber hier zieht der Gesetzgeber die Grenze. Diese Grenze scheint mit der herrschenden Meinung aus der europäischen Rechtsprechung übereinzustimmen, da der EuGH vor zwei Jahren in dem Krone Verlag Urteil feststellte, dass ungenaue medizinische Informationen in einer Zeitung nicht unter den Begriff „Produkt“ im Sinne der (alten) Richtlinie fallen können. Siehe EuGH 10. Juni 2021, C-65/20, ECLI:EU:C:2021:471, Erwägungsgrund 42.[26] Erwägungsgrund 13.[27] Artikel 1 Absatz 3 VRPA.[28] Das heißt, dass ein Fertigungsunternehmen Zustimmung zur Integration, Verknüpfung oder Lieferung einer Komponente durch einen Dritten gegeben hat, worunter auch Software-Updates oder -Upgrades oder die Änderung eines Produktes zu verstehen sind (Absatz 5).[29] Artikel 1 Absatz 4 VRPA.[30] Siehe ferner Buchstabe d; Artikel 7 Absatz 1 und auch Erwägungsgrund 26 VRPA.[31] Dies ist natürlich unabhängig von der Frage, ob diese Art von Funktionalität überhaupt eingesetzt werden darf, was u.a. in der KI-Verordnung geregelt wird und auch der Datenschutz-Grundverordnung unterliegt.[32] Der Verweis auf die „breite Öffentlichkeit“ kodifiziert die in der Rechtsprechung aufgestellten Regeln: siehe beispielsweise EuGH 5. März 2015, zusammengefügte Verfahren C-503/14 und C-504/14 (Boston Scientific Medizintechnik GMBH), Erwägungsgrund 37.[33] „bei denen vernünftigerweise davon ausgegangen werden kann, dass sie in Verbindung mit dem Produkt verwendet werden” (Buchstabe d)[34] Siehe beispielsweise auch die Verpflichtung aufgrund von Richtlinie 2019/770 in Bezug auf bestimmte vertragliche Aspekte für die Lieferung digitaler Inhalte und digitaler Dienstleistungen. Artikel 8 dieser Richtlinie bestimmt unter anderem, dass „Sicherheit“ von Software eine Rolle bei der Beurteilung von Konformität (Absatz 1.b) spielt, und Absatz 2 bestimmt, dass ein Unternehmer sicherstellt, dass der Verbraucher über Aktualisierungen, einschließlich Sicherheitsaktualisierungen, die für den Erhalt der Vertragsmäßigkeit der digitalen Inhalte und digitalen Dienstleistungen erforderlich sind, informiert wird und dass diese ihm bereitgestellt werden […]“, während eines bestimmten Zeitraums. Siehe beispielsweise auch Verordnung 2017/745 über Medizinprodukte, in der Herstellern von Medizinprodukten für den gesamten Lebenszyklus vergleichbare Verpflichtungen auferlegt werden, Erwägungsgrund 38 VRPA, und natürlich die vorgeschlagene KI-Verordnung. [35] Artikel 6 Absatz 1 VRPA verwendet die „breite Öffentlichkeit“ als Maßstab, aber Absatz 1.h verweist dahingegen auch auf die „speziellen Erwartungen der Endverbraucher, für die das Produkt bestimmt ist als Umstand, der zu berücksichtigen ist.[36] Siehe beispielsweise M. Schellekens, „Self-driving cars and the chilling effect of liability law“, Computer Law & Security Review 2015, Ausgabe 31, S. 517.[37] Siehe De Bruin 2022, S. 83 für mehr diesbezügliche Argumente.[38] Artikel 7 Absatz 1 VRPA.[39] Absatz 2.[40] Artikel 4 Absatz 12 VRPA.[41] Artikel 7 Absatz 3 VRPA.[42] Artikel 4 Absatz 14 VRPA.[43] Artikel 7 Absatz 5 VRPA.[44] Im Sinne der vorgeschlagenen EU-Verordnung über digitale Dienstleistungen (COM/2020/825 final).[45] Artikel 7 Absatz 6 VRPA.[46] Artikel 7 Absatz 4. Dabei muss es sich um Änderungen handeln, die „aufgrund der anwendbaren [gesetzlichen] Vorschriften […] als einschneidend betrachtet werden müssen“.[47] Artikel 12 Absatz 2 VRPA.[48] Absatz 1.[49] Sofern die Schäden in angemessenem Zusammenhang mit der Ursache im Sinne von 6:98 BW stehen.[50] Siehe auch Erwägungsgrund 41 VRPA.[51] Sub a.[52] Sub b.[53] Siehe Erwägungsgrund 24.[54] Beanstandet werden u.a. von Fertigungsunternehmen, Importeuren, Händlern oder Modifikatoren, die die betreffenden Produkte (bzw. Teile davon) nicht auf den Markt bzw. in den Handel gebracht, zur Nutzung bereitgestellt oder auf dem Markt angeboten oder verändert haben (Artikel 10 Absatz 1.a, 1.b und 1.g); oder falls der Fehler die Folge von zwingenden staatlichen Vorschriften ist (1.d); oder die expliziten Anweisungen des Fertigungsunternehmens, gerichtet an den Komponentenhersteller oder den Entwurf des Produkts, in das die Komponente integriert wurde (1.f).[55] Artikel 10 Absatz 1.c VRPA.[56] Artikel 10 Absatz 1.e VRPA.[57] In der heutigen Regelung müssen Hersteller in der Regel nur „glaubhaft machen“, dass eine Ausnahme anwendbar ist, so dass auch hier scheint, dass die Daumenschrauben fester angezogen werden. [58] Artikel 9 Absatz 1 VRPA.[59] Erwägungsgrund 30 VRPA.[60] Siehe De Bruin 2022, Kapitel 6.2.2.2 und 6.2.2.3, und in dieser Zeitschrift De Bruin 2023, S. 11-12.[61] Dies wird vom Gesetzgeber anerkannt, siehe beispielsweise Erwägungsgrund 30 VRPA.[62] Ausführlichere Überlegungen hierzu finden sich auch in K.A.P.C. van Wees & N.E. Vellinga, „Voorstel nieuwe richtlijn productaansprakelijkheid. Naar een toekomstbestendig aansprakelijkheidsrecht“, in dieser Zeitschrift, Nr. 79.[63] Siehe erneut Van Wees & Vellinga in dieser Zeitschrift, Nr. 79 – die übrigens im Hinblick auf diese Vermutungen der Opfer kritischer sind als der Autor. [64] Artikel 8 Absatz 1 VRPA.[65] Erwägungsgrund 31 VRPA.[66] Artikel 9 Absatz 2.a VRPA.[67] Artikel 8 Absatz 2 VRPA.[68] Absatz 3.[69] Richtlinie 2016/943, in den Niederlanden als Gesetz „Wet bescherming bedrijfsgeheimen“ implementiert.[70] Absatz 4, und siehe Erwägungsgrund 32, in dem einige mögliche Maßnahmen dargelegt werden.[71] Artikel 9 Absatz 2.b WRPA.[72] Sub c.[73] Absatz 4, letzter Satz; Absatz 5.[74] Dies bezieht sich auf den Faktor trust (i.e. vertrouwen), der mit dem Faktor risk gemeinsam die Verbraucherperspektive des in meiner Dissertation entwickelten Bewertungsrahmens bilden: De Bruin 2022, Kapitel 3.4.3. Ich denke, dass das Vertrauen mit den vorgeschlagenen Vorschriften im Vergleich zu den derzeitigen Vorschriften steigen wird.[75] Siehe De Bruin 2022, Kapitel 7.2; De Bruin 2023, p. 11-14.[76] Siehe für den Faktor risk (also Risiko) Kapitel 3.4.3.2 der oben erwähnten Dissertation.[77] Ibidem, Kapitel 3.4.2 in Bezug auf Innovatorenperspektive, und vor allem legal certainty (Rechtssicherheit), Abschnitt 3.4.2.2.[78] Ibidem, Abschnitt 3.4.2.4 in Bezug auf flexibility.[79] Dies beeinflusst den Faktor stringency (Abschnitt 3.4.2.3), der zunehmen wird.[80] Siehe beispielsweise M. Schellekens., „Self-driving cars and the chilling effect of liability law“, Computer Law & Security Review 2015, Ausgabe 31, S. 506-517.[81] Siehe De Bruin 2022, Kapitel 5.[82] Siehe beispielsweise Artikel 10 Absatz 5 KI-Verordnung.