Aktuell in der CR:
Die zivilrechtliche Haftung für KI nach dem Entwurf der geplanten KI-VO (Grützmacher, CR 2021, 433)
Mit der KI-VO ist ein Stück spezifisches Sicherheitsrecht geplant. Sie soll zudem dem Schutz von Grund- bzw. Menschrechten dienen. Aus dieser Warte wird die KI-VO mit Sicherheit kritisch betrachtet werden (zu einer ersten allgemeinen Analyse Spindler, CR 2021, 361 ff.). Nicht aus dem Blick sollte gelassen werden, dass eine KI-VO auch erhebliche Auswirkungen auf die Frage der zivilrechtlichen oder gar strafrechtlichen Haftung haben wird. Nun ist es noch eine Weile hin, bis die KI-VO ihren Weg durch die europäischen Mühlen der Gesetzgebung genommen haben wird. Aber es ist bei den dortigen Mechanismen nie zu früh, auch die zivilrechtliche Dimension des Verordnungsentwurfs mitzudenken.
Potentielle zivilrechtliche Auswirkungen des geplanten KI-Sicherheitsrechts: ein neues Schutzgesetz i.S.v. § 823 Abs. 2 BGB am Horizont
INHALTSVERZEICHNIS:
I. Einleitung
1. Technischer Hintergrund
2. Grundproblematik des Umgangs mit KI im Recht
a) Zurechnung bzw. Verantwortlichkeit für KI-basierte Systeme trotz Entfernung vom menschlichen Handeln?
b) Wechsel der Verantwortlichen?
3. Die deliktische Haftung de lege lata
a) Die Haftung des Herstellers bzw. Anbieters
aa) Das Problem der Vorhersehbarkeit
bb) Das Trainingsproblem
cc) Das Beweisproblem
b) Haftung des Nutzers
aa) Gefährdungshaftung
bb) Haftung für vermutetes Verschulden des Nutzers/Betreibers nach § 823 Abs. 1 BGB
c) Unklare Sorgfaltsmaßstäbe
d) Zwischenfazit zur Haftung de lege lata
4. Lösungen für die Haftungsfragen de lege ferenda?
II. Die zivilrechtliche Haftung auf Basis des Kommissionsvorschlags für eine KI-VO (de lege ferenda)
1. Schutzgesetz i.S.v. § 823 Abs. 2 BGB
a) Verletzungen von Schutzgesetzen
aa) Hochrisiko-KI-Systeme
bb) Pflichten mit Blick auf Hochrisiko-KI-Systeme gem. Art. 6 ff. KI-VO-E
(i) Pflichten des Anbieters (insb. Herstellers)
(1) Das Risikomanagementsystem gem. Art. 9, 16 lit. a KI-VO-E (einschl. Post-Market Monitoring nach Art. 61 KI-VO-E)
(2) Vorgaben zur Data Governance gem. Art. 10, 16 lit. a KI-VO-E
(3) Pflicht zur Ermöglichung und Aufbewahrung von Event-Logs gem. Art. 12 und Art. 16 lit. a und d KI-VO-E
(4) Das Qualitätsmanagementsystem gem. Art. 17 und Art. 16 lit. b KI-VO-E
(5) Pflicht zu unmittelbaren Korrekturmaßnahmen oder zum Rückruf gem. Art. 21 KI-VO-E
(ii) Pflichten des Nutzers
(1) Pflicht zur Befolgung der Instruktionen (Art. 29 Abs. 1 KI-VO-E)
(2) Pflicht zur Sicherstellung der Relevanz von Eingabedaten für die bestimmungsgemäßen Verwendungszwecke (Art. 29 Abs. 3 KI-VO-E)
(3) Überwachungspflichten für Hochrisiko-KI-Systeme sowie Informationspflichten und Pflicht zur Einstellung der Nutzung bei besonderen Gefahren (Art. 29 Abs. 4 KI-VO-E)
(4) Pflicht zum Logging und Event-Recording sowie zur Archivierung entsprechender Logging-Daten (Art. 29 Abs. 5 KI-VO-E)
b) Limitierung der Anbieter- und Erweiterung der Nutzer-Haftung durch den Grundsatz der bestimmungsgemäßen Verwendung sowie die Berücksichtigung vorhersehbaren Fehlgebrauchs
c) Verschulden, Kausalität sowie Schaden
2. Geltendmachung über das UWG
3. Auswirkung auf die nationale Rechtsordnung und Möglichkeiten der Beweisführung
a) Sorgfaltsmaßstäbe und Verkehrspflichten
b) Auswirkung auf die Beweislage und Beweisregeln
aa) Sekundäre Darlegungslast des vermeintlichen „Verletzers“
bb) Besichtigungsansprüche
cc) Vorlage von Urkunden nach § 142 ZPO
III. Fazit
|
I. Einleitung |
1 |
Viele klassische Produkte sind mit dem Inverkehrbringen auf eine anhaltende, konstante Qualität angelegt. Das gilt auch für Standardsoftware. In einigen Branchen – so im Automotive-Bereich und bei Medizinprodukten – fordert die Regulatorik sogar, dass sich die Produkte vom Nutzer nicht verändern lassen. Allenfalls werden – wiederum vom Hersteller – Updates nachgeschoben. |
2 |
KI-basierte Systeme hingegen zeichnen sich im Idealfall dadurch aus, dass sie nach dem Inverkehrbringen weiter lernen. Dieses stellt die klassische Herstellerhaftung in Frage,1 bedeutet aber nicht zwingend, dass das de lege lata bestehende Haftungssystem per se versagen müsste. |
3 |
Gleichwohl zeigt nachfolgende Analyse des bestehenden Haftungssystems Schwachpunkte, bei denen sich die Frage stellt, ob sie vom Kommissionsvorschlag für eine KI-VO2 abgestellt oder zumindest abgeschwächt werden können. |
|
1. Technischer Hintergrund |
4 |
Für die rechtliche Untersuchung ist entscheidend, ob das Handeln einer KI prognostiziert bzw. zumindest auf die Handlungen des Herstellers zurückgeführt werden kann, ob KI-Systeme gut getestet werden können oder aber ob sie später erst noch trainiert werden bzw. mehr oder minder eigenständig dazulernen. Zu unterscheiden sind insofern Systeme mit sog. schwacher KI und solche mit starker KI. |
5 |
Heute im Einsatz befindliche Systeme basieren wohl durchgehend auf schwacher KI. Schwache KI zeichnet sich dadurch aus, dass sie der Lösung konkreter Anwendungsprobleme bzw. klar definierter Aufgaben dient.3 Sie unterstützt dabei menschliches Handeln bzw. Entscheidungen. Vor allem nutzt schwache KI regelmäßig Mittel der Mathematik und der Informatik, um intelligentes Verhalten zu simulieren.4 Schwache KI kann demgegenüber die Methodik der Problemlösung nicht ändern, auch wenn sie, was bedeutsam ist, bezogen auf die Einzelaufgabe heute zusehends selbstoptimierend agiert. Eingesetzt wird sie für die Mustererkennung oder -vorhersage (oft in Form neuronaler Netze), im Bereich der Robotik und für Bots. Klassische Formen der schwachen KI sind überdies wissensbasierte Systeme (etwa Expertensysteme zur Beantwortung von Fragen und zur Erstellung von Diagnosen durch Schlussfolgerungen). Teils werden auch regelbasierte Systeme noch als Teil der (schwachen) KI verstanden. |
6 |
Demgegenüber zeichnet sich starke KI, mit deren Durchbruch, wenn überhaupt, in etwa 20 Jahren5 bzw. ggf. von einem Tag auf den anderen gerechnet wird, dadurch aus, dass sie auf Augenhöhe mit Menschen ist, diese bei schwierigen Aufgaben unterstützen kann, sich also durch logisches Denkvermögen auszeichnet; starker KI inhärent ist ihre Lernfähigkeit und die Fähigkeit, mit Unsicherheit und probabilistischen Informationen umzugehen.6 Starke, übergeordnete Ziele verfolgende KI reagiert nicht nur, sondern handelt theoretisch aus eigenem Antrieb, und zwar intelligent und flexibel. Zu dieser Form der starken KI zählen insb. die Techniken des Deep Learning oder sog. Seed AI. Derzeit sind derartige Systeme allenfalls ansatzweise ersichtlich. |
|
2. Grundproblematik des Umgangs mit KI im Recht |
|
a) Zurechnung bzw. Verantwortlichkeit für KI-basierte Systeme trotz Entfernung vom menschlichen Handeln? |
7 |
Die rechtliche Grundproblematik liegt jedenfalls bei starker KI 7 darin, dass diese das menschliche Handeln substituiert, auf welches die Rechtsordnung ausgerichtet ist: ... Hier direkt weiterlesen im juris PartnerModul IT-Recht |