Inhalt
Dr. Boris Uphoff

ist Partner bei McDermott Will & Emery Rechtsanwälte Steuerberater LLP in München.

Viola Walther

ist Rechtsanwältin bei McDermott Will & Emery Rechtsanwälte Steuerberater LLP in München.

Aktuelle Haftungsregelungen

In Deutschland gilt für Haftungsfragen im Straßenverkehr die verschuldensunabhängige Halterhaftung (§ 7 Abs. 1 Straßenverkehrsgesetz (StVG)) und die verschuldensabhängige Fahrzeugführerhaftung (§ 18 Abs. 1 StVG). Der deutsche Gesetzgeber hat bereits 2017 das StVG nachjustiert und an die Zukunft des (autonomen) Fahrens mit KI-Systemen angepasst. Er hat klargestellt, dass Fahrzeugführer i.S.d. StVG auch derjenige ist, der eine autonome (KI-gesteuerte) Fahrfunktion aktiviert und verwendet. Der Fahrzeugführer haftet demzufolge unabhängig von dem Automatisierungsgrad, wenn ihn ein Verschulden trifft. Der Halter haftet verschuldensunabhängig, wenn bei dem Betrieb des Fahrzeugs ein Mensch getötet oder verletzt oder eine Sache beschädigt wird. Bei einem Produktfehler des genutzten KI-Systems haften Halter und Hersteller dem Geschädigten gesamtschuldnerisch.

Der Hersteller von in autonomen Fahrzeugen verbauten KI-Systemen haftet bei Fehlern seiner technischen Systeme nach dem Bürgerlichen Gesetzbuch (BGB) und dem Produkthaftungsgesetz (ProdHaftG). Zum einen haftet er im Rahmen der allgemeinen Deliktshaftung auf Schadensersatz nach § 823 Abs. 1 BGB. Im Rahmen ihrer Verkehrssicherungspflichten müssen der Fahrzeughersteller und sein Zulieferer bei Implementierung eines KI-Systems insbesondere ihren Produktbeobachtungspflichten nachkommen, da in diesem Bereich ein erhöhtes Schadenspotenzial besteht. Zum anderen kann den Hersteller die spezialgesetzliche Haftung nach dem ProdHaftG treffen. Dieses findet allerdings nur dann Anwendung, wenn ein „Produkt“ i.S.v. § 2 ProdHaftG vorliegt. Unklar ist nach aktueller Gesetzeslage, ob und wann eine Software, wie z.B. ein KI-System, unter den Begriff des „Produkts“ fällt, sodass Haftungsfragen für Hersteller von KI-Systemen weitestgehend ungeklärt sind.

Neue Gesetzesvorschläge und damit verfolgte Ziele

Ziel des Vorschlags für eine Richtlinie des Europäischen Parlaments und des Rates über die Haftung für fehlerhafte Produkte vom 28. September 2022 (Produkthaftungsrichtlinien-Entwurf) ist es, die aktuell geltenden EU-Vorschriften über Produkthaftung – die fast 40 Jahre alt sind – an den ökologischen und digitalen Wandel und insbesondere an neue Technologien wie KI anzupassen. Vor allem dem andauernden Streit, ob Software unter den Produktbegriff des § 2 ProdHaftG fällt, soll mit dem Produkthaftungsrichtlinien-Entwurf ein Ende gesetzt werden. Gem. Art. 4 Abs. 1 des Entwurfs soll Software ausdrücklich unter „Produkt“ fallen.

Im Zentrum der geplanten Neuerungen steht der Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Anpassung der Vorschriften über außervertragliche zivilrechtliche Haftung an KI vom 28. September 2022 (Richtlinie über KI-Haftung). Ziel dieser Richtlinie ist die Schaffung eines einheitlichen Schutzniveaus für durch KI-Systeme verursachte Schäden in der Europäischen Union, insbesondere durch einen erleichterten Zugang zu Beweismitteln, die Vermutung eines Sorgfaltspflichtverstoßes und die Vermutung der Kausalität zwischen Verschulden und KI-Ergebnis.

Die beiden geplanten Richtlinien ergänzen sich gegenseitig. Zwar führen sie ähnliche Instrumente ein – etwa die Offenlegung von Beweismitteln oder eine Vereinfachung der Beweislast –, unterscheiden sich jedoch in wesentlichen Punkten. So sollen bspw. Schadensersatzansprüche nach der Richtlinie über KI-Haftung sowohl von natürlichen als auch von juristischen Personen geltend gemacht werden können. Die Ansprüche des Produkthaftungsrichtlinien-Entwurfs stehen hingegen nur Privatpersonen zu.

Der Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für KI und zur Änderung bestimmter Rechtsakte der Union (Gesetz über künstliche Intelligenz) – zuletzt geändert am 14. Juni 2023 –, beinhaltet vorrangig sicherheitsorientierte Vorschriften, die Risiken verringern und Schäden im Vorfeld vermeiden sollen. Kann ein Schaden nicht verhütet werden, greift das Haftungsregime gem. der Richtlinie über KI-Haftung.

Die Richtlinie über KI-Haftung

Die Richtlinie über KI-Haftung soll – nach derzeitigem Stand – ausdrücklich keine verschuldensunabhängige Haftung für den Betrieb von künstlicher Intelligenz und keine sonstige Gefährdungshaftung schaffen. Ihr Anwendungsbereich soll sich nur auf „außervertragliche verschuldensabhängige zivilrechtliche Schadensersatzansprüche“ erstrecken, d.h., sie soll nur im Bereich des Deliktsrechts und nicht für vertragliche Ansprüche gelten.

Ein Konfliktpotenzial besteht deshalb, weil Kläger voraussichtlich auf der Grundlage von Art. 3 der Richtlinie über KI-Haftung, der die Offenlegung von Beweismitteln vorsieht, versuchen werden, gewonnene Erkenntnisse nicht nur für deliktische Ansprüche, sondern auch für die Durchsetzung von vertraglichen Schadensersatzansprüchen zu verwenden. Die Vorteile der vertraglichen Haftung nach deutschem Recht – wie Ersatzfähigkeit von Vermögensschäden, die Vermutung des Verschuldens (§ 280 Abs. 1 Satz 2 BGB) und das Fehlen einer Exkulpationsmöglichkeit – könnten so nutzbar gemacht werden.[1]

Erleichterter Zugang zu Beweismitteln

Vorgesehen ist in der Richtlinie ein erleichterter Zugang zu Beweismitteln. So sollen die Mitgliedstaaten verpflichtet werden sicherzustellen, dass nationale Gerichte befugt sind, auf Antrag eines (potenziellen) Klägers die Offenlegung von Beweismitteln zu einem Hochrisiko-KI-System anzuordnen, wenn dieser die Plausibilität eines Schadensersatzanspruchs ausreichend belegen kann. Der Begriff „Hochrisiko-KI-System“ richtet sich dabei nach Art. 6 des Gesetzes über künstliche Intelligenz. Bei KI-Systemen, die in Fahrzeugen verwendet werden, handelt es sich um ein solches „Hochrisiko-KI-System“.

Die Möglichkeit zur Auskunft soll gem. dem aktuellen Entwurf auch Geschädigten zustehen, die noch keine Klage erhoben haben. Der Auskunftsanspruch beschränkt sich auf das, was erforderlich und verhältnismäßig ist, um einen Schadensersatzanspruch eines (potenziellen) Klägers zu stützen.

Vermutung Sorgfaltspflichtverstoß

Kommt ein Beklagter im Rahmen eines Schadensersatzanspruchs der Anordnung eines nationalen Gerichts Beweismittel vorzulegen nicht nach, wird nach der Richtlinie über KI-Haftung vermutet, dass der Beklagte gegen seine einschlägige Sorgfaltspflicht verstößt (Art. 3 Abs. 5 der Richtlinie über KI-Haftung). Der Beklagte hat die Möglichkeit, diese Vermutung zu widerlegen.

Vermutung der Kausalität zwischen Verschulden und KI-Ergebnis

Weiteres Kernelement der Richtlinie über KI-Haftung ist die Kausalitätsvermutung zwischen dem Verschulden des Beklagten und dem von der KI hervorgebrachten Ergebnis (Art. 4 Abs. 1 der Richtlinie über KI-Haftung). Denn der Nachweis eines Kausalitätszusammenhangs zwischen Missachtung der Vorschriften und dem KI-Ergebnis kann sich in der Praxis als äußerst schwierig darstellen.

Die Richtlinie knüpft hier an ein KI-Ergebnis an, worunter wohl der unmittelbare und nicht weiter verarbeitete Output eines KI-Systems zu verstehen sein dürfte. Werden mehrere KI-Systeme in einem Auto verwendet, so wird dafürgehalten, dass das KI-Ergebnis nur das jeweilige spezifische Ergebnis eines einzelnen KI-Systems ist, bspw. die Auswertung eines Kamerabilds oder die Erkennung eines Menschen.[2]

Die Vermutungsregelung hat letztlich drei Voraussetzungen:

  • Es ist ein Verschulden notwendig. Dieses kann sich entweder aus der Verletzung einer einschlägigen Sorgfaltspflicht ergeben oder es wird vermutet, wenn der Beklagte der Anordnung zur Offenlegung von Beweismitteln nicht nachgekommen ist.
  • Es muss die Möglichkeit der Ursächlichkeit des Verschuldens für das KI-Ergebnis bestehen. I.S.d. Kausalitätsvermutung heißt das, dass nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden des Beklagten das von dem KI-System hervorgebrachte Ergebnis beeinflusst hat. Damit die Vermutung des ursächlichen Zusammenhangs zwischen Sorgfaltspflichtverletzung des Beklagten und KI-Ergebnis überhaupt greift, muss der Anspruchsteller also die Möglichkeit dieses ursächlichen Zusammenhangs nachweisen. Nach deutscher Dogmatik handelt es sich bei Art. 4 Abs. 1 der Richtlinie über KI-Haftung daher eher um eine „Beweismaßabsenkung“ statt einer „gesetzlichen Vermutungsregelung“.[3]
  • Es muss der Nachweis der Kausalität zwischen KI-Ergebnis und Schaden geführt werden. Der Kläger muss demnach nachweisen, dass das von der KI generierte Ergebnis den Schaden verursacht hat. Der zusätzliche Zwischenschritt zwischen Kausalität KI-Ergebnis und Schaden ist eine Voraussetzung, die das deutsche Deliktsrecht so nicht verlangt. Denn gem. § 823 Abs. 1 BGB ist die haftungsbegründende Kausalität zwischen Sorgfaltspflichtverstoß und Rechtsgutsverletzung sowie die haftungsausfüllende Kausalität zwischen Rechtsgutsverletzung und Schaden darzulegen.[4]

Fazit

Sowohl die beiden Richtlinienentwürfe als auch das Gesetz über künstliche Intelligenz durchlaufen aktuell noch das europäische Gesetzgebungsverfahren. Bis zur Verabschiedung und dem Inkrafttreten vergehen erfahrungsgemäß mehrere Jahre. Anschließend gibt es für Richtlinien im Regelfall eine mehrjährige Frist für die Umsetzung in nationales Recht. Mit der Umsetzung der beiden – für die Haftung für KI-basierte Systeme im Automobilsektor zentralen – Richtlinienentwürfe in deutsches Recht ist demnach frühestens 2025/2026 zu rechnen.

[1] Siehe Bomhard/Siglmüller in: RDi 2022, S. 506 f., Rdnr. 6.

​[2] Siehe Bomhard/Siglmüller in: RDi 2022, S. 506, 511, Rdnr. 28.

[3] Siehe Bomhard/Siglmüller in: RDi 2022, S. 506, 511, Rdnr. 29 f.

[4] Siehe Bomhard/Siglmüller in: RDi 2022, S. 506, 512, Rdnr. 33.

Header © ​Just_Super – IStock ID:642950046

Mehr aus dem ICC Germany Magazin Nr. 17 finden Sie >>hier.