KI-Haftung: Wer zahlt, wenn der Algorithmus versagt?
standardAdvoice

KI-Haftung: Wer zahlt, wenn der Algorithmus versagt?

manager review Redaktion
30. Januar 2026
4 Min. Lesezeit

Wenn KI-Systeme Fehler machen, stellt sich die Haftungsfrage. Wer trägt die Verantwortung – Entwickler, Anbieter oder Betreiber? Ein Überblick über die aktuelle Rechtslage.

m
manager review Redaktion

Künstliche Intelligenz trifft zunehmend Entscheidungen, die Menschen und Unternehmen betreffen – von der Kreditvergabe über medizinische Diagnosen bis zur autonomen Fahrzeugsteuerung. Doch was geschieht, wenn diese Entscheidungen falsch sind und Schäden verursachen? Die Frage der KI-Haftung beschäftigt Juristen, Unternehmer und Gesetzgeber gleichermaßen.

Das Haftungsdilemma bei KI-Systemen

Traditionelle Haftungskonzepte stoßen bei KI an ihre Grenzen. Im klassischen Produkthaftungsrecht haftet der Hersteller für Fehler seines Produkts. Bei KI-Systemen ist jedoch oft unklar, ob ein "Fehler" vorliegt oder ob das System schlicht eine unerwartete, aber technisch korrekte Entscheidung getroffen hat.

Hinzu kommt die Komplexität der Wertschöpfungskette. An einem KI-System sind typischerweise mehrere Akteure beteiligt: der Entwickler des Grundmodells, der Anbieter der Anwendung, der Integrator und der Betreiber. Wer von ihnen haftet, wenn etwas schiefgeht? Die Antwort hängt von den Umständen des Einzelfalls ab – und ist oft schwer zu ermitteln.

Die EU-KI-Verordnung und ihre Haftungsimplikationen

Die EU-KI-Verordnung schafft zwar keine eigenständige Haftungsregelung, hat aber erhebliche Auswirkungen auf die Haftungsfrage. Sie verankert eine Sorgfaltspflicht für Anbieter und Betreiber von KI-Systemen: Wer diese Pflichten verletzt und dadurch einen Schaden verursacht, kann haftbar gemacht werden.

Für Hochrisiko-KI-Systeme gelten besonders strenge Anforderungen. Anbieter müssen ein Risikomanagementsystem etablieren, das "bekannte und vernünftigerweise vorhersehbare Risiken" ermittelt und bewertet. Betreiber müssen die Systeme im Rahmen der Herstellervorgaben betreiben und überwachen. Die Dokumentation dieser Maßnahmen kann im Schadensfall den Haftungsumfang beeinflussen.

Beweislastprobleme und ihre Lösung

Ein zentrales Problem bei KI-Haftungsfällen ist die Beweislast. Wie soll ein Geschädigter nachweisen, dass ein komplexes KI-System fehlerhaft funktioniert hat? Die "Black Box"-Natur vieler KI-Systeme macht dies nahezu unmöglich.

Die EU arbeitet daher an einer Anpassung der Produkthaftungsrichtlinie und einer neuen KI-Haftungsrichtlinie. Diese sollen Beweiserleichterungen für Geschädigte vorsehen: Unter bestimmten Umständen wird vermutet, dass ein Kausalzusammenhang zwischen dem KI-Fehler und dem Schaden besteht. Der Anbieter oder Betreiber muss dann das Gegenteil beweisen.

Versicherungslösungen für KI-Risiken

Angesichts der Haftungsrisiken gewinnen Versicherungslösungen an Bedeutung. Spezialisierte KI-Versicherungen decken Schäden ab, die durch fehlerhafte KI-Entscheidungen entstehen. Die Prämien orientieren sich am Risikoprofil des Systems und den implementierten Sicherheitsmaßnahmen.

Für Unternehmen empfiehlt sich eine Prüfung des bestehenden Versicherungsschutzes. Klassische Betriebshaftpflichtversicherungen decken KI-Risiken oft nicht oder nur eingeschränkt ab. Eine Erweiterung oder Ergänzung kann sinnvoll sein – insbesondere für Unternehmen, die KI in kritischen Bereichen einsetzen.

Vertragliche Haftungsgestaltung

Neben der gesetzlichen Haftung spielt die vertragliche Gestaltung eine wichtige Rolle. In Verträgen über KI-Systeme sollten Haftungsfragen explizit geregelt werden: Welche Partei haftet für welche Schäden? Gibt es Haftungsobergrenzen? Welche Freistellungspflichten bestehen?

Besondere Aufmerksamkeit verdienen Klauseln, die die Haftung des Anbieters beschränken oder ausschließen. Solche Klauseln sind in AGB nur eingeschränkt wirksam und können bei grober Fahrlässigkeit oder Vorsatz nicht greifen. Eine individuelle Vertragsgestaltung bietet hier mehr Flexibilität.

Präventive Maßnahmen zur Haftungsvermeidung

Die beste Strategie gegen Haftungsrisiken ist die Prävention. Unternehmen sollten vor dem Einsatz von KI-Systemen eine sorgfältige Risikoanalyse durchführen und dokumentieren. Die Einhaltung der Vorgaben der KI-Verordnung – auch wenn diese noch nicht vollständig in Kraft ist – schafft eine gute Ausgangslage.

Auch die Schulung der Mitarbeiter ist wichtig. Wer KI-Systeme bedient, sollte deren Grenzen kennen und wissen, wann menschliche Überprüfung erforderlich ist. Eine "Human-in-the-Loop"-Strategie, bei der kritische Entscheidungen von Menschen überprüft werden, kann Haftungsrisiken reduzieren.


Quellen:

[1] ad-hoc-news.de: "KI-Haftung: Wer zahlt bei Unfällen durch Künstliche Intelligenz?" (2026)

[2] PSP München: "Was die KI-Verordnung für den deutschen Mittelstand bedeutet" (20.01.2026)

[3] Taylor Wessing: "Key developments in AI disputes in 2025" (23.01.2026)

[4] Infopoint Security: "Datenschutz im KI-Zeitalter: Von der Compliance-Pflicht zur strategischen Security Governance" (27.01.2026)


Anzeige

KI-Recht und Haftungsfragen: Expertise mit TÜV-Siegel

Die Rechtsanwaltskanzlei Mensing berät Unternehmen umfassend zu Haftungsfragen im Zusammenhang mit Künstlicher Intelligenz. Als TÜV-zertifizierter "KI-Spezialist (TÜV®)" verfügt das Team über die nötige Expertise, um Risiken zu identifizieren und rechtssichere Lösungen zu entwickeln.

Von der präventiven Risikoanalyse über die Vertragsgestaltung bis zur Vertretung im Streitfall – die Kanzlei begleitet Mandanten durch alle Phasen der KI-Nutzung. Mit Standorten in Stadtlohn, Gescher, Heek und Osnabrück ist sie ein kompetenter Partner für Unternehmen, die KI verantwortungsvoll einsetzen möchten.

Kontakt: [email protected] | www.recht-mensing.de

Artikel teilen
Tags
KI-HaftungProdukthaftungKI-RechtRisikomanagementVersicherung