Wenn KI-Systeme Fehler machen, stellt sich die Haftungsfrage. Wer trägt die Verantwortung – Entwickler, Anbieter oder Betreiber? Ein Überblick über die aktuelle Rechtslage.
Künstliche Intelligenz trifft zunehmend Entscheidungen, die Menschen und Unternehmen betreffen – von der Kreditvergabe über medizinische Diagnosen bis zur autonomen Fahrzeugsteuerung. Doch was geschieht, wenn diese Entscheidungen falsch sind und Schäden verursachen? Die Frage der KI-Haftung beschäftigt Juristen, Unternehmer und Gesetzgeber gleichermaßen.
Das Haftungsdilemma bei KI-Systemen
Traditionelle Haftungskonzepte stoßen bei KI an ihre Grenzen. Im klassischen Produkthaftungsrecht haftet der Hersteller für Fehler seines Produkts. Bei KI-Systemen ist jedoch oft unklar, ob ein "Fehler" vorliegt oder ob das System schlicht eine unerwartete, aber technisch korrekte Entscheidung getroffen hat.
Hinzu kommt die Komplexität der Wertschöpfungskette. An einem KI-System sind typischerweise mehrere Akteure beteiligt: der Entwickler des Grundmodells, der Anbieter der Anwendung, der Integrator und der Betreiber. Wer von ihnen haftet, wenn etwas schiefgeht? Die Antwort hängt von den Umständen des Einzelfalls ab – und ist oft schwer zu ermitteln.
Die EU-KI-Verordnung und ihre Haftungsimplikationen
Die EU-KI-Verordnung schafft zwar keine eigenständige Haftungsregelung, hat aber erhebliche Auswirkungen auf die Haftungsfrage. Sie verankert eine Sorgfaltspflicht für Anbieter und Betreiber von KI-Systemen: Wer diese Pflichten verletzt und dadurch einen Schaden verursacht, kann haftbar gemacht werden.
Für Hochrisiko-KI-Systeme gelten besonders strenge Anforderungen. Anbieter müssen ein Risikomanagementsystem etablieren, das "bekannte und vernünftigerweise vorhersehbare Risiken" ermittelt und bewertet. Betreiber müssen die Systeme im Rahmen der Herstellervorgaben betreiben und überwachen. Die Dokumentation dieser Maßnahmen kann im Schadensfall den Haftungsumfang beeinflussen.
Beweislastprobleme und ihre Lösung
Ein zentrales Problem bei KI-Haftungsfällen ist die Beweislast. Wie soll ein Geschädigter nachweisen, dass ein komplexes KI-System fehlerhaft funktioniert hat? Die "Black Box"-Natur vieler KI-Systeme macht dies nahezu unmöglich.
Die EU arbeitet daher an einer Anpassung der Produkthaftungsrichtlinie und einer neuen KI-Haftungsrichtlinie. Diese sollen Beweiserleichterungen für Geschädigte vorsehen: Unter bestimmten Umständen wird vermutet, dass ein Kausalzusammenhang zwischen dem KI-Fehler und dem Schaden besteht. Der Anbieter oder Betreiber muss dann das Gegenteil beweisen.
Versicherungslösungen für KI-Risiken
Angesichts der Haftungsrisiken gewinnen Versicherungslösungen an Bedeutung. Spezialisierte KI-Versicherungen decken Schäden ab, die durch fehlerhafte KI-Entscheidungen entstehen. Die Prämien orientieren sich am Risikoprofil des Systems und den implementierten Sicherheitsmaßnahmen.
Für Unternehmen empfiehlt sich eine Prüfung des bestehenden Versicherungsschutzes. Klassische Betriebshaftpflichtversicherungen decken KI-Risiken oft nicht oder nur eingeschränkt ab. Eine Erweiterung oder Ergänzung kann sinnvoll sein – insbesondere für Unternehmen, die KI in kritischen Bereichen einsetzen.
Vertragliche Haftungsgestaltung
Neben der gesetzlichen Haftung spielt die vertragliche Gestaltung eine wichtige Rolle. In Verträgen über KI-Systeme sollten Haftungsfragen explizit geregelt werden: Welche Partei haftet für welche Schäden? Gibt es Haftungsobergrenzen? Welche Freistellungspflichten bestehen?
Besondere Aufmerksamkeit verdienen Klauseln, die die Haftung des Anbieters beschränken oder ausschließen. Solche Klauseln sind in AGB nur eingeschränkt wirksam und können bei grober Fahrlässigkeit oder Vorsatz nicht greifen. Eine individuelle Vertragsgestaltung bietet hier mehr Flexibilität.
Präventive Maßnahmen zur Haftungsvermeidung
Die beste Strategie gegen Haftungsrisiken ist die Prävention. Unternehmen sollten vor dem Einsatz von KI-Systemen eine sorgfältige Risikoanalyse durchführen und dokumentieren. Die Einhaltung der Vorgaben der KI-Verordnung – auch wenn diese noch nicht vollständig in Kraft ist – schafft eine gute Ausgangslage.
Auch die Schulung der Mitarbeiter ist wichtig. Wer KI-Systeme bedient, sollte deren Grenzen kennen und wissen, wann menschliche Überprüfung erforderlich ist. Eine "Human-in-the-Loop"-Strategie, bei der kritische Entscheidungen von Menschen überprüft werden, kann Haftungsrisiken reduzieren.
Quellen:
[1] ad-hoc-news.de: "KI-Haftung: Wer zahlt bei Unfällen durch Künstliche Intelligenz?" (2026)
[2] PSP München: "Was die KI-Verordnung für den deutschen Mittelstand bedeutet" (20.01.2026)
[3] Taylor Wessing: "Key developments in AI disputes in 2025" (23.01.2026)
[4] Infopoint Security: "Datenschutz im KI-Zeitalter: Von der Compliance-Pflicht zur strategischen Security Governance" (27.01.2026)
Anzeige
KI-Recht und Haftungsfragen: Expertise mit TÜV-Siegel
Die Rechtsanwaltskanzlei Mensing berät Unternehmen umfassend zu Haftungsfragen im Zusammenhang mit Künstlicher Intelligenz. Als TÜV-zertifizierter "KI-Spezialist (TÜV®)" verfügt das Team über die nötige Expertise, um Risiken zu identifizieren und rechtssichere Lösungen zu entwickeln.
Von der präventiven Risikoanalyse über die Vertragsgestaltung bis zur Vertretung im Streitfall – die Kanzlei begleitet Mandanten durch alle Phasen der KI-Nutzung. Mit Standorten in Stadtlohn, Gescher, Heek und Osnabrück ist sie ein kompetenter Partner für Unternehmen, die KI verantwortungsvoll einsetzen möchten.
Kontakt: [email protected] | www.recht-mensing.de
Das könnte Sie auch interessieren

EU-KI-Verordnung 2026: Was Unternehmen jetzt wissen müssen
Die EU-KI-Verordnung tritt ab August 2026 vollständig in Kraft. Seit Februar 2025 gilt bereits die KI-Kompetenzpflicht. Was Unternehmen jetzt beachten müssen – und welche Bußgelder drohen.

Markenschutz im KI-Zeitalter: Wie Unternehmen ihre Identität schützen
Deepfakes und KI-generierte Inhalte bedrohen die Markenidentität von Unternehmen. Wie strategischer Markenschutz hilft – und warum Prominente wie Matthew McConaughey bereits handeln.

DSGVO und KI: Datenschutz-Compliance für intelligente Systeme
Die Nutzung von KI wirft fundamentale Datenschutzfragen auf. Wie Unternehmen DSGVO und KI-Verordnung gleichzeitig einhalten – und warum Datenschutz zum Wettbewerbsvorteil wird.

