Zurück zum Blog
Compliance
Praxis

Haftungsklauseln in KI-Verträgen: Fallstricke vermeiden

KI-Anbieter begrenzen ihre Haftung systematisch über AGB-Klauseln. Erfahren Sie, welche Haftungsregelungen unwirksam sind und wie Sie Ihre Verträge rechtssicher gestalten.

KCT
KI Comply TeamKI-Compliance Experten
23. März 20265 Min. Lesezeit
Haftungsklauseln in KI-Verträgen: Fallstricke vermeiden

Haftungsklauseln in KI-Verträgen: Fallstricke vermeiden

Das Wichtigste in Kürze: Haftungsklauseln in KI-Verträgen sind regelmäßig zugunsten des Anbieters formuliert — oft bis an die Grenze der Unwirksamkeit nach §§ 305 ff. BGB. Pauschale Haftungsausschlüsse für fehlerhafte KI-Ergebnisse, unzureichende SLA-Regelungen und fehlende Freistellungsklauseln gehören zu den häufigsten Fallstricken. Wer KI-Software einkauft, muss die Haftungsarchitektur des Vertrags systematisch prüfen und nachverhandeln. Dieser Leitfaden zeigt die kritischsten Haftungsklauseln, erklärt die AGB-rechtlichen Grenzen und liefert eine konkrete Verhandlungscheckliste für die Praxis.


Inhaltsverzeichnis

  1. Warum Haftungsklauseln in KI-Verträgen besonders kritisch sind
  2. AGB-Kontrolle nach §§ 305-310 BGB im KI-Kontext
  3. Typische Haftungsklauseln in KI-Anbieterverträgen
  4. SLA-Fallstricke: Wenn Verfügbarkeit nicht reicht
  5. Haftungsbegrenzungen und ihre Grenzen
  6. Freistellungsklauseln (Indemnification)
  7. IP-Rechte an KI-Ergebnissen
  8. Versicherungsanforderungen
  9. Verhandlungscheckliste für die Praxis
  10. Häufig gestellte Fragen (FAQ)
  11. Nächste Schritte

Warum Haftungsklauseln in KI-Verträgen besonders kritisch sind {#warum-haftungsklauseln-kritisch}

KI-Software unterscheidet sich von klassischer Software in einem entscheidenden Punkt: Ihre Ergebnisse sind probabilistisch. Ein KI-System kann bei identischem Input unterschiedliche Outputs liefern. Es kann halluzinieren, diskriminieren oder schlicht falsche Ergebnisse produzieren — und das liegt in der Natur der Technologie.

Diese Eigenschaft erzeugt ein Haftungsvakuum, das herkömmliche Softwareverträge nicht adressieren. In einem klassischen Softwarevertrag ist ein fehlerhaftes Ergebnis in der Regel ein Mangel. Bei KI-Software stellt sich die Frage: Ist ein fehlerhaftes Ergebnis ein Mangel — oder ein systembedingtes Risiko, das der Betreiber tragen soll?

KI-Anbieter nutzen dieses Vakuum systematisch aus. Ihre vorformulierten Vertragsbedingungen enthalten regelmäßig:

  • Pauschale Haftungsausschlüsse für die Qualität der KI-Ergebnisse
  • Niedrige Haftungsobergrenzen, die in keinem Verhältnis zum Schadensrisiko stehen
  • Einseitige Freistellungspflichten zulasten des Betreibers
  • Unklare IP-Regelungen für KI-generierte Inhalte

Die regulatorische Lage verschärft das Problem: Der AI Act (VO (EU) 2024/1689) verteilt die Compliance-Pflichten auf Anbieter und Betreiber. Die geplante KI-Haftungsrichtlinie (COM(2022) 496) wird die Beweislast bei KI-Schäden zugunsten Geschädigter erleichtern. Und die reformierte Produkthaftungsrichtlinie (RL (EU) 2024/2853) erfasst nun auch Software als „Produkt". Ohne klare vertragliche Haftungsverteilung bleibt der Betreiber auf den Risiken sitzen.


AGB-Kontrolle nach §§ 305-310 BGB im KI-Kontext {#agb-kontrolle}

Die meisten KI-Anbieter verwenden vorformulierte Vertragsbedingungen — also Allgemeine Geschäftsbedingungen im Sinne des § 305 Abs. 1 BGB. Damit unterliegen sämtliche Haftungsklauseln der strengen AGB-Kontrolle. Das ist für Betreiber eine mächtige Waffe, die in der Praxis zu selten genutzt wird.

Einbeziehungskontrolle (§ 305 Abs. 2 BGB)

AGB werden nur Vertragsbestandteil, wenn der Verwender bei Vertragsschluss ausdrücklich auf sie hinweist und dem Vertragspartner die Möglichkeit zur Kenntnisnahme verschafft. Bei KI-Anbietern sind die Vertragsbedingungen häufig über mehrere Dokumente verstreut: Terms of Service, Privacy Policy, Acceptable Use Policy, Data Processing Agreement, SLA. Wenn wesentliche Haftungsregelungen nur in einem Nebendokument stehen, auf das nicht klar genug verwiesen wird, sind sie möglicherweise bereits nicht wirksam einbezogen.

Überraschende Klauseln (§ 305c Abs. 1 BGB)

Klauseln, mit denen der Vertragspartner nach den Umständen vernünftigerweise nicht zu rechnen braucht, werden nicht Vertragsbestandteil. Im KI-Kontext ist das etwa der Fall, wenn ein Anbieter in seinen allgemeinen Nutzungsbedingungen versteckt eine vollständige Haftungsfreistellung für sämtliche KI-Ergebnisse verankert oder sich das Recht vorbehält, das Modell jederzeit ohne Vorankündigung auszutauschen.

Inhaltskontrolle (§ 307 BGB)

Die Inhaltskontrolle ist das Herzstück der AGB-Prüfung. Nach § 307 Abs. 1 BGB sind AGB-Klauseln unwirksam, wenn sie den Vertragspartner entgegen den Geboten von Treu und Glauben unangemessen benachteiligen. § 307 Abs. 2 BGB konkretisiert: Eine unangemessene Benachteiligung liegt im Zweifel vor, wenn die Klausel

  • mit wesentlichen Grundgedanken der gesetzlichen Regelung, von der abgewichen wird, nicht vereinbar ist (Nr. 1), oder
  • wesentliche Rechte oder Pflichten, die sich aus der Natur des Vertrags ergeben, so einschränkt, dass die Erreichung des Vertragszwecks gefährdet ist (Nr. 2).

Klauselverbote (§§ 308-309 BGB)

Die konkreten Klauselverbote der §§ 308-309 BGB greifen bei KI-Verträgen insbesondere in folgenden Fällen:

NormKlauselverbotKI-Relevanz
§ 309 Nr. 7a BGBAusschluss der Haftung für KörperschädenRelevant bei KI in Medizin, Automotive, HR
§ 309 Nr. 7b BGBAusschluss der Haftung für grobe FahrlässigkeitHäufig in KI-AGB versteckt
§ 309 Nr. 8a BGBBeschränkung von Mängelrechten bei NeulieferungRelevant bei SaaS-Modellen
§ 308 Nr. 4 BGBÄnderungsvorbehaltKritisch bei einseitigem Modellaustausch
§ 308 Nr. 5 BGBFingierte ErklärungenRelevant bei automatischer Zustimmung zu neuen AGB

Praxistipp: Prüfen Sie jede Haftungsklausel in den AGB des KI-Anbieters anhand der §§ 307-309 BGB. Unwirksame Klauseln werden durch das dispositive Gesetzesrecht ersetzt (§ 306 Abs. 2 BGB) — in der Regel eine für den Betreiber günstigere Rechtslage.


Typische Haftungsklauseln in KI-Anbieterverträgen {#typische-haftungsklauseln}

Der pauschale Haftungsausschluss für KI-Ergebnisse

Die häufigste und gleichzeitig problematischste Klausel lautet sinngemäß:

„Der Anbieter übernimmt keine Gewähr für die Richtigkeit, Vollständigkeit oder Eignung der vom KI-System erzeugten Ergebnisse. Die Nutzung der Ergebnisse erfolgt auf eigenes Risiko des Kunden."

Diese Klausel ist in AGB regelmäßig unwirksam nach § 307 Abs. 2 Nr. 2 BGB. Denn wenn der Anbieter die Haftung für die Qualität seiner Kernleistung — die Erzeugung brauchbarer Ergebnisse — vollständig ausschließt, höhlt er den Vertragszweck aus. Der Betreiber zahlt für ein System, dessen Ergebnissen er nicht vertrauen darf. Das widerspricht dem Grundgedanken jedes entgeltlichen Leistungsaustauschs.

Der „As-Is"-Disclaimer

Insbesondere US-amerikanische KI-Anbieter verwenden häufig einen „As-Is/As-Available"-Disclaimer:

„The Service is provided 'as is' and 'as available' without warranties of any kind, either express or implied."

Im deutschen Recht ist ein solcher pauschaler Gewährleistungsausschluss in AGB gegenüber Unternehmern ebenfalls an § 307 BGB zu messen. Er verstößt gegen das gesetzliche Leitbild des Miet- oder Werkvertragsrechts und ist in der Regel unwirksam, soweit er verschuldensunabhängige Mängelrechte betrifft.

Die Haftungskaskade

Besser strukturierte KI-Verträge enthalten eine abgestufte Haftungsregelung:

  1. Unbeschränkte Haftung für Vorsatz, grobe Fahrlässigkeit, Personenschäden
  2. Beschränkte Haftung auf einen Höchstbetrag für leichte Fahrlässigkeit bei wesentlichen Vertragspflichten (Kardinalpflichten)
  3. Haftungsausschluss für leichte Fahrlässigkeit bei unwesentlichen Vertragspflichten

Dieses Modell ist grundsätzlich AGB-fest, wenn die Haftungsobergrenze angemessen ist. Die Frage ist: Was ist „angemessen" bei KI-Software? Ein Vielfaches der Jahresgebühr ist die gängige Benchmark. Als Faustregel gilt: Ein Haftungscap unterhalb der einfachen Jahresvergütung ist für den Betreiber in der Regel inakzeptabel.


SLA-Fallstricke: Wenn Verfügbarkeit nicht reicht {#sla-fallstricke}

Service Level Agreements (SLAs) sind in KI-Verträgen ein besonders tückisches Feld. Denn herkömmliche SLAs messen nur die technische Verfügbarkeit des Systems — nicht die Qualität der Ergebnisse.

Das Verfügbarkeitsproblem

Ein KI-System kann zu 99,9 % verfügbar sein und trotzdem unbrauchbare Ergebnisse liefern. Wenn das Modell degradiert, die Genauigkeit sinkt oder der Anbieter ein schlechteres Modell einspielt, wird der Betreiber über die SLA-Metriken nichts davon erfahren. Die Verfügbarkeits-SLA sagt nur: Das System ist erreichbar. Sie sagt nichts über die Qualität.

Fehlende Qualitäts-KPIs

KI-Verträge brauchen neben der Verfügbarkeit zwingend qualitative SLA-Kennzahlen:

KPIBeschreibungWarum wichtig
Accuracy (Genauigkeit)Anteil korrekter ErgebnisseKernmetrik für die Brauchbarkeit
PrecisionAnteil relevanter unter den als relevant klassifizierten ErgebnissenVermeidet False Positives
RecallAnteil erkannter relevanter ErgebnisseVermeidet False Negatives
Latenz (p95)Antwortzeit des 95. PerzentilsNutzererfahrung und Prozessintegration
Drift-ToleranzMaximale Abweichung von ReferenzwertenErkennt Modellverschlechterung
Fairness-MetrikenDemographic Parity, Equalized OddsDiskriminierungsschutz

Gutschriften vs. tatsächlicher Schaden

Die meisten SLAs sehen bei Unterschreitung der vereinbarten Werte lediglich Gutschriften (Service Credits) vor — typisch 5-25 % der Monatsvergütung. Das steht in keinem Verhältnis zum tatsächlichen Schaden, der dem Betreiber durch fehlerhafte KI-Ergebnisse entstehen kann.

Empfehlung: Verhandeln Sie neben Gutschriften ein außerordentliches Kündigungsrecht bei wiederholter oder erheblicher SLA-Unterschreitung. Sichern Sie sich zusätzlich einen verschuldensunabhängigen Schadensersatzanspruch für Fälle, in denen die Gutschrift den Schaden offensichtlich nicht abdeckt.


Haftungsbegrenzungen und ihre Grenzen {#haftungsbegrenzungen}

Das Haftungscap

Fast jeder KI-Vertrag enthält ein Haftungscap — eine betragsmäßige Obergrenze für die Haftung des Anbieters. Übliche Formulierungen:

  • „Die Gesamthaftung des Anbieters ist auf die in den letzten 12 Monaten gezahlte Vergütung begrenzt."
  • „Die Haftung ist auf das [Zweifache/Dreifache] der Jahresvergütung begrenzt."

Ein Haftungscap ist in AGB grundsätzlich zulässig, solange es den typischerweise vorhersehbaren Schaden abdeckt (BGH, Urt. v. 27.09.2000 — VIII ZR 155/99). Bei KI-Software muss das Cap den Schaden berücksichtigen, der durch fehlerhafte KI-Ergebnisse realistischerweise entstehen kann. Ein Cap in Höhe der einfachen Jahresgebühr ist bei Hochrisiko-Anwendungen regelmäßig zu niedrig.

Nicht abdingbare Haftung

Folgende Haftungstatbestände können in AGB nicht wirksam ausgeschlossen oder begrenzt werden:

  • Vorsätzliche Pflichtverletzung (§ 276 Abs. 3 BGB)
  • Haftung für Personenschäden (§ 309 Nr. 7a BGB)
  • Grob fahrlässige Pflichtverletzung (§ 309 Nr. 7b BGB)
  • Verletzung wesentlicher Vertragspflichten (Kardinalpflichten) — hier darf die Haftung begrenzt, aber nicht ausgeschlossen werden
  • Garantiehaftung (§ 276 Abs. 1 BGB)
  • Haftung nach dem Produkthaftungsgesetz (§ 14 ProdHaftG)

Ausschluss mittelbarer Schäden

KI-Anbieter schließen regelmäßig die Haftung für „mittelbare Schäden, entgangenen Gewinn und Folgeschäden" aus. Im B2B-Bereich ist diese Klausel in Individualverträgen grundsätzlich wirksam. In AGB ist sie an § 307 BGB zu messen. Kritisch wird es, wenn der Anbieter auch die Haftung für entgangenen Gewinn bei Verletzung von Kardinalpflichten ausschließt — das ist regelmäßig unwirksam.

Praxistipp: Verhandeln Sie eine Ausnahme vom Ausschluss mittelbarer Schäden für Kardinalpflichtverletzungen und Datenschutzverstöße. Gerade bei KI-Systemen, die in geschäftskritische Prozesse eingebunden sind, kann ein einzelner Systemfehler erhebliche Folgeschäden verursachen.


Freistellungsklauseln (Indemnification) {#freistellungsklauseln}

Freistellungsklauseln regeln, wer den anderen Vertragsteil von Ansprüchen Dritter freistellt. In KI-Verträgen sind drei Szenarien besonders relevant.

Freistellung bei IP-Verletzungen

KI-Systeme können Inhalte erzeugen, die Urheberrechte, Markenrechte oder Patente Dritter verletzen. Wird der Betreiber von einem Rechteinhaber in Anspruch genommen, braucht er eine vertragliche Freistellung durch den Anbieter.

Empfohlene Formulierung:

„Der Anbieter stellt den Betreiber von sämtlichen Ansprüchen Dritter frei, die auf einer Verletzung von Schutzrechten (Urheberrechte, Markenrechte, Patente, Geschäftsgeheimnisse) durch das KI-System oder dessen Ergebnisse beruhen, sofern der Betreiber das System vertragsgemäß genutzt hat."

Freistellung bei Datenschutzverstößen

Wenn der KI-Anbieter als Auftragsverarbeiter personenbezogene Daten verarbeitet und es zu einem DSGVO-Verstoß kommt, kann der Verantwortliche (Betreiber) im Außenverhältnis haften (Art. 82 Abs. 4 DSGVO — gesamtschuldnerische Haftung). Im Innenverhältnis braucht der Betreiber eine Freistellung durch den Anbieter, soweit der Verstoß auf dessen Verschulden beruht.

Freistellung bei AI-Act-Bußgeldern

Der AI Act sieht Bußgelder von bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes vor (Art. 99 VO (EU) 2024/1689). Wenn ein Bußgeld gegen den Betreiber verhängt wird, weil der Anbieter seine Pflichten nach Art. 16-25 nicht erfüllt hat, muss die vertragliche Freistellung greifen.

Achtung: Viele KI-Anbieter schließen die Freistellung für Bußgelder explizit aus. Prüfen Sie diese Klausel besonders sorgfältig. Eine vollständige Freistellung für Bußgelder ist zwar umstritten (öffentlich-rechtliche Sanktion soll den Adressaten selbst treffen), aber eine Freistellung im Innenverhältnis für den Verschuldensanteil des Anbieters ist rechtlich vertretbar und verhandelbar.


IP-Rechte an KI-Ergebnissen {#ip-rechte}

Die Frage der Rechte an KI-generierten Inhalten ist eine der umstrittensten im KI-Vertragsrecht. Viele Anbieterverträge enthalten Klauseln, die dem Anbieter weitreichende Rechte an den Ergebnissen einräumen.

Das Grundproblem

Nach deutschem Urheberrecht (§ 2 UrhG) genießen nur persönliche geistige Schöpfungen Urheberrechtsschutz. Rein KI-generierte Inhalte ohne hinreichenden menschlichen Schöpfungsbeitrag sind nach herrschender Meinung nicht urheberrechtsfähig. Das bedeutet: An vielen KI-Ergebnissen besteht kein Urheberrecht — weder für den Anbieter noch für den Betreiber.

Vertragliche Regelung als Ausweg

Was das Urheberrecht nicht regelt, muss der Vertrag regeln. Entscheidend sind:

  • Nutzungsrechte: Der Betreiber muss die erzeugten Ergebnisse uneingeschränkt nutzen dürfen — kommerziell, zeitlich unbefristet, weltweit.
  • Keine Anbieter-Lizenz an Ergebnissen: Der Anbieter darf die Ergebnisse nicht für eigene Zwecke verwenden (insbesondere nicht zum Training).
  • Schutz von Geschäftsgeheimnissen: Eingabedaten und Ergebnisse können Geschäftsgeheimnisse im Sinne des § 2 GeschGehG enthalten. Der Vertrag muss den Schutz sicherstellen.

Typische Fallstricke

Achten Sie auf Klauseln wie:

„Der Kunde räumt dem Anbieter ein nicht-exklusives, weltweites, unentgeltliches Nutzungsrecht an sämtlichen Eingabe- und Ausgabedaten ein."

Diese Klausel ist in AGB nach § 307 BGB angreifbar, wenn sie den Betreiber unangemessen benachteiligt. In der Praxis sollten Sie eine solche Klausel kategorisch ablehnen und durch ein ausdrückliches Trainingsverbot ersetzen.


Versicherungsanforderungen {#versicherungsanforderungen}

Eine oft übersehene Komponente der Haftungsarchitektur in KI-Verträgen ist die Versicherung. Haftungsklauseln nützen wenig, wenn der Anbieter im Schadensfall zahlungsunfähig ist.

Welche Versicherungen sollte der KI-Anbieter vorweisen?

VersicherungsartMindestdeckungZweck
IT-HaftpflichtversicherungMindestens das Doppelte des HaftungscapsDeckung für Schäden durch Softwarefehler
Cyber-VersicherungBranchenüblich (ab 1 Mio. EUR)Datenschutzvorfälle, Ransomware
VermögensschadenhaftpflichtProjektabhängigFehlerhafte Beratung/Empfehlung durch KI
ProdukthaftpflichtProduktabhängigFalls KI-System als Produkt eingestuft

Vertragliche Absicherung

Nehmen Sie in den Vertrag eine Klausel auf, die den Anbieter verpflichtet, den Versicherungsschutz während der gesamten Vertragslaufzeit aufrechtzuerhalten und auf Anfrage nachzuweisen. Eine Unterschreitung der vereinbarten Deckungssumme sollte ein meldepflichtiges Ereignis sein.


Verhandlungscheckliste für die Praxis {#verhandlungscheckliste}

Die folgende Checkliste fasst die wesentlichen Prüfpunkte für Haftungsklauseln in KI-Verträgen zusammen:

Haftungsstruktur

  • Ist eine abgestufte Haftungsregelung vorhanden (Vorsatz/grobe Fahrlässigkeit unbeschränkt, leichte Fahrlässigkeit bei Kardinalpflichten begrenzt)?
  • Ist das Haftungscap angemessen (mindestens das Zweifache der Jahresvergütung bei Hochrisiko-KI)?
  • Sind Personenschäden und Datenschutzverstöße vom Haftungscap ausgenommen?
  • Ist die Haftung für mittelbare Schäden bei Kardinalpflichtverletzungen nicht ausgeschlossen?

AGB-Kontrolle

  • Sind alle Vertragsdokumente wirksam einbezogen (§ 305 Abs. 2 BGB)?
  • Enthält der Vertrag überraschende Klauseln (§ 305c BGB)?
  • Halten die Haftungsklauseln der Inhaltskontrolle stand (§ 307 BGB)?
  • Verstoßen Klauseln gegen die konkreten Klauselverbote (§§ 308-309 BGB)?

SLA und Qualität

  • Enthält die SLA qualitative KPIs (Accuracy, Precision, Recall)?
  • Sind neben Gutschriften auch Schadensersatzansprüche und Kündigungsrechte vorgesehen?
  • Ist die Messbarkeit der KPIs sichergestellt (Dashboard, Reporting)?
  • Gibt es eine Drift-Toleranz für Modellverschlechterung?

Freistellungen

  • Freistellung bei IP-Verletzungen durch KI-Ergebnisse vorhanden?
  • Freistellung bei Datenschutzverstößen des Anbieters vorhanden?
  • Innenverhältnis-Regelung für AI-Act-Bußgelder vorhanden?
  • Sind die Freistellungen wechselseitig und verschuldensabhängig?

IP-Rechte

  • Hat der Betreiber uneingeschränkte Nutzungsrechte an den KI-Ergebnissen?
  • Ist ein Trainingsverbot für Eingabe- und Ausgabedaten enthalten?
  • Sind Geschäftsgeheimnisse geschützt?

Versicherung

  • Ist eine angemessene IT-Haftpflichtversicherung nachgewiesen?
  • Besteht eine Nachweispflicht während der gesamten Vertragslaufzeit?
  • Ist eine Cyber-Versicherung vorhanden?

Häufig gestellte Fragen (FAQ) {#faq}

Kann ein KI-Anbieter die Haftung für fehlerhafte KI-Ergebnisse vollständig ausschließen?

In Allgemeinen Geschäftsbedingungen (§ 305 Abs. 1 BGB) ist ein vollständiger Haftungsausschluss für fehlerhafte KI-Ergebnisse regelmäßig unwirksam. Nach § 307 Abs. 2 Nr. 2 BGB liegt eine unangemessene Benachteiligung vor, wenn wesentliche Rechte aus der Natur des Vertrags so eingeschränkt werden, dass der Vertragszweck gefährdet ist. Wer für ein KI-System bezahlt, darf erwarten, dass es brauchbare Ergebnisse liefert. Ein pauschaler Haftungsausschluss widerspricht diesem Grundgedanken. In Individualverträgen (§ 305 Abs. 1 Satz 3 BGB) ist der Gestaltungsspielraum größer, aber auch hier setzt § 276 Abs. 3 BGB (Vorsatzhaftung) eine absolute Grenze.

Welches Haftungscap ist bei KI-Verträgen angemessen?

Es gibt keinen festen Richtwert. Die Angemessenheit hängt vom Einsatzbereich, der Risikoklasse und dem potenziellen Schadensvolumen ab. Als Orientierung: Für Hochrisiko-KI-Systeme (Art. 6 VO (EU) 2024/1689) sollte das Haftungscap mindestens das Zwei- bis Fünffache der Jahresvergütung betragen. Für KI-Systeme in geschäftskritischen Prozessen (Personalauswahl, Kreditvergabe, medizinische Diagnostik) ist ein höheres Cap gerechtfertigt. Datenschutzverstöße und Personenschäden sollten vom Cap ausgenommen oder mit einem separaten, höheren Cap versehen werden. Achten Sie darauf, ob das Cap pro Einzelfall oder als Gesamthaftung über die Vertragslaufzeit gilt — letzteres ist für den Betreiber deutlich nachteiliger.

Wie unterscheiden sich Haftungsklauseln bei SaaS- und On-Premise-KI?

Bei KI-SaaS (Software as a Service) liegt die Kontrolle über das System beim Anbieter. Er hostet, wartet und aktualisiert das Modell. Entsprechend muss er eine breitere Haftung übernehmen — insbesondere für Verfügbarkeit, Modellqualität und Datensicherheit. Typischerweise werden SaaS-Verträge als Mietverträge eingeordnet, sodass die §§ 535 ff. BGB gelten und der Anbieter zur Instandhaltung verpflichtet ist. Bei On-Premise-KI hat der Betreiber mehr Kontrolle, aber auch mehr Verantwortung. Die Haftung des Anbieters beschränkt sich hier stärker auf anfängliche Mängel und die Qualität der Dokumentation. Updates und Modellpflege müssen separat vertraglich geregelt werden. In beiden Fällen gilt: Die Haftung für die Qualität der Trainingsdaten und die grundsätzliche Funktionsfähigkeit des Modells bleibt beim Anbieter.

Was bedeutet die geplante KI-Haftungsrichtlinie für bestehende Verträge?

Die KI-Haftungsrichtlinie (COM(2022) 496) befindet sich noch im Gesetzgebungsverfahren. Sie soll die Beweislast bei KI-Schäden zugunsten Geschädigter erleichtern: Wenn ein Geschädigter nachweist, dass ein KI-System pflichtwidrig betrieben wurde und ein ursächlicher Zusammenhang mit dem Schaden plausibel ist, wird das Verschulden vermutet (Beweislasterleichterung). Für bestehende Verträge bedeutet das: Haftungsklauseln, die auf der bisherigen Beweislastverteilung basieren, könnten nach Inkrafttreten der Richtlinie den Anbieter stärker belasten als kalkuliert. Vorausschauende Verträge sollten bereits jetzt eine Anpassungsklausel enthalten, die bei Änderung der Rechtslage eine Neuverhandlung der Haftungsbestimmungen ermöglicht.

Wie gehe ich vor, wenn der KI-Anbieter keine Verhandlung der Haftungsklauseln zulässt?

Bei großen KI-Anbietern (insbesondere US-Hyperscalern) sind individuelle Vertragsverhandlungen oft nicht möglich. In diesem Fall haben Sie mehrere Optionen: Erstens können Sie sich auf die AGB-Kontrolle nach §§ 305 ff. BGB verlassen — unwirksame Klauseln werden automatisch durch das dispositive Gesetzesrecht ersetzt, das in der Regel betreiberfreundlicher ist. Zweitens können Sie eine ergänzende Individualvereinbarung (Side Letter) vorschlagen, die einzelne kritische Punkte regelt und nach § 305b BGB Vorrang vor den AGB hat. Drittens sollten Sie das Risiko, das aus den nicht verhandelten Klauseln resultiert, intern dokumentieren und durch organisatorische Maßnahmen (menschliche Überprüfung der KI-Ergebnisse, eigene Versicherungen, begrenzte Einsatzszenarien) kompensieren.


Nächste Schritte {#naechste-schritte}

Haftungsklauseln sind nur ein Baustein des KI-Vertragsmanagements. Für eine umfassende vertragliche Absicherung beim KI-Einkauf empfehlen wir die folgenden weiterführenden Leitfäden:

  • KI-Vertragsklauseln: Die 10 essenziellen Klauseln, die in keinem KI-Vertrag fehlen dürfen.
  • KI-SaaS-Verträge: Besonderheiten bei Cloud-basierten KI-Diensten.
  • KI-Software einkaufen: Strukturierter Beschaffungsprozess von der Bedarfsanalyse bis zum Vertragsschluss.
  • KI-Produkthaftung in der EU: Haftungsrisiken bei fehlerhaften KI-Ergebnissen nach der reformierten Produkthaftungsrichtlinie.
  • KI-Vendor Due Diligence: 20-Punkte-Checkliste zur Anbieterprüfung vor Vertragsschluss.

KI Comply unterstützt Unternehmen dabei, ihre KI-Compliance strukturiert aufzubauen — von der Schulung über die Dokumentation bis zur Vertragsgestaltung. Unsere Plattform bildet den gesamten Compliance-Prozess digital ab und sorgt dafür, dass keine Pflicht übersehen wird.

Jetzt kostenlos starten und KI-Verträge rechtssicher gestalten.

Rechtsquellen

  • AGB-Recht§§305-310 BGB (Quelle)
  • Schadensersatz wegen Pflichtverletzung§280 BGB (Quelle)
  • Inhaltskontrolle§307 BGB (Quelle)
  • Klauselverbote§§308-309 BGB (Quelle)
  • Anbieter-Pflichten AI ActArt. 16-25 VO (EU) 2024/1689 (Quelle)

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen