AI Act und Open Source: Ausnahmen und Pflichten
Open-Source-KI genießt Erleichterungen unter dem AI Act — aber keine vollständige Befreiung. Wir erklären, welche Regeln für Llama, Mistral & Co. gelten.
Das Wichtigste in Kürze
- Open-Source-KI-Modelle genießen unter dem AI Act (VO (EU) 2024/1689) bestimmte Erleichterungen -- sie sind aber keineswegs vollständig befreit.
- Art. 2 Abs. 12 nimmt Open-Source-Komponenten von den meisten Pflichten aus, solange sie nicht als Hochrisiko-KI-System oder verbotene KI eingestuft werden.
- Für GPAI-Modelle mit offenen Gewichten (z. B. Llama, Mistral, Falcon) reduziert Art. 53 Abs. 2 die Dokumentations- und Transparenzpflichten -- jedoch nicht, wenn ein systemisches Risiko vorliegt.
- Verbotene KI-Praktiken (Art. 5) und Hochrisiko-Pflichten (Art. 6--27) gelten uneingeschränkt -- auch für Open-Source-Software.
- Unternehmen, die Open-Source-KI einsetzen, tragen als Betreiber eigene Compliance-Pflichten und können sich nicht auf die Ausnahme des Anbieters berufen.
Warum Open Source im AI Act eine Sonderstellung hat
Open-Source-Software ist ein Grundpfeiler der modernen KI-Entwicklung. Modelle wie Llama (Meta), Mistral (Mistral AI), Falcon (TII) und BLOOM (BigScience) haben gezeigt, dass leistungsstarke KI nicht exklusiv hinter geschlossenen APIs existieren muss. Forschungseinrichtungen, Start-ups und Unternehmen weltweit profitieren von offenen Modellgewichten, gemeinschaftlicher Weiterentwicklung und transparenter Dokumentation.
Der EU-Gesetzgeber hat diese Bedeutung erkannt. In den Erwägungsgründen 102 bis 104 der VO (EU) 2024/1689 wird ausdrücklich betont, dass Open-Source-KI Innovation, Wettbewerb und wissenschaftlichen Fortschritt fördert. Eine übermäßige Regulierung könnte diese Vorteile zunichtemachen -- insbesondere für kleinere Akteure, die weder über die Rechtsabteilung noch über die Ressourcen großer Technologiekonzerne verfügen.
Gleichzeitig war dem Gesetzgeber klar: Ein offen zugängliches Modell wird nicht weniger riskant, nur weil sein Quellcode frei verfügbar ist. Ein Open-Source-Modell, das für Social Scoring eingesetzt oder in ein Hochrisiko-System integriert wird, birgt dieselben Gefahren wie sein proprietäres Pendant. Deshalb verfolgt der AI Act einen differenzierten Ansatz: Erleichterungen dort, wo sie Innovation fördern, und unveränderte Pflichten dort, wo Grundrechte auf dem Spiel stehen.
Die Open-Source-Definition im AI Act
Art. 2 Abs. 12: Die allgemeine Ausnahme
Art. 2 Abs. 12 VO (EU) 2024/1689 enthält die zentrale Bestimmung für Open-Source-KI:
„Diese Verordnung gilt nicht für KI-Systeme, die unter freien und quelloffenen Lizenzen bereitgestellt werden, es sei denn, sie werden als Hochrisiko-KI-Systeme in Verkehr gebracht oder in Betrieb genommen oder sie fallen unter Artikel 5 oder Artikel 50."
Die Ausnahme knüpft also an drei kumulative Bedingungen:
- Freie und quelloffene Lizenz: Das Modell bzw. System muss unter einer Lizenz bereitgestellt werden, die den anerkannten Open-Source-Kriterien entspricht -- also Zugang zum Quellcode, freie Veränderung und Weiterverbreitung ermöglicht.
- Kein Hochrisiko-Einsatz: Sobald ein Open-Source-System in einem Hochrisiko-Kontext (Anhang III) eingesetzt wird -- etwa in der Personalrekrutierung, Kreditwürdigkeitsbewertung oder Strafverfolgung --, entfällt die Ausnahme vollständig.
- Keine verbotenen Praktiken und keine Transparenzpflichten für generative KI: Die Verbote nach Art. 5 (z. B. Social Scoring, manipulative Techniken) gelten ausnahmslos. Ebenso bleiben die Transparenzpflichten nach Art. 50 (Kennzeichnung von KI-generierten Inhalten, Deepfake-Hinweise) bestehen.
ErwG 102--104: Was der Gesetzgeber unter „Open Source" versteht
Die Erwägungsgründe 102 bis 104 konkretisieren die Open-Source-Ausnahme und liefern wichtige Interpretationshilfen:
- ErwG 102 betont, dass Open-Source-Komponenten -- also Bibliotheken, Frameworks, Tools und Modelle -- die gesamte KI-Wertschöpfungskette durchdringen und Innovation fördern. Eine pauschale Regulierung würde die europäische Wettbewerbsfähigkeit gefährden.
- ErwG 103 stellt klar, dass die Ausnahme nicht gilt, wenn Open-Source-Software gegen Entgelt vertrieben wird und der Anbieter dabei die Kontrolle über Änderungen behält. Entscheidend ist also nicht allein die Lizenzbezeichnung, sondern die tatsächliche Offenheit des Modells.
- ErwG 104 differenziert zwischen dem Anbieter eines Open-Source-GPAI-Modells und dem Betreiber, der es in ein konkretes System integriert. Der Betreiber kann sich nicht auf die Open-Source-Ausnahme des ursprünglichen Modells berufen, wenn er es in einem regulierten Kontext einsetzt.
Was ist ausgenommen und was nicht?
Die folgende Tabelle gibt einen Überblick darüber, welche Regelungen des AI Act für Open-Source-KI und proprietäre KI jeweils gelten:
| Regelung | Open Source | Proprietär |
|---|---|---|
| Verbotene Praktiken (Art. 5) | Gilt vollständig | Gilt vollständig |
| Hochrisiko-Pflichten (Art. 6--27) | Gilt vollständig bei Hochrisiko-Einsatz | Gilt vollständig |
| Transparenzpflichten (Art. 50) | Gilt vollständig (Deepfakes, KI-Kennzeichnung) | Gilt vollständig |
| GPAI-Grundpflichten (Art. 53 Abs. 1) | Erleichtert (Art. 53 Abs. 2) | Gilt vollständig |
| GPAI mit systemischem Risiko (Art. 55) | Gilt vollständig | Gilt vollständig |
| Allgemeine KI-System-Pflichten | Ausgenommen (Art. 2 Abs. 12) | Gilt vollständig |
| Betreiberpflichten (Art. 26) | Gilt vollständig für den Betreiber | Gilt vollständig |
| Marktüberwachung | Gilt, soweit andere Pflichten anwendbar | Gilt vollständig |
Kernbotschaft: Die Open-Source-Ausnahme betrifft primär die Anbieterseite bei nicht-Hochrisiko-Systemen und die GPAI-Dokumentationspflichten. Sobald es um Grundrechtsschutz geht -- verbotene Praktiken, Hochrisiko-Systeme, systemische Risiken --, gibt es keine Privilegierung.
Art. 53 Abs. 2: Die GPAI-Erleichterung für Open Source
Was genau wird erleichtert?
Art. 53 Abs. 2 VO (EU) 2024/1689 enthält die spezifische Erleichterung für Open-Source-GPAI-Modelle. Im Kern gilt: Anbieter von GPAI-Modellen, deren Modellgewichte und Architektur unter einer freien Lizenz veröffentlicht werden, müssen nicht alle Dokumentations- und Transparenzpflichten nach Art. 53 Abs. 1 erfüllen.
Konkret entfallen für Open-Source-GPAI-Modelle folgende Anforderungen:
- Umfassende technische Dokumentation: Statt der vollständigen Dokumentation nach Anhang XII genügt eine reduzierte Zusammenfassung.
- Detaillierte Trainingsdaten-Zusammenfassung: Die Pflicht, eine ausführliche Zusammenfassung der Trainingsdaten nach einer von der Kommission vorgegebenen Vorlage zu erstellen, wird gelockert.
- Informationen für nachgelagerte Anbieter: Die umfangreichen Informationspflichten gegenüber Anbietern, die das Modell in ihre Systeme integrieren, werden reduziert.
Was nicht entfällt -- auch für Open Source:
- Die Pflicht zur Einhaltung des Urheberrechts (insbesondere Art. 53 Abs. 1 lit. c -- Bereitstellung einer Urheberrechts-Policy und Einhaltung der Text-and-Data-Mining-Vorbehalte nach der DSM-Richtlinie).
- Die Registrierungspflicht in der EU-Datenbank.
Die Grenze: Systemisches Risiko
Die vielleicht wichtigste Einschränkung der Open-Source-Erleichterung findet sich in der Verknüpfung mit Art. 51 Abs. 2 VO (EU) 2024/1689. Dort wird definiert, wann ein GPAI-Modell ein systemisches Risiko aufweist:
Ein GPAI-Modell gilt als Modell mit systemischem Risiko, wenn es über Fähigkeiten mit hoher Wirkung verfügt -- gemessen anhand geeigneter technischer Instrumente und Benchmarks -- oder wenn die kumulierte Rechenleistung für das Training mehr als 10²⁵ FLOPS beträgt.
Für Open-Source-GPAI-Modelle mit systemischem Risiko gelten sämtliche verschärften Pflichten aus Art. 55 VO (EU) 2024/1689, darunter:
- Modellbewertungen (Model Evaluations) einschließlich Adversarial Testing
- Risikobewertung und -minderung systemischer Risiken
- Incident-Tracking und -Reporting an das AI Office
- Angemessene Cybersicherheitsmaßnahmen für das Modell und seine Infrastruktur
Die Open-Source-Erleichterung nach Art. 53 Abs. 2 wird bei systemischem Risiko also vollständig aufgehoben. Ein Modell wie Llama 3.1 405B, dessen Trainingsaufwand die FLOPS-Schwelle überschreiten könnte, müsste demnach alle Pflichten eines GPAI-Modells mit systemischem Risiko erfüllen -- unabhängig davon, ob die Gewichte offen zugänglich sind oder nicht.
Bekannte Open-Source-Modelle und ihre Einstufung
Die Einstufung konkreter Modelle unter dem AI Act hängt von mehreren Faktoren ab -- insbesondere der Trainingsrechenleistung, den Fähigkeiten und der tatsächlichen Lizenzstruktur. Die folgende Übersicht gibt eine orientierende Einordnung (Stand: April 2026):
Llama (Meta)
Meta veröffentlicht die Llama-Modellfamilie unter einer Community-Lizenz, die weitgehende Nutzung erlaubt, aber bestimmte kommerzielle Einschränkungen enthält (z. B. Nutzerbeschränkung bei mehr als 700 Millionen monatlich aktiven Nutzern). Ob diese Lizenz den Open-Source-Kriterien des AI Act vollständig genügt, ist umstritten. Die größeren Varianten (z. B. Llama 3.1 405B) könnten die FLOPS-Schwelle für systemisches Risiko erreichen -- in diesem Fall wären die Art.-53-Abs.-2-Erleichterungen nicht anwendbar.
Mistral (Mistral AI)
Mistral AI verfolgt eine duale Strategie: Kleinere Modelle (z. B. Mistral 7B) werden unter der Apache-2.0-Lizenz veröffentlicht -- einer unbestrittenen Open-Source-Lizenz. Leistungsfähigere Modelle (z. B. Mistral Large) werden proprietär über eine API vertrieben. Für die echten Open-Source-Modelle dürfte die Erleichterung nach Art. 53 Abs. 2 greifen, sofern sie unterhalb der FLOPS-Schwelle bleiben.
Falcon (Technology Innovation Institute)
Die Falcon-Modelle (z. B. Falcon 40B, Falcon 180B) wurden unter der Apache-2.0-Lizenz veröffentlicht. Falcon 180B ist eines der größten offenen Modelle und nähert sich möglicherweise dem Schwellenwert für systemisches Risiko. Das TII als nicht-europäischer Anbieter (VAE) müsste zudem einen bevollmächtigten Vertreter in der EU benennen.
BLOOM (BigScience)
BLOOM -- ein 176-Milliarden-Parameter-Modell, das unter Koordination von Hugging Face und dem französischen CNRS entstand -- steht unter der RAIL-Lizenz (Responsible AI License). Diese enthält Nutzungsbeschränkungen, die nicht dem klassischen Open-Source-Verständnis entsprechen. Es ist daher fraglich, ob BLOOM vollständig von Art. 53 Abs. 2 profitieren kann.
Zusammenfassung der Einstufung
| Modell | Lizenz | Open-Source nach AI Act? | Systemisches Risiko? | Art. 53 Abs. 2 anwendbar? |
|---|---|---|---|---|
| Llama 3.1 (8B/70B) | Community License | Umstritten | Wahrscheinlich nein | Unklar |
| Llama 3.1 405B | Community License | Umstritten | Möglich | Wahrscheinlich nein |
| Mistral 7B | Apache 2.0 | Ja | Nein | Ja |
| Mistral Large | Proprietär | Nein | Möglich | Nein |
| Falcon 180B | Apache 2.0 | Ja | Grenzfall | Eingeschränkt |
| BLOOM | RAIL | Umstritten | Grenzfall | Unklar |
Grenzen der Open-Source-Ausnahme
Verbotene Praktiken gelten immer
Art. 5 VO (EU) 2024/1689 definiert KI-Praktiken, die in der EU unter keinen Umständen zulässig sind -- unabhängig davon, ob die eingesetzte Software Open Source ist oder nicht. Dazu gehören unter anderem:
- Soziale Bewertungssysteme (Social Scoring) durch öffentliche oder private Stellen
- Manipulative Techniken, die das Verhalten von Personen unterschwellig beeinflussen
- Biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen (mit engen Ausnahmen für die Strafverfolgung)
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
Wer ein Open-Source-Modell für solche Zwecke einsetzt oder anpasst, macht sich genauso strafbar wie bei Nutzung eines proprietären Systems. Die Bußgelder können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes betragen.
Hochrisiko-Pflichten gelten für den Betreiber
Ein häufiges Missverständnis: Viele Unternehmen gehen davon aus, dass die Open-Source-Ausnahme sie als Betreiber (Deployer) von der Compliance befreit. Das ist falsch.
Die Ausnahme nach Art. 2 Abs. 12 betrifft primär den Anbieter des Open-Source-Modells. Sobald ein Unternehmen dieses Modell in ein konkretes KI-System integriert und es in einem Hochrisiko-Kontext einsetzt, wird es selbst zum Anbieter dieses Systems und muss alle Hochrisiko-Pflichten nach Art. 6 bis 27 erfüllen. Dazu gehören:
- Risikomanagement (Art. 9)
- Datenqualität (Art. 10)
- Technische Dokumentation (Art. 11)
- Menschliche Aufsicht (Art. 14)
- Konformitätsbewertung (Art. 43)
Auch Betreiber, die ein Hochrisiko-System lediglich nutzen (ohne es zu verändern), treffen nach Art. 26 eigene Pflichten -- etwa zur Überwachung des Systems und zur Meldung schwerwiegender Vorfälle.
Praxis: Open-Source-KI im Unternehmen einsetzen -- 5 Tipps
1. Lizenz sorgfältig prüfen
Nicht jede Lizenz, die sich „open" nennt, erfüllt die Kriterien des AI Act. Prüfen Sie, ob die Lizenz des gewählten Modells tatsächlich freien Zugang, Veränderung und Weiterverbreitung ermöglicht. Lizenzen mit Nutzungsbeschränkungen (wie die Llama Community License oder die RAIL-Lizenz von BLOOM) fallen möglicherweise nicht unter die Open-Source-Ausnahme. Halten Sie die Lizenzprüfung schriftlich fest.
2. Einsatzkontext klassifizieren
Die entscheidende Frage lautet nicht „Ist das Modell Open Source?", sondern „Wofür setzen wir es ein?". Führen Sie für jeden geplanten Einsatz eine Risikoklassifizierung durch. Sobald der Einsatz in einen Hochrisiko-Bereich fällt (Anhang III VO (EU) 2024/1689) -- z. B. HR-Entscheidungen, Kreditvergabe, Zugangskontrolle zu Bildung --, gelten alle Hochrisiko-Pflichten uneingeschränkt.
3. Dokumentation eigenständig führen
Selbst wenn der Modellanbieter von den Dokumentationspflichten befreit ist, brauchen Sie als Betreiber eine eigene Dokumentation. Erfassen Sie:
- Welches Modell in welcher Version eingesetzt wird
- Welche Feinabstimmung (Fine-Tuning) oder Anpassungen vorgenommen wurden
- Welche Daten für das Fine-Tuning verwendet wurden
- Welche Sicherheitstests durchgeführt wurden
- Wer im Unternehmen für das System verantwortlich ist
4. Systemisches Risiko im Blick behalten
Die KI-Landschaft entwickelt sich rasant. Ein Modell, das heute unterhalb der FLOPS-Schwelle liegt, kann durch Updates oder neue Benchmarks in die Kategorie „systemisches Risiko" rutschen. Richten Sie einen Monitoring-Prozess ein, der regelmäßig prüft, ob sich die regulatorische Einstufung Ihrer eingesetzten Modelle verändert hat. Verfolgen Sie die Veröffentlichungen des AI Office, das verbindliche Einstufungen vornehmen kann.
5. Supply-Chain-Risiken managen
Open-Source-Modelle werden häufig über Plattformen wie Hugging Face bezogen, in mehreren Schritten feinabgestimmt und über verschiedene Infrastrukturen bereitgestellt. Jeder Schritt in dieser Kette kann neue Risiken einführen -- von manipulierten Modellgewichten über vergiftete Trainingsdaten bis zu Sicherheitslücken in der Serving-Infrastruktur. Etablieren Sie einen KI-Vendor-Due-Diligence-Prozess, der auch Open-Source-Quellen umfasst.
Häufige Fragen (FAQ)
Ist Open-Source-KI vom AI Act komplett befreit?
Nein. Die Ausnahme nach Art. 2 Abs. 12 VO (EU) 2024/1689 ist an enge Bedingungen geknüpft. Sie entfällt bei Hochrisiko-Systemen, verbotenen Praktiken und Transparenzpflichten nach Art. 50. Zudem gilt sie nur auf Anbieterseite -- Betreiber sind stets an ihre eigenen Pflichten gebunden.
Gilt die Open-Source-Ausnahme auch für GPAI-Modelle?
Teilweise. Art. 53 Abs. 2 gewährt Erleichterungen bei den Dokumentations- und Transparenzpflichten für GPAI-Modelle mit offenen Gewichten. Diese Erleichterung entfällt jedoch vollständig, wenn das Modell ein systemisches Risiko aufweist (Art. 51 Abs. 2). Die Urheberrechts-Compliance und die Registrierungspflicht gelten in jedem Fall.
Wir nutzen Llama für interne Zwecke -- müssen wir etwas beachten?
Ja. Auch bei rein interner Nutzung gelten die Verbote nach Art. 5 (z. B. keine Emotionserkennung am Arbeitsplatz). Wenn Sie Llama in einem Hochrisiko-Kontext einsetzen -- etwa zur Leistungsbewertung von Mitarbeitern --, unterliegen Sie als Betreiber den vollen Hochrisiko-Pflichten. Zudem ist zu prüfen, ob die Llama Community License tatsächlich als Open Source im Sinne des AI Act gilt.
Was passiert, wenn ein Open-Source-Modell nachträglich als systemisch riskant eingestuft wird?
Das AI Office kann gemäß Art. 51 Abs. 2 VO (EU) 2024/1689 Modelle verbindlich als GPAI-Modelle mit systemischem Risiko einstufen. In diesem Fall müssen auch Anbieter von Open-Source-Modellen innerhalb der gesetzten Fristen alle verschärften Pflichten nach Art. 55 erfüllen -- einschließlich Modellbewertungen, Incident Reporting und Cybersicherheitsmaßnahmen.
Können wir ein Open-Source-Modell feinabstimmen, ohne selbst zum Anbieter zu werden?
Es kommt darauf an. Wenn Sie ein Open-Source-Modell lediglich unverändert nutzen, bleiben Sie Betreiber. Wenn Sie es jedoch substanziell verändern -- etwa durch umfangreiches Fine-Tuning oder die Integration in ein neues System, das Sie Dritten anbieten --, können Sie nach Art. 25 VO (EU) 2024/1689 selbst zum Anbieter werden. In diesem Fall übernehmen Sie die vollen Anbieterpflichten für das modifizierte System.
Fazit
Open-Source-KI ist unter dem AI Act kein rechtsfreier Raum -- aber auch kein regulatorisches Minenfeld. Der Gesetzgeber hat mit den Art. 2 Abs. 12 und Art. 53 Abs. 2 VO (EU) 2024/1689 einen pragmatischen Mittelweg geschaffen: Erleichterungen für Anbieter offener Modelle, die Innovation und Forschung nicht unnötig behindern sollen, bei gleichzeitiger Aufrechterhaltung aller Schutzmaßnahmen, die dem Grundrechtsschutz dienen.
Für Unternehmen, die Open-Source-KI einsetzen, bedeutet das: Die Technologiewahl allein entbindet nicht von der Compliance. Entscheidend ist immer der konkrete Einsatzkontext, die Risikoklasse und die eigene Rolle als Anbieter oder Betreiber. Wer sich frühzeitig mit der Klassifizierung seiner KI-Anwendungen befasst und eine saubere Dokumentation führt, kann die Vorteile von Open-Source-KI nutzen -- und dabei regulatorisch auf der sicheren Seite bleiben.
Sie setzen Open-Source-KI in Ihrem Unternehmen ein und sind unsicher, welche Pflichten für Sie gelten? KI Comply unterstützt Sie mit praxisnahen Schulungen und Compliance-Tools, die speziell auf die Anforderungen des AI Act zugeschnitten sind. Jetzt kostenlos testen und Ihre KI-Compliance systematisch aufbauen.
Rechtsquellen
- Open-Source-Ausnahme GPAI – Art. 53 Abs. 2 VO (EU) 2024/1689 (Quelle)
- Allgemeine Ausnahme – Art. 2 Abs. 12 VO (EU) 2024/1689
- Systemisches Risiko – Art. 51 Abs. 2 VO (EU) 2024/1689
- Erwägungsgrund 102-104 – ErwG 102-104 VO (EU) 2024/1689
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.
Artikel teilen:
Weiterlesen
General Purpose AI (GPAI): Pflichten für Basismodelle nach dem AI Act
ChatGPT, Claude, Gemini — sie alle basieren auf GPAI-Modellen. Der AI Act reguliert diese erstmals. Welche Pflichten gelten für Anbieter und Nutzer?
Was ist der AI Act? Einfach erklärt für Unternehmen
Der EU AI Act ist das weltweit erste KI-Gesetz. Wir erklären die KI-Verordnung verständlich: Was sie regelt, wen sie betrifft und was Unternehmen jetzt tun müssen.
KI-Risikoklassen nach dem AI Act: Die 4 Stufen einfach erklärt
Der AI Act teilt KI-Systeme in vier Risikoklassen ein. Von verboten bis minimal — wir erklären jede Stufe mit Beispielen und Pflichten.
AI Act vs. DSGVO: Wie die beiden Regulierungen zusammenspielen
AI Act und DSGVO — zwei EU-Verordnungen, ein Ziel: verantwortungsvolle KI. Wir erklären die Unterschiede, Überschneidungen und was Unternehmen beachten müssen.

Ist KI-Output urheberrechtlich geschützt? Aktuelle Rechtslage
Warum rein maschinell erzeugte Inhalte in Deutschland keinen Werkschutz genießen, wo die Grenze zur schützfähigen KI-Assistenz verläuft und wie Unternehmen ihre Rechte an KI-gestütztem Content sichern.

KI für Textgenerierung: Urheberrecht und Haftung im Überblick
Wer mit ChatGPT oder Claude Texte generiert, stößt auf komplexe Urheberrechtsfragen. Dieser Leitfaden klärt die Rechtslage nach §§2, 7, 44b UrhG und zeigt, wie Unternehmen KI-Texte rechtskonform nutzen.
Machen Sie Ihr Team KI-fit
Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.
Preise ansehen