Zurück zum Blog
Praxis
Regulierung

KI-Coding-Assistenten im Unternehmen: Copilot, Cursor und Co. rechtssicher nutzen

GitHub Copilot, Cursor, Amazon CodeWhisperer — KI-Coding-Tools sind allgegenwärtig. Welche rechtlichen Fragen sich stellen und was Sie beachten müssen.

KCT
KI Comply TeamKI-Compliance Experten
9. Mai 20255 Min. Lesezeit
KI-Coding-Assistenten im Unternehmen: Copilot, Cursor und Co. rechtssicher nutzen

KI-Coding-Assistenten im Unternehmen: Copilot, Cursor und Co. rechtssicher nutzen

Das Wichtigste in Kürze: KI-Coding-Assistenten wie GitHub Copilot, Cursor oder Amazon CodeWhisperer steigern die Produktivität von Entwicklerteams erheblich -- bringen aber rechtliche Risiken mit sich. Von Urheberrechtsfragen über Open-Source-Lizenzkontamination bis hin zum Verlust von Geschäftsgeheimnissen: Unternehmen brauchen klare Regeln für den Einsatz von KI im Softwareentwicklungsprozess. Dieser Artikel erklärt die Rechtslage nach UrhG, GeschGehG, DSGVO und AI Act -- und liefert eine 8-Punkte-Policy für den rechtssicheren Einsatz.

Softwareentwicklung ohne KI-Unterstützung? Für viele Teams ist das bereits undenkbar. Laut Branchenerhebungen nutzen über 70 % der professionellen Entwickler mindestens gelegentlich KI-Coding-Tools. Die Versprechen sind verlockend: schnellere Entwicklungszyklen, weniger Boilerplate-Code, automatische Dokumentation und intelligente Fehlersuche.

Doch was aus Produktivitätssicht ein Gewinn ist, wirft aus rechtlicher Perspektive fundamentale Fragen auf: Wem gehört KI-generierter Code? Welche Lizenzrisiken entstehen? Was passiert mit dem eigenen Quellcode, wenn er in die Cloud gesendet wird? Und welche Pflichten ergeben sich aus dem EU AI Act?

Dieser Artikel gibt Ihnen einen vollständigen Überblick -- von der Tool-Landschaft über die Rechtslage bis zur konkreten Unternehmens-Policy.

Überblick: Die wichtigsten KI-Coding-Tools im Vergleich

Der Markt für KI-Coding-Assistenten wächst rasant. Die folgende Tabelle vergleicht die fünf relevantesten Tools nach Funktionsumfang, Preismodell und Datenschutzansatz:

ToolAnbieterKernfunktionenPreis (pro Nutzer/Monat)Datenschutz-Modell
GitHub CopilotMicrosoft/GitHubCode-Vervollständigung, Chat, PR-Zusammenfassungen, Code-Reviewab 10 USD (Individual), 19 USD (Business), 39 USD (Enterprise)Business/Enterprise: Code wird nicht für Modelltraining verwendet; Opt-out für Telemetrie möglich
CursorAnysphereEditor mit integrierter KI, Multi-File-Editing, Codebase-Kontext, Terminal-Integrationab 20 USD (Pro), 40 USD (Business)Privacy Mode verfügbar: Code wird nicht gespeichert und nicht für Training genutzt
Amazon CodeWhisperer (jetzt Amazon Q Developer)AWSCode-Generierung, Sicherheitsscans, Lizenz-Erkennung, AWS-IntegrationFree Tier verfügbar, Professional ab 19 USDCode-Snippets werden im Professional-Tier nicht für Training verwendet; Lizenzfilter integriert
TabnineTabnineCode-Vervollständigung, lokale Modelle möglich, Team-Personalisierungab 12 USD (Dev), Enterprise auf AnfrageOn-Premises-Deployment möglich; trainiert ausschließlich auf lizenziell freigegebenem Code
Codeium (jetzt Windsurf)ExafunctionCode-Completion, Chat, Suche, Multi-Sprachen-SupportFree Tier, Teams ab 12 USDKein Training auf Nutzercode; SOC-2-zertifiziert

Wichtige Erkenntnis: Die Tools unterscheiden sich erheblich darin, wie sie mit Ihrem Code umgehen. Während manche Anbieter Code-Daten zur Modellverbesserung nutzen (können), bieten andere explizite Garantien oder sogar lokale Deployment-Optionen. Für Unternehmen ist die Wahl des richtigen Tiers und der richtigen Konfiguration entscheidend.

Urheberrecht: Wem gehört KI-generierter Code?

Die urheberrechtliche Einordnung von KI-generiertem Quellcode gehört zu den komplexesten Fragen des aktuellen IT-Rechts. Das deutsche Urheberrechtsgesetz schützt Computerprogramme als besondere Werkgattung in den §§ 69a bis 69g UrhG.

Ist KI-generierter Code urheberrechtlich geschützt?

Nach § 69a Abs. 3 UrhG wird ein Computerprogramm geschützt, wenn es ein individuelles Werk darstellt, das Ergebnis der eigenen geistigen Schöpfung des Urhebers ist. Das setzt einen menschlichen Schöpfer voraus.

Code, der vollständig von einer KI generiert wird -- ohne wesentliche kreative Steuerung durch einen Menschen -- erfüllt diese Voraussetzung grundsätzlich nicht. Das bedeutet:

  • Rein KI-generierter Code steht nach herrschender Meinung nicht unter Urheberrechtsschutz. Er ist gemeinfrei.
  • Vom Entwickler wesentlich bearbeiteter Code kann Urheberrechtsschutz genießen, wenn die menschliche Bearbeitung die Schwelle der eigenen geistigen Schöpfung überschreitet.
  • KI als Werkzeug: Nutzt ein Entwickler KI-Vorschläge lediglich als Ausgangspunkt und gestaltet den Code wesentlich um, liegt ein schutzfähiges Werk vor -- ähnlich wie bei der Nutzung von Textvorlagen.

In der Praxis bedeutet das: Unternehmen können sich bei reinem KI-Output nicht auf eigene Urheberrechte berufen, um Wettbewerber an der Nutzung ähnlichen Codes zu hindern. Ein strategischer Nachteil, der vielen nicht bewusst ist.

Lizenzrisiken durch Trainingsdaten

Das zweite urheberrechtliche Problem liegt auf der Input-Seite: KI-Coding-Modelle wurden auf Milliarden Zeilen öffentlich zugänglichen Quellcodes trainiert -- darunter Code aus GitHub-Repositories, Stack Overflow und Open-Source-Projekten. Nicht jeder dieser Code ist frei nutzbar.

Es ist dokumentiert, dass Tools wie GitHub Copilot unter bestimmten Umständen wörtliche oder nahezu wörtliche Kopien von Trainingscodeschnipseln ausgeben können. Wenn dieser Originalcode unter einer bestimmten Lizenz steht, übernehmen Sie als Nutzer möglicherweise unwissentlich Lizenzverpflichtungen -- oder verletzen fremde Urheberrechte.

In den USA laufen bereits mehrere Sammelklagen gegen GitHub, Microsoft und OpenAI wegen möglicher Urheberrechtsverletzungen durch Copilot (u. a. Doe v. GitHub, Inc.). In der EU steht eine vergleichbare Grundsatzentscheidung noch aus, aber die rechtliche Unsicherheit besteht gleichermaßen.

Open-Source-Lizenzkontamination: Das GPL-Risiko

Besonders brisant ist das Thema Open-Source-Lizenzkontamination -- ein Risiko, das vielen Entwicklungsteams nicht ausreichend bewusst ist.

Wie entsteht das Risiko?

Die GNU General Public License (GPL) ist eine sogenannte Copyleft-Lizenz. Sie verpflichtet jeden, der GPL-lizenzierten Code in eigene Software integriert, den gesamten abgeleiteten Quellcode ebenfalls unter der GPL zu veröffentlichen. Das gilt auch für proprietäre Software.

Wenn ein KI-Coding-Tool nun GPL-lizenzierten Code aus seinen Trainingsdaten reproduziert und ein Entwickler diesen unwissentlich in ein proprietäres Projekt übernimmt, kann das gravierende Folgen haben:

  • Pflicht zur Offenlegung des gesamten Quellcodes des betroffenen Projekts
  • Schadensersatzansprüche der GPL-Rechteinhaber
  • Lizenzverlust für die eigene proprietäre Software

Schutzmaßnahmen der Tool-Anbieter

Einige Anbieter haben auf dieses Risiko reagiert:

  • GitHub Copilot bietet einen Duplikatfilter, der Code-Vorschläge blockiert, wenn sie mit bekanntem Open-Source-Code übereinstimmen. Diese Funktion muss jedoch aktiv aktiviert werden.
  • Amazon Q Developer verfügt über einen integrierten Lizenzreferenz-Tracker, der angibt, wenn generierter Code einer bekannten Open-Source-Lizenz ähnelt, und die jeweilige Lizenz benennt.
  • Tabnine wirbt damit, ausschließlich auf lizenziell freigegebenem Code trainiert worden zu sein (permissive Lizenzen wie MIT und Apache 2.0).

Empfehlung: Aktivieren Sie Duplikatfilter immer. Setzen Sie zusätzlich auf Software Composition Analysis (SCA)-Tools, die Ihren Codebestand regelmäßig auf ungewollte Lizenz-Übernahmen prüfen.

Geschäftsgeheimnisschutz: Riskieren Sie Ihren Quellcode?

Der Schutz von Geschäftsgeheimnissen nach dem Gesetz zum Schutz von Geschäftsgeheimnissen (GeschGehG) stellt Unternehmen vor eine weitere Herausforderung beim Einsatz von KI-Coding-Tools.

Die Anforderung des § 2 GeschGehG

Nach § 2 Abs. 1 lit. b GeschGehG ist eine Information nur dann ein geschütztes Geschäftsgeheimnis, wenn sie Gegenstand von angemessenen Geheimhaltungsmaßnahmen ist. Das bedeutet: Der rechtliche Schutz besteht nur, solange das Unternehmen aktiv Maßnahmen ergreift, um die Vertraulichkeit zu wahren.

Hier liegt das Problem: Wer proprietären Quellcode an einen Cloud-basierten KI-Dienst sendet, gibt Informationen an einen Dritten weiter. Selbst wenn der Anbieter vertraglich zusichert, den Code nicht für Training zu verwenden, stellt sich die Frage, ob die Übermittlung selbst bereits die Angemessenheit der Geheimhaltungsmaßnahmen untergräbt.

Praktische Konsequenzen

  • Cloud-basierte Tools (Standard-Copilot, Cursor ohne Privacy Mode): Der Code wird an externe Server übermittelt. Ohne vertragliche Absicherung (NDA, Auftragsverarbeitungsvertrag) ist der Geheimnisschutz gefährdet.
  • Enterprise-Tiere mit Datenschutzgarantien (Copilot Enterprise, Cursor Business mit Privacy Mode): Besserer Schutz, aber eine sorgfältige Prüfung der AGB und DPA (Data Processing Agreement) ist zwingend erforderlich.
  • On-Premises / Self-Hosted-Lösungen (Tabnine Enterprise, selbst gehostete Modelle): Der Code verlässt das Unternehmensnetzwerk nicht. Aus Geheimnisschutz-Perspektive die sicherste Option.

Fazit: Unternehmen, deren Quellcode einen wesentlichen Wettbewerbsvorteil darstellt, sollten entweder Enterprise-Tiere mit vertraglichen Garantien nutzen oder auf Self-Hosted-Lösungen setzen.

DSGVO und Datenschutz

KI-Coding-Tools verarbeiten nicht nur Quellcode, sondern potenziell auch personenbezogene Daten -- etwa wenn Entwickler an Anwendungen arbeiten, die Nutzerdaten verarbeiten, oder wenn Testdaten mit realen Personenbezügen verwendet werden.

Relevante DSGVO-Pflichten

  • Rechtsgrundlage (Art. 6 VO (EU) 2016/679): Die Übermittlung personenbezogener Daten an einen KI-Tool-Anbieter benötigt eine Rechtsgrundlage. In der Regel kommt berechtigtes Interesse (Art. 6 Abs. 1 lit. f) in Betracht, aber eine Interessenabwägung ist dokumentiert durchzuführen.
  • Auftragsverarbeitung (Art. 28 DSGVO): Wenn der KI-Anbieter Code mit personenbezogenen Daten verarbeitet, ist ein Auftragsverarbeitungsvertrag (AVV) erforderlich.
  • Drittlandtransfer (Art. 44 ff. DSGVO): Die meisten KI-Coding-Anbieter haben ihren Sitz in den USA. Die Datenübermittlung erfordert geeignete Garantien -- in der Regel das EU-US Data Privacy Framework oder Standardvertragsklauseln.
  • Datenschutz-Folgenabschätzung (Art. 35 DSGVO): Bei systematischer Nutzung von KI-Coding-Tools im Unternehmen kann eine DSFA erforderlich sein, insbesondere wenn regelmäßig Code mit Personenbezug verarbeitet wird.

Praktische Maßnahmen

  1. Testdaten anonymisieren: Verwenden Sie niemals echte Kundendaten in Code, der an KI-Tools gesendet wird.
  2. AVV prüfen: Stellen Sie sicher, dass mit jedem KI-Coding-Anbieter ein DSGVO-konformer Auftragsverarbeitungsvertrag besteht.
  3. Transfermechanismen dokumentieren: Halten Sie fest, auf welcher Grundlage der Drittlandtransfer erfolgt.
  4. Datenschutzbeauftragten einbinden: Der DSB sollte bei der Tool-Auswahl und Konfiguration beteiligt werden.

AI Act: Pflichten für Unternehmen

Der EU AI Act (VO (EU) 2024/1689) schafft neue Pflichten, die auch beim Einsatz von KI-Coding-Tools relevant sind.

Art. 4: KI-Kompetenzpflicht für Entwickler

Art. 4 VO (EU) 2024/1689 verpflichtet Anbieter und Betreiber von KI-Systemen, sicherzustellen, dass ihr Personal und sonstige Personen, die mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen. Diese Pflicht gilt seit dem 2. Februar 2025.

Für Entwicklerteams, die KI-Coding-Tools nutzen, bedeutet das konkret:

  • Schulungspflicht: Entwickler müssen verstehen, wie KI-Coding-Assistenten funktionieren, welche Grenzen sie haben und welche Risiken bestehen.
  • Dokumentation: Die durchgeführten Schulungen sind zu dokumentieren.
  • Regelmäßige Aktualisierung: Da sich KI-Tools schnell weiterentwickeln, müssen Schulungen regelmäßig wiederholt werden.

Risikoklassifizierung

KI-Coding-Assistenten fallen in der Regel nicht in die Kategorie der Hochrisiko-KI-Systeme nach Anhang III des AI Act. Sie werden typischerweise als KI-Systeme mit minimalem Risiko eingestuft. Dennoch gelten die allgemeinen Pflichten aus Art. 4 (KI-Kompetenz) und gegebenenfalls Transparenzpflichten, wenn KI-generierter Code in Produkte einfließt, die selbst als KI-System klassifiziert werden.

Sicherheitsrisiken: KI-generierter Code ist nicht automatisch sicher

Ein oft unterschätztes Risiko: KI-generierter Code kann Sicherheitslücken enthalten. Mehrere Studien haben gezeigt, dass KI-Coding-Tools unter bestimmten Umständen Code vorschlagen, der bekannte Schwachstellenmuster enthält:

  • SQL Injection: KI-generierter Code verwendet manchmal String-Konkatenation statt parametrisierte Abfragen.
  • Cross-Site Scripting (XSS): Fehlende Input-Validierung und Output-Encoding in vorgeschlagenem Frontend-Code.
  • Hartcodierte Geheimnisse: KI kann Platzhalter für API-Keys oder Passwörter vorschlagen, die im fertigen Code vergessen werden.
  • Veraltete Abhängigkeiten: Vorschläge basieren auf Trainingsdaten und können veraltete oder unsichere Bibliotheksversionen referenzieren.
  • Fehlende Fehlerbehandlung: KI-generierter Code enthält oft unzureichendes Error Handling, was zu unbeabsichtigten Informationslecks führen kann.

Gegenmaßnahmen

  • Code-Reviews bleiben Pflicht: Jeder KI-generierte Code muss denselben Review-Prozess durchlaufen wie manuell geschriebener Code.
  • Static Application Security Testing (SAST): Automatisierte Sicherheitsscans in der CI/CD-Pipeline sind unverzichtbar.
  • Dependency Scanning: Automatische Prüfung vorgeschlagener Abhängigkeiten auf bekannte Schwachstellen (CVEs).
  • Security-Schulungen: Entwickler müssen für die spezifischen Sicherheitsrisiken von KI-generiertem Code sensibilisiert werden.

Die 8-Punkte-Policy für KI-Coding im Unternehmen

Basierend auf den dargestellten rechtlichen Anforderungen und Risiken empfehlen wir folgende acht Maßnahmen als Grundlage einer Unternehmens-Policy für KI-Coding-Tools:

1. Tool-Freigabe und Tier-Auswahl

Legen Sie fest, welche KI-Coding-Tools in welcher Konfiguration verwendet werden dürfen. Nur freigegebene Tools im freigegebenen Tier (mindestens Business/Enterprise) sind zulässig. Private Accounts und Free-Tiere sind für dienstliche Zwecke ausgeschlossen.

2. Duplikatfilter und Lizenzscanner aktivieren

Aktivieren Sie bei allen Tools die verfügbaren Duplikatfilter und Lizenzerkennungsfunktionen. Ergänzen Sie diese durch SCA-Tools (z. B. FOSSA, Snyk, Black Duck), die den gesamten Codebestand regelmäßig auf Lizenzkonformität prüfen.

3. Geheimhaltungsmaßnahmen definieren

Klassifizieren Sie Ihren Quellcode nach Vertraulichkeitsstufen. Besonders schützenswerter Code (Kernalgorithmen, Geschäftslogik, proprietäre Schnittstellen) darf nur mit Self-Hosted-Lösungen oder im Privacy Mode bearbeitet werden.

4. Personenbezogene Daten ausschließen

Stellen Sie durch technische und organisatorische Maßnahmen sicher, dass kein Code mit echten personenbezogenen Daten an Cloud-basierte KI-Tools gesendet wird. Nutzen Sie anonymisierte Testdaten.

5. AVV und Drittlandtransfer absichern

Schließen Sie mit jedem KI-Coding-Anbieter einen DSGVO-konformen Auftragsverarbeitungsvertrag ab. Dokumentieren Sie die Rechtsgrundlage für den Drittlandtransfer.

6. Obligatorisches Code-Review

Kein KI-generierter Code darf ohne menschliches Code-Review in die Produktionscodebasis gelangen. Reviewer müssen auf die spezifischen Risiken (Lizenz, Sicherheit, Qualität) geschult sein.

7. Entwickler-Schulungen nach Art. 4 AI Act

Führen Sie regelmäßige Schulungen für alle Entwickler durch, die KI-Coding-Tools nutzen. Inhalte: Funktionsweise der Tools, Urheberrechtsfragen, Lizenzrisiken, Sicherheitsrisiken und Datenschutz. Dokumentieren Sie die Teilnahme.

8. Regelmäßige Überprüfung und Audit

Überprüfen Sie vierteljährlich die Einhaltung der Policy. Führen Sie Lizenz-Audits durch. Aktualisieren Sie die Richtlinie bei neuen Tools, Funktionen oder Rechtsänderungen.

Häufig gestellte Fragen (FAQ)

Dürfen Entwickler GitHub Copilot Free für dienstliche Projekte nutzen?

Nein, das ist in der Regel nicht empfehlenswert. Das kostenlose Tier von GitHub Copilot bietet weniger Datenschutzgarantien als die Business- oder Enterprise-Variante. Code-Snippets können für Modellverbesserungen verwendet werden. Für den geschäftlichen Einsatz sollten Unternehmen mindestens Copilot Business nutzen, bei dem Ihr Code nicht für das Training verwendet wird und ein DPA verfügbar ist.

Haftet mein Unternehmen, wenn KI-generierter Code Urheberrechte verletzt?

Ja, grundsätzlich schon. Das Unternehmen, das den Code in seinen Produkten einsetzt, ist verantwortlich -- unabhängig davon, ob der Code von einem Menschen oder einer KI geschrieben wurde. GitHub bietet für Copilot Business- und Enterprise-Kunden zwar eine IP-Indemnity-Klausel (Haftungsfreistellung bei Urheberrechtsansprüchen Dritter), aber diese greift nur, wenn der Duplikatfilter aktiviert war. Andere Anbieter bieten vergleichbare Garantien bislang nicht flächendeckend an.

Kann KI-generierter Code als Geschäftsgeheimnis geschützt sein?

Schwierig. Rein KI-generierter Code, der kein Urheberrecht genießt, kann grundsätzlich als Geschäftsgeheimnis nach § 2 GeschGehG geschützt sein -- vorausgesetzt, er hat wirtschaftlichen Wert, ist nicht allgemein bekannt und unterliegt angemessenen Geheimhaltungsmaßnahmen. In der Praxis ist der Schutz aber fragil: Da derselbe Prompt bei verschiedenen Nutzern ähnlichen Code erzeugen kann, ist die Exklusivität schwer nachzuweisen.

Ist eine Datenschutz-Folgenabschätzung (DSFA) für KI-Coding-Tools erforderlich?

Es kommt darauf an. Eine DSFA nach Art. 35 DSGVO ist erforderlich, wenn die Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt. Bei KI-Coding-Tools ist das typischerweise der Fall, wenn regelmäßig Code mit personenbezogenen Daten (z. B. Kundendaten in Testszenarien) an externe Dienste übermittelt wird. Bei reiner Code-Vervollständigung ohne Personenbezug ist eine DSFA in der Regel nicht erforderlich -- eine dokumentierte Prüfung der Erforderlichkeit jedoch schon.

Welche Schulungen müssen Entwickler nach dem AI Act absolvieren?

Art. 4 VO (EU) 2024/1689 verlangt ein ausreichendes Maß an KI-Kompetenz unter Berücksichtigung der technischen Kenntnisse, der Erfahrung, der Ausbildung und des Kontexts der KI-Nutzung. Für Entwickler, die KI-Coding-Tools nutzen, sollte die Schulung mindestens umfassen: Grundlagen der KI-Code-Generierung, Erkennen von Halluzinationen und fehlerhaftem Code, Lizenzrisiken und Urheberrecht, Sicherheitsrisiken von KI-generiertem Code sowie die interne Unternehmens-Policy. Die Schulung muss dokumentiert werden und ist regelmäßig zu aktualisieren.

Fazit: KI-Coding erlauben, aber richtig regulieren

KI-Coding-Assistenten sind gekommen, um zu bleiben. Sie steigern die Produktivität, reduzieren Routinearbeit und helfen Entwicklern, sich auf architektonische und kreative Entscheidungen zu konzentrieren. Ein Verbot wäre kontraproduktiv -- und würde, wie bei Shadow AI, nur zur unkontrollierten Nutzung führen.

Aber: Ohne klare Regeln entstehen erhebliche rechtliche Risiken. Urheberrechtsverletzungen, Lizenzkontamination, Verlust von Geschäftsgeheimnissen, DSGVO-Verstöße und Sicherheitslücken sind keine theoretischen Szenarien, sondern reale Gefahren.

Die gute Nachricht: Mit einer durchdachten Policy, der richtigen Tool-Konfiguration, regelmäßigen Schulungen und konsequenten Code-Reviews lassen sich diese Risiken beherrschen. Unternehmen, die KI-Coding jetzt rechtssicher aufstellen, sichern sich einen doppelten Vorteil: Produktivitätsgewinne und Compliance-Sicherheit.


Ihr Entwicklerteam nutzt bereits KI-Coding-Tools -- oder plant den Einsatz? KI Comply unterstützt Sie mit praxisnahen Schulungen zur KI-Kompetenz nach Art. 4 AI Act, zugeschnitten auf Entwicklerteams und technische Mitarbeitende. Stellen Sie sicher, dass Ihr Team nicht nur produktiv, sondern auch compliant arbeitet.

Rechtsquellen

  • Urheberrecht Software§§69a-69g UrhG
  • KI-KompetenzArt. 4 VO (EU) 2024/1689 (Quelle)
  • Geschäftsgeheimnisse§2 GeschGehG
  • Open-Source-LizenzenGPL, MIT, Apache 2.0

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen