Verstoßen Sprachmodelle wie ChatGPT durch das Training mit urheberrechtlich geschütztem Material und die Wiedergabe entsprechender Inhalte (sogenannte Outputs) ohne Zustimmung der Rechteinhaber gegen das Urheberrecht? Mit dieser Frage beschäftigte sich das Landgericht München I und fällte ein Urteil, das (sollte es auch in höheren Instanzen Bestand haben) weitreichende Folgen für die Entwicklung, den Betrieb und den Einsatz von KI-Systemen in Deutschland und Europa hätte. Und zwar auch für Unternehmen, die solche Technologien in eigene Produkte oder Geschäftsprozesse integrieren (Urteil vom 11. November 2025, Az.: 42 O 14139/24).
Hintergrund: GEMA gegen OpenAI
Die GEMA (Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte) hatte im Namen mehrerer deutscher Urheber Klage gegen OpenAI, dem Unternehmen hinter ChatGPT erhoben. Nach Angaben der GEMA konnten Liedtexte dieser Künstler bei der Nutzung der Sprachmodelle GPT-4 und GPT-4o nahezu originalgetreu als Antworten ausgegeben werden, was für eine Vervielfältigung und Veröffentlichung urheberrechtlich geschützter Werke spreche.
OpenAI wies die Vorwürfe zurück und bestritt eine urheberrechtliche Verletzung. Die Sprachmodelle würden keine konkreten Werke speichern, sondern bildeten nur Wahrscheinlichkeiten sprachlicher Zusammenhänge ab. Die so erzeugten Texte seien daher neu generierte Inhalte, keine Kopien der Originalwerke. Etwaige Ausgaben urheberrechtlich geschützter Texte seien zudem Folge von Nutzeranfragen und somit den Nutzern, nicht OpenAI, zuzurechnen. Schließlich argumentierte OpenAI, dass selbst mögliche Vervielfältigungen durch die Schranke für Text- und Data-Mining (§ 44b UrhG) gedeckt seien.
Die Entscheidung des LG München I
Die 42. Zivilkammer folgte der Argumentation von OpenAI nicht und gab der Klage der GEMA im Wesentlichen statt:
- Das Gericht bejahte eine urheberrechtlich relevante Vervielfältigung im Sinne von § 16 UrhG und Art. 2 der InfoSoc-Richtlinie. Die Werke seien in ihren wesentlichen Zügen im Sprachmodell wiedererkennbar gespeichert gewesen. Ein bloßer Zufall des Outputs könne ausgeschlossen werden, da die generierten Liedtexte in Länge und Komplexität eine zufällige Reproduktion unmöglich machten. Dass die Inhalte lediglich in Form von Modellparametern oder Wahrscheinlichkeitswerten gespeichert seien, ändere daran nichts. Entscheidend sei, dass die Werke technisch reproduzierbar und damit mittelbar wahrnehmbar seien.
- Darüber hinaus wertete das Gericht auch die Ausgabe der Liedtexte als Output als unzulässige Vervielfältigung (§ 16 UrhG) und öffentliche Zugänglichmachung (§ 19a UrhG), da auch hier die Werke als solche deutlich erkennbar geblieben seien.
- Die Verantwortung hierfür liege nach Auffassung der Kammer zudem bei OpenAI und nicht bei den Nutzern. OpenAI habe nämlich den Output maßgeblich durch die Architektur des Modells beeinflusst. Die Eingaben der Nutzer (sogenannte Prompts) hätten hierbei keinen entscheidenden Einfluss auf den Output, da sie allgemein gehalten und ohne konkrete inhaltliche Vorgaben gestaltet waren.
Die Kammer verneinte zudem das Vorliegen der Schranke des Text- und Data-Mining (§ 44b UrhG). Diese Norm gestattet grundsätzlich Vervielfältigungen, die erforderlich sind, um Informationen aus digitalen oder digitalisierten Werken automatisiert zu analysieren. Der Gesetzgeber war dabei vom Grundgedanken geleitet, dass nicht die Vervielfältigung als solche, sondern die nachfolgende Analyse im Vordergrund steht. Dadurch würden die Verwertungsinteressen der Urheber grundsätzlich nicht beeinträchtigt.
Im vorliegenden Fall seien die Voraussetzungen dieser Schranke jedoch nicht erfüllt. Da beim Training der KI ganze Werke dauerhaft im Modell gespeichert würden, werde die wirtschaftliche Verwertung der betroffenen Urheber erheblich beeinträchtigt. Eine derartige Nutzung könne daher nicht mehr als bloße Analysehandlung gewertet werden, sondern stelle einen eigenständigen Eingriff in das Verwertungsrecht dar.
Ebenso verneinte die Kammer das Vorliegen eines unwesentlichen Beiwerks nach § 57 UrhG. Der Trainingsdatensatz sei kein urheberrechtlich geschütztes Werk, das die Unwesentlichkeit der Vervielfältigung als Beiwerk begründen könne.
Schließlich verneinte die Kammer auch eine rechtfertigende Einwilligung der Rechteinhaber. Das Training von Sprachmodellen sei in diesem Zusammenhang weder üblich noch erwartbar.
Rechtliche Einschätzung
Mit seinem Urteil sendet das Landgericht München I ein klares Signal an die gesamte KI-Branche: Das Urheberrecht endet nicht an der Schwelle der (autonomen) Verarbeitung durch die KI. Für die Praxis bedeutet das:
- KI-Systeme sind keine Black Boxes außerhalb des urheberrechtlichen Regelungsregimes. Auch technische Vorgänge wie die Speicherung in Parametern können rechtlich relevant sein.
- Das Haftungsrisiko liegt grundsätzlich beim Anbieter der KI, nicht beim Endnutzer. Unternehmen, die KI-Systeme entwickeln oder trainieren, müssen sicherstellen, dass die Trainingsdaten rechtmäßig genutzt werden.
- Lizenzen und Datenquellen rücken in den Mittelpunkt der Compliance.
Auch wenn sich das Urteil in erster Linie gegen den Anbieter eines Sprachmodells richtet, hat es weitreichende Folgen für alle Unternehmen, die KI-Systeme nutzen oder in Produkte integrieren. Wer urheberrechtswidrige Outputs aus KI-Tools veröffentlicht oder kommerziell nutzt, kann selbst in die Haftung geraten, unabhängig davon, ob die Rechtsverletzung ursprünglich vom KI-Anbieter ausgegangen ist. Daher gilt: KI-generierte Inhalte sollten stets sorgfältig geprüft werden, bevor sie veröffentlicht oder in Marketingmaterialien, Software, Publikationen oder Produkten verwendet werden.
Darüber hinaus ist eine vertragliche Absicherung gegenüber dem KI-Anbieter unerlässlich. Unternehmen sollten ihre Verträge genau daraufhin prüfen,
- welche Nutzungsrechte und Gewährleistungen eingeräumt werden,
- ob der Anbieter die Rechtmäßigkeit der Erhebung seiner Trainingsdaten zusichert, und
- ob Haftungsausschlüsse oder Freistellungsklauseln enthalten sind. Idealerweise werden KI-Dienstleister vertraglich ausdrücklich zur Einhaltung urheberrechtlicher Vorgaben und zur rechtmäßigen Datenverarbeitung verpflichtet.
Gegebenenfalls muss sich frühzeitig um entsprechende Lizenzen gekümmert werden.
Auch intern ist Transparenz entscheidend. Unternehmen sollten dokumentieren, welche KI-Systeme eingesetzt werden, woher die Daten stammen und zu welchen Zwecken sie verwendet werden. Ein KI-Register oder eine Risikobewertung der eingesetzten KI-Systeme kann dabei helfen, Verantwortlichkeiten klar zuzuordnen und Risiken frühzeitig zu erkennen.
Dabei ist eine gezielte Sensibilisierung der Mitarbeitenden unerlässlich. Wer KI-Tools im Arbeitsalltag nutzt, sollte verstehen, welche rechtlichen Grenzen bestehen und welche Verantwortung mit der Nutzung einhergeht. Schulungen zu Urheberrecht und Datenschutz beim KI-Einsatz helfen, Fehlverhalten zu vermeiden und das Bewusstsein für einen sorgfältigen und rechtskonformen Umgang mit KI-Systemen im gesamten Unternehmen zu stärken.
Dies ist nicht nur aus Compliance-Sicht sinnvoll, sondern auch rechtlich verpflichtend. Nach Art. 4 AI Act müssen Personen, die mit dem Betrieb oder der Nutzung von KI-Systemen betraut sind, über eine angemessene KI-Kompetenz verfügen.
Tipp: Nutzen Sie dafür die KI-Kompetenzschulung für Mitarbeiter und die KI-Schulung für Führungskräfte von activeMind.academy.
Darüber hinaus sollten Unternehmen prüfen, ob eingesetzte KI-Systeme eine Memorisierung von Daten technisch verhindern oder begrenzen können, so dass ein rechtswidriges Training mithilfe urheberrechtlich geschützter Werke ausgeschlossen werden kann.
Ausblick
OpenAI hat bereits angekündigt, gegen das Urteil vorzugehen. Der Rechtsstreit ist somit noch nicht abgeschlossen und wird mit hoher Wahrscheinlichkeit erst in letzter Instanz abschließend entschieden. Ein anders lautendes Urteil ist durchaus möglich. Erst kürzlich hatte ein Londoner Gericht die Urheberrechtsklage von Getty Images gegen Stability AI abgewiesen und eine rechtswidrige Vervielfältigung der Originalwerke verneint.
Bis zu einer höchstrichterlichen Klärung durch den BGH bleibt das Urteil des Landgerichts München I jedoch ein wichtiger Weckruf für die KI-Branche in Deutschland und der EU: Es macht deutlich, dass Unternehmen sich frühzeitig mit den urheberrechtlichen Risiken beim Einsatz von KI-Systemen auseinandersetzen müssen.
