Wegweisende Entscheidung des Landgerichts München I

Das Landgericht München I hat mit Urteil vom 11.11.2025 (Az. 42 O 14139/24) bestätigt, dass sich auch die Anbieter von generativer KI an die Regeln des Urheberrechts halten müssen. Im Verfahren zwischen der GEMA und OpenAI ging es darum, dass ChatGPT Liedtexte aus bekannten Songs nahezu wortgleich wiedergegeben hatte. Nach Auffassung des Gerichts war das eine Verletzung von Urheberrechten, und zwar nicht nur durch die Ausgabe dieser Texte, sondern bereits durch das Training des KI-Systems mit urheberrechtlich geschützten Werken.
Die Richter machten deutlich, dass das maschinelle Lernen nicht außerhalb des Urheberrechts steht. Es handelt sich um eine Nutzung, die grundsätzlich die Zustimmung der Rechteinhaber voraussetzt. Ebenso darf ein KI-Modell geschützte Texte nicht wiedergeben, ohne dass dafür entsprechende Lizenzen bestehen. Damit wurde klar: Die Verantwortung liegt in erster Linie bei denjenigen, die solche Systeme entwickeln, betreiben und vermarkten.
Das Urteil zeigt exemplarisch, dass generative KI-Systeme mit komplexen rechtlichen Fragen behaftet sind. Sie greifen auf gewaltige Datenmengen zurück, in denen sich unweigerlich geschützte Werke befinden. Solange nicht transparent ist, welche Daten zum Einsatz kommen und wie sie genutzt werden, bleibt das Urheberrecht ein zentraler Konfliktpunkt. Das Gericht hat mit seiner Entscheidung einen wichtigen Impuls gegeben: Es reicht nicht, dass KI-Systeme technisch funktionieren. Vielmehr müssen sie auch rechtlich sauber aufgebaut sein.
Für die Praxis heißt das: Anbieter werden künftig stärker in die Pflicht genommen, ihre Modelle so zu gestalten, dass keine Urheberrechte verletzt werden. Das kann durch Lizenzvereinbarungen, Filtermechanismen oder eine sorgfältige Dokumentation der Trainingsdaten geschehen. Gleichzeitig braucht es bei allen Beteiligten ein Grundverständnis dafür, wie generative KI arbeitet und wo ihre rechtlichen Grenzen liegen.
Auch wenn das Urteil aus München noch nicht rechtskräftig ist, markiert es einen Wendepunkt in der rechtlichen Bewertung von KI-Systemen. Verantwortung und Haftung liegen in erster Linie bei den Entwicklern und Betreibern. Doch auch wer KI nutzt, sollte wissen, was sie kann, wo sie herkommt und welche Risiken mit ihren Ergebnissen verbunden sind. KI-Kompetenz bedeutet also nicht nur technisches Know-how, sondern auch das Bewusstsein, dass rechtliche Verantwortung mitgedacht werden muss. Dies gilt vor allem dort, wo Maschinen beginnen, menschliche Kreativität zu imitieren.








