Haftung für KI-Inhalte: Wegeweisende Entscheidung des Landgerichts Hamburg

Die Diskussion um Haftungsfragen im Zusammenhang mit Künstlicher Intelligenz (KI) gewinnt zunehmend an Bedeutung. Ein aktueller Beschluss des Landgerichts Hamburg vom 23. September 2025 (Az. 324 O 461/25) zeigt dies eindrucksvoll. Wer KI-generierte Inhalte veröffentlicht oder verbreitet, haftet grundsätzlich für deren Richtigkeit und rechtliche Zulässigkeit. Dies gilt auch für den Anbieter der KI selbst.
Der Fall: KI-Post auf Social Media mit falschen Behauptungen
Im entschiedenen Fall hatte das Unternehmen X.AI LLC als Betreiberin des X-Accounts Grok auf ihrem X-Account mehrere Behauptungen über einen Verein veröffentlicht. In dem Post hieß es unter anderem, der Verein erhalte staatliche Förderungen für seine Tätigkeit. Diese Aussage stellte sich als unwahr heraus.
X.AI berief sich zur Verteidigung unter anderem darauf, dass der Beitrag von einer KI generiert worden sei. Damit, so die Argumentation, könne man für eventuelle Fehler oder Falschinformationen nicht verantwortlich gemacht werden.
Die Entscheidung des LG Hamburg
Das Landgericht Hamburg sah das anders. Es stellte klar:
„An der äußerungsrechtlichen Unzulässigkeit der Darstellung ändert sich auch nicht deshalb etwas, weil die Beiträge des besagten Accounts von einer KI erstellt werden.“
Nach Auffassung des Gerichts können Nutzerinnen und Nutzer sozialer Netzwerke nicht automatisch erkennen, dass eine KI hinter einem Beitrag steht, insbesondere, wenn die KI selbst vorgibt, faktenbasierte Informationen zu liefern. X.AI habe sich die Aussagen der KI zu eigen gemacht, indem sie sie auf ihrem eigenen Account veröffentlichte und damit den Anschein erweckte, diese zu verantworten.
Das Gericht untersagte X.AI daher im Wege der einstweiligen Verfügung, die entsprechenden Aussagen weiterhin zu verbreiten. Die falsche Tatsachenbehauptung verletze das Vereinspersönlichkeitsrecht des Antragstellers (§§ 1004 Abs. 1 S. 2 analog, 823 Abs. 1 BGB i.V.m. Art. 2 Abs. 1, 19 Abs. 3 GG).
Rechtliche Einordnung: Verantwortung endet nicht bei der Maschine
Das Urteil zeigt deutlich: Auch wenn KI-Systeme selbstständig Inhalte erstellen, bleibt der Mensch hinter der Veröffentlichung rechtlich verantwortlich. Wer KI-generierte Texte, Bilder oder Posts verbreitet, trägt das Risiko für deren Rechtmäßigkeit. Die Verantwortung für KI-Handlungen kann nicht einfach an die Maschine „abgeschoben“ werden.
Das Urteil verdeutlicht, dass das Thema Haftung im Zusammenhang mit KI sowohl für Anwender als auch für Anbieter von KI-Systemen an Bedeutung gewinnt. Anwender müssen prüfen, ob die von einer KI generierten Inhalte rechtlich unbedenklich sind, bevor sie diese veröffentlichen. Anbieter wiederum müssen sicherstellen, dass ihre Systeme so gestaltet sind, dass Fehlinformationen, Rechtsverletzungen oder Täuschungen vermieden werden.
Die Entscheidung des LG Hamburg dürfte deshalb als Weckruf verstanden werden: KI kann die menschliche Verantwortung nicht ersetzen, und zwar weder technisch noch juristisch.








