Die rasante Verbreitung von Künstlicher Intelligenz (KI) in der Kommunikation stellt das Recht vor neue Fragen: Wenn eine KI-Anwendung Aussagen trifft – wer trägt dafür die Verantwortung? Diese Frage gewinnt insbesondere dann an Relevanz, wenn die KI falsche Tatsachenbehauptungen verbreitet. Im Folgenden wird erläutert, wem Äußerungen einer KI zugerechnet werden können, welche Rechtsgrundlagen heranzuziehen sind und welche praktischen Konsequenzen sich daraus ergeben. Im Fokus steht der Beschluss des Landgerichts Hamburg vom 23. September 2025 (Az. 324 O 461/25), mit dem die Betreiberin eines KI-Bots zur Unterlassung verurteilt wurde.
Sachverhalt
Ausgangspunkt war eine öffentliche Diskussion auf einer Social-Media-Plattform, in der der KI-Chatbot „Grok“ des Betreibers X.AI LLC auf Nachfrage behauptete, der Verein Campact e. V. erhalte einen hohen Anteil an Bundesmitteln. Diese Aussage war unwahr. Das Landgericht Hamburg erließ im Eilverfahren eine einstweilige Verfügung und untersagte die weitere Verbreitung der falschen Tatsachenbehauptung. Entscheidend: Obwohl die Äußerung von einer KI generiert wurde, rechnete das Gericht sie dem Betreiber zu und bewertete sie als äußerungsrechtlich unzulässige Tatsachenbehauptung mit ehrabträglicher Wirkung.
Rechtsgrundlagen der Zurechnung
Kernnormen sind deliktsrechtliche Unterlassungs- und Schadensersatzansprüche. Ein Schadensersatzanspruch kann sich aus § 823 Abs. 1 BGB ergeben. Der Unterlassungsanspruch wird im Persönlichkeitsrecht regelmäßig über § 1004 BGB analog hergeleitet. Träger des Vereins-Persönlichkeitsrechts kann ein eingetragener Verein als juristische Person sein (§ 21 BGB). Die Meinungs- und Pressefreiheit findet ihre Grenze bei unwahren Tatsachenbehauptungen zu Lasten Dritter (Art. 5 GG).
Betreiber- und Anbieterhaftung
Bei öffentlich verbreiteten Inhalten kann die Verantwortung dem Betreiber zugerechnet werden, insbesondere wenn er sich die Aussagen „zu eigen“ macht (etwa durch Veröffentlichung auf einem offiziellen Account). Maßgeblich ist nicht die technische Herkunft (KI), sondern die rechtliche Bewertung der Veröffentlichung im Außenverhältnis. Deliktische Anspruchsgrundlagen – namentlich § 823 Abs. 1 BGB i. V. m. dem allgemeinen Persönlichkeitsrecht – sowie der Unterlassungsanspruch aus § 1004 BGB analog greifen auch dann, wenn die Aussage von einer KI erzeugt wurde.
Wer ist „Verantwortlicher“? Betreiber vs. Nutzer
Das LG Hamburg hat die Zurechnung nicht beim anfragenden Nutzer, sondern beim Betreiber der KI-Anwendung verortet. Begründung: (1) Die Äußerung wurde im öffentlichen Raum über einen offiziellen Betreiber-Account verbreitet; (2) der Nutzer veranlasste lediglich eine Anfrage, die KI generierte die Antwort; (3) durch die Präsentation auf dem eigenen Account brachte der Betreiber die Aussage als eigene in den Verkehr. Das führt haftungsrechtlich zur Verantwortlichkeit des Betreibers auf Unterlassung (§ 1004 BGB analog) und ggf. Schadensersatz (§ 823 Abs. 1 BGB), sofern weitere Voraussetzungen vorliegen.
Tatsachenbehauptung oder Meinung?
Der KI-Beitrag wurde als (unwahre) Tatsachenbehauptung eingeordnet. Entscheidend war die Nutzerperspektive: Der Bot trat mit dem Anspruch auf, faktenbasierte Informationen zu liefern. Ein pauschaler KI-Disclaimer („kann Fehler enthalten“) entkräftet die Zurechnung nicht. Bei bewusst oder fahrlässig unwahren Tatsachenbehauptungen greift der Schutz der Meinungsfreiheit nicht (vgl. Art. 5 GG), sodass die zivilrechtlichen Abwehransprüche eröffnen.
Prüf- und Organisationspflichten des Betreibers
Die Entscheidung impliziert erhöhte Prüf- und Organisationspflichten für Betreiber von öffentlich agierenden KI-Systemen. Sie haben geeignete Vorkehrungen zu treffen, um die Verbreitung objektiv falscher Tatsachenbehauptungen zu verhindern oder kurzfristig zu unterbinden. Unterlassen sie dies, haften sie nach § 823 Abs. 1 BGB und auf Unterlassung nach § 1004 BGB analog.
Konsequenzen für die Praxis
- Öffentliche KI-Kommunikation = Inhaltsanbieter: Betreiber von KI-Chatbots oder Social-Media-Bots sind wie klassische Inhaltsanbieter zu behandeln. Deliktische Abwehr- und Ersatzansprüche – § 1004 BGB analog, § 823 Abs. 1 BGB – bleiben anwendbar.
- Compliance & Monitoring: Erforderlich sind Prozesse zur Qualitätssicherung (Review-Schleifen, Moderation, Korrekturverfahren), um falsche Tatsachen schnell zu erkennen und zu löschen.
- Disclaimer genügen nicht: Allgemeine KI-Hinweise entlasten nicht. Es kommt auf Organisation, Kontrolle und zügige Abhilfe an.
- Reaktionsoptionen Betroffener: Monitoring, Abmahnung, Eilantrag auf Unterlassung sowie (bei Voraussetzungen) Schadensersatz aus § 823 Abs. 1 BGB.
Einordnung und offene Flanken
Der Beschluss des LG Hamburg ist wegweisend: Er zeigt, dass die rechtliche Bewertung nicht an der technischen Herkunft (KI) anknüpft, sondern an der öffentlichen Verbreitung und der Zueigenmachung. Zugleich handelt es sich um eine Entscheidung im einstweiligen Rechtsschutz; eine höchstrichterliche Klärung steht aus. Offen bleibt, wie Gerichte Falschangaben in nicht-öffentlichen KI-Interaktionen (z. B. private Chats) werten und welche Prüf- und Organisationsstandards im Detail als „ausreichend“ gelten. Bis zu einer Fortentwicklung der Rechtsprechung ist Betreibern zur vorsorglichen Etablierung strenger Compliance-Prozesse zu raten.
Handlungsempfehlungen
- Governance-Strukturen: Zuständigkeiten, Eskalationspfade, Dokumentation und schnelle Take-down-Prozesse definieren.
- Risikobasierte Kontrollen: Inhalte mit potentiell reputationsrelevanten Tatsachenbehauptungen priorisiert prüfen; menschliche Review-Schritte einplanen.
- Vertragsgestaltung: Interne Richtlinien und externe AGB/AGV anpassen; klare Regeln zum Umgang mit Meldungen Dritter.
- Rechtsdurchsetzung: Betroffene sollten bei Falschbehauptungen unverzüglich Beweise sichern und Unterlassungsansprüche – gestützt auf § 1004 BGB analog und § 823 Abs. 1 BGB – geltend machen.
Fazit
Die Äußerung einer KI ist rechtlich nicht einer „autonomen Maschine“ zuzuschreiben, sondern demjenigen, der sie betreibt und öffentlich in Verkehr bringt. Der Beschluss des Landgerichts Hamburg (Az. 324 O 461/25) markiert einen deutlichen Schritt hin zu einer Betreiberverantwortung für KI-Kommunikation. Unwahre Tatsachenbehauptungen unterfallen den klassischen zivilrechtlichen Schutzinstrumenten: Unterlassung nach § 1004 BGB analog und ggf. Schadensersatz nach § 823 Abs. 1 BGB. Die Meinungsfreiheit endet bei objektiv falschen Tatsachen (vgl. Art. 5 GG). Für die Praxis bedeutet das: Wer KI öffentlich einsetzt, braucht wirksame Prüf- und Korrekturmechanismen. Betroffene haben bewährte prozessuale Mittel, um sich effektiv zu wehren.


