Hamburg | KI erzählt Quatsch? Betreiber haften für Falschbehauptungen
Digitaler Durchblick
Hamburg (dpa/tmn) - Der Betreiber eines Chatbots muss für unwahre oder ehrverletzende Tatsachenbehauptungen der KI haften, wenn die Falschinformationen auf dem Account eines sozialen Netzwerks dauerhaft und öffentlich abrufbar sind. Das hat das Landgericht Hamburg in einem Urteil (Az.: 324 O 461/25) entschieden, auf das die Arbeitsgemeinschaft IT-Recht im Deutschen Anwaltverein (DAV) hinweist.
In dem Fall ging es um den KI-Chatbot Grok auf der Kurznachrichten-Plattform X (ehemals Twitter). Ein Nutzer hatte Grok nach Institutionen gefragt, die stark von staatlicher Förderung abhängen. Die KI generierte daraufhin eine Liste, in der explizit auch ein deutscher Verein genannt wurde. Der Chatbot behauptete etwa, dass der Verein hohe Bundesmittel erhalte und verwies dabei auch auf angebliche Quellen.
KI-Halluzinationen lässt Gericht nicht als Ausrede gelten
Tatsächlich erhielt der Verein jedoch keinerlei staatliche Gelder. Da die Antworten des Chatbots unmittelbar für alle Nutzer öffentlich sichtbar waren, sah der Verein sein Persönlichkeitsrecht verletzt und forderte die Unterlassung dieser Behauptung. Der Betreiber wehrte sich mit dem Argument, es handele sich um eine technisch bedingte Fehlleistung der KI, eine sogenannte Halluzination.
Das Landgericht Hamburg gab dem Verein recht. In den Urteilsgründen hieß es, dass der Durchschnittsnutzer KI-generierte Antworten als Tatsachenbehauptungen wahrnehme, insbesondere, wenn der Betreiber damit werbe, dass das System «faktenbasierte» Aussagen erstelle. Die Tatsache, dass der Inhalt von einer Maschine generiert wurde, ändere nichts an der rechtlichen Unzulässigkeit der Darstellung.
Ungeprüft veröffentlichen lassen heißt sich haftbar machen
Der Betreiber müsse sich den Output «zu eigen machen», da er das System so konfiguriert hat, dass die Ergebnisse ungeprüft direkt veröffentlicht würden. Damit hafte der Betreiber nach den Grundsätzen der Störerhaftung für die Verletzung des Vereinspersönlichkeitsrechts. Die Richter untersagten X, die Behauptung weiterzuverbreiten.
Betroffene können also in einem solchen Fall Unterlassung verlangen, selbst wenn der beanstandete Inhalt nicht von einem Menschen, sondern von einer KI stammt, erklärt der DAV.
Betreiber von KI-Chatbots müssen für unwahre Tatsachenbehauptungen einstehen, die ihre Systeme generieren und öffentlich zugänglich machen. Dabei spiele es rechtlich keine Rolle, ob eine Falschaussage von einem Menschen verfasst oder von einer künstlichen Intelligenz «erfunden» (halluziniert) wurde.
© dpa-infocom, dpa:260311-930-804246/1
NRW & die Welt
Oslo | Nach Infekt im Urlaub: König Harald wieder im Einsatz
NRW & die Welt
Berlin | Neue App gegen Onlinesucht ab sofort verfügbar
Polizeibericht
Eigentümer einer Münzeinwurf Kassette gesucht
Lifestyle & Freizeit
Berlin | Freitag, der 13.: Unglückstag oder Denkfehler?
NRW & die Welt
Berlin | Steinmeier für Social-Media-Verbot für Kinder
Lokalnachrichten
Volle Tagesordnung im Bielefelder Stadtrat
Lokalnachrichten
Queere Jugendarbeit in Bielefeld finanziell gesichert
Stars & Sternchen
Berlin | Weimer: Musiker müssen mit Streaming genug Geld verdienen
NRW & die Welt
Köln | Rückruf von Zwiebelmett bei Penny
Lifestyle & Freizeit