KI-Halluzinationen und Recht: Urteil des LG Kiel zur Haftung bei fehlerhaften KI-Inhalten
Generative KI – Chancen und Risiken
Der Einsatz generativer Künstlicher Intelligenz (KI), insbesondere von Large Language Models (LLMs), revolutioniert den Umgang mit Daten und Informationen. Unternehmen profitieren von zahlreichen Vorteilen, doch die Technologie birgt auch erhebliche Risiken. Ein zentrales Problem sind sogenannte KI-Halluzinationen – fehlerhafte Inhalte, die aufgrund unzureichender Informationen entstehen.
Mit Urteil vom 29. Februar 2024 (Az. 6 O 151/23) hat das Landgericht Kiel eine richtungsweisende Entscheidung zur Haftung für KI-generierte Inhalte getroffen.
Unternehmen haftet für fehlerhafte KI-Informationen
Im konkreten Fall veröffentlichte ein mittelständisches Unternehmen falsche Informationen über ein anderes Unternehmen. Die Beklagte betrieb eine Plattform für Wirtschaftsinformationen, die automatisiert Daten aus öffentlichen Registern anzeigte. Das System meldete fälschlicherweise, die klagende Gesellschaft sei wegen Vermögenslosigkeit nach § 394 FamFG gelöscht worden – eine unzutreffende Behauptung.
Automatisierung schützt nicht vor Verantwortung
Die Beklagte nutzte eine KI-gestützte Software, die Informationen anhand von Suchbegriffen aus öffentlichen Quellen filtert. Auf der Website wurde zwar auf die automatisierte Generierung und mögliche Fehler hingewiesen, ergänzt um einen Haftungsausschluss.
Das LG Kiel stellte jedoch klar: Weder Automatisierung noch Disclaimer befreien von der Verantwortung. Die Klägerin verlangte Löschung und Unterlassung, was das Gericht aufgrund einer Verletzung des Unternehmenspersönlichkeitsrechts (§ 1004 BGB analog i. V. m. Art. 2 Abs. 1, Art. 19 Abs. 3 GG) bestätigte. Fehlinformationen können den Ruf und die Kreditwürdigkeit eines Unternehmens erheblich beeinträchtigen.
Wiederholungsgefahr durch ungeprüfte Systeme
Das Gericht sah die Wiederholungsgefahr als gegeben an, da die Beklagte weiterhin auf das automatisierte System vertraute, ohne dessen Ergebnisse ausreichend zu prüfen.
Bedeutung des Urteils für Unternehmen
Das Urteil verdeutlicht: Unternehmen tragen die volle Verantwortung für Inhalte, die ihre KI-Systeme generieren. Automatisierung oder Haftungsausschlüsse genügen nicht – Qualitätssicherung ist Pflicht.
Auch wenn die Europäische KI-Verordnung (AI Act) solche Maßnahmen nur für Hochrisiko-KI vorschreibt, bleibt das Risiko bestehen: Werden unrichtige Inhalte veröffentlicht, haftet das Unternehmen unabhängig von der Technologie.
Was sind KI-Halluzinationen?
KI-Halluzinationen sind Inhalte, die zwar plausibel erscheinen, aber nicht den zugrunde liegenden Fakten oder Quellen entsprechen. Sie entstehen oft durch fehlende Kontextinformationen oder fehlerhafte Interpretationen – insbesondere bei generativen Aufgaben wie Zusammenfassungen oder Antworten auf offene Fragen.
Ursachen von KI-Halluzinationen
- Trainingsdaten: Fehlerhafte, veraltete oder unvollständige Datensätze führen zu falschen Schlussfolgerungen.
- Trainingsmethoden: Schwachstellen wie „Attention Glitches“ oder „Exposure Bias“ können zu Fehlinterpretationen führen.
- Antwortgenerierung (Inferenz): Wahrscheinlichkeitsbasierte Prozesse bergen das Risiko unplausibler Ergebnisse, etwa durch „Likelihood Trap“ oder „Overconfidence“.
Erkennen von KI-Halluzinationen
- Unsicherheiten prüfen: Übermäßig detaillierte oder absolute Aussagen kritisch hinterfragen.
- Faktencheck: Aussagen mit verlässlichen Quellen abgleichen.
- Details hinterfragen: Unstimmigkeiten bei Daten, Namen oder Zahlen überprüfen.
- KI als Prüfer: Mit anderen Modellen oder Tools wie dem response_hallucination-Modul gegenprüfen.
Vermeidung und Reduzierung von Halluzinationen
Eine vollständige Vermeidung ist derzeit nicht möglich.
Maßnahmen zur Reduzierung:
- Präzise Eingaben formulieren
- Chain-of-Thought-Prompting zur Fehlererkennung
- Retrieval-Augmented Generation (RAG) zur Anreicherung mit externen Quellen
- Kritische menschliche Prüfung als letzter Sicherheitsschritt
SBS LEGAL – Ihre Kanzlei für das KI-Recht und ChatGPT-Recht
Möchten Sie mehr darüber erfahren, wie Sie sich vor den Risiken von KI-Halluzinationen schützen können? Wollen Sie wissen, ob Ihr Unternehmen für fehlerhafte, KI-generierte Inhalte haftbar gemacht werden kann? Oder sind Sie bereits mit einer Abmahnung konfrontiert und benötigen rechtlichen Beistand?
Dann sind Sie bei SBS LEGAL genau richtig!
Unser erfahrenes Team berät Sie umfassend zu allen rechtlichen Aspekten rund um den Einsatz von Künstlicher Intelligenz, einschließlich der Haftungsfragen. Wir unterstützen Sie dabei, Ihre Systeme rechtssicher zu gestalten, prüfen KI-generierte Inhalte auf mögliche Risiken und stehen Ihnen bei der Abwehr oder Durchsetzung von Ansprüchen zur Seite.
Für weitere Rückfragen stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie eine Rechtsberatung von den spezialisierten Fachanwälten der SBS LEGAL?
Der Erstkontakt zu SBS Legal ist immer kostenlos.
SBS Direktkontakt
telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per SBS Direktkontakt.