Skip to content
KI-generiertes Bild einer Halluzination

Wenn KI halluziniert: Warum Faktenprüfung bei ChatGPT & Co. unverzichtbar ist

Dass eine Künstliche Intelligenz halluziniert, klingt zunächst etwas merkwürdig, weil es sich um eine Wahrnehmungsstörung und damit um ein Phänomen handelt, das typischerweise bei Menschen auftreten kann.

Halluzination im Zusammenhang mit KI meint, dass diese Informationen hinzuerfindet, die so gar nicht stimmen. Doch was ist der Grund dafür?

Zunächst liegt es an den Fakten, die von dem KI-Modell zugrunde gelegt werden. Handelt es sich um seltene Fakten, sind diese nicht anhand von Mustern vorhersehbar. Das Modell ist aber darauf trainiert, eine Antwort geben zu wollen. Irgendeine Antwort ist danach besser als gar keine. Außerdem besteht statistisch gesehen die Möglichkeit der Richtigkeit bei Abgabe einer Antwort. Wenn keine Antwort gegeben wird, kann das Ergebnis in jedem Fall nicht richtig sein.

Was sollte also bei dem Gebrauch von KI immer beachtet werden?

Die Antworten sollten niemals ohne kritisches Hinterfragen hingenommen werden. Wenn Fußnoten angegeben werden, sollten diese auch tatsächlich überprüft werden. Dabei ist wichtig, dass nicht nur die Existenz der Fußnote, sondern auch die richtige Wiedergabe der dort enthaltenen Informationen abgeglichen werden.

Das bedeutet aber nicht, dass man ganz von der Nutzung von Künstlicher Intelligenz absehen sollte. Die Verwendung kann vor allem im Hinblick auf Texterstellung hilfreich sein. Dennoch ist ein Fakten-Check unentbehrlich.

Lesen Sie hier die Veröffentlichung von OpenAI zum Thema Halluzinationen von Large Language Modellen: https://openai.com/de-DE/index/why-language-models-hallucinate/

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft