Was sind „Halluzinationen” bei Chatbots?
Damit sind Antworten gemeint, die
falsch oder frei erfunden sind, aber oft glaubwürdig klingen. Der Begriff stammt aus der Fachsprache der Künstlichen Intelligenz und beschreibt ein bekanntes Problem bei Sprachmodellen wie ChatGPT.
Wie entstehen solche Halluzinationen?
Chatbots wie ChatGPT arbeiten nicht mit echtem Wissen, sondern mit Wahrscheinlichkeiten. Sie berechnen, welche Wörter oder Sätze am besten zu deiner Eingabe passen – basierend auf dem, was sie im Training gelernt haben. Dabei kann es vorkommen, dass das Modell eine Antwort erfindet, die so aussieht, als wäre sie richtig, es aber nicht ist.
Das passiert zum Beispiel, wenn:
- das Modell nicht genügend Informationen hat,
- eine Frage mehrdeutig formuliert ist
- oder wenn du nach sehr speziellen Fakten fragst, die im Training nicht ausreichend vorkamen.
Solche halluzinierten Antworten sind schwer zu erkennen, da sie sprachlich oft korrekt und überzeugend formuliert sind. Das ist besonders problematisch bei Themen wie Medizin, Recht oder Wissenschaft, also überall dort, wo Fehlinformationen ernsthafte Folgen haben können.
Wie kannst du damit umgehen?
Hinterfrage die Antworten, vor allem bei sensiblen Themen.
- Prüfe Fakten mit anderen, zuverlässigen Quellen.
- Nutze deinen Chatbot als Werkzeug, zur Inspiration oder zum Einstieg, aber nicht als alleinige Wissensquelle.