Dies ist eine alte Version des Dokuments!
Halluzination (bei KI) Kurz gesagt
Eine Halluzination bedeutet bei Künstlicher Intelligenz, dass sie Inhalte erfindet, die plausibel klingen, aber nicht korrekt oder frei ausgedacht sind.
Was bedeutet Halluzination bei KI?
Bei KI bezeichnet der Begriff Halluzination, dass ein System:
falsche Fakten nennt
Quellen erfindet
Zusammenhänge vorgibt, die nicht existieren
Die KI „halluziniert“ nicht bewusst – sie versucht lediglich, eine wahrscheinliche Antwort zu erzeugen.
Warum halluziniert KI?
KI-Modelle wie ChatGPT arbeiten mit Wahrscheinlichkeiten. Sie wissen nicht, was wahr ist, sondern nur, was sprachlich passt.
Halluzinationen entstehen zum Beispiel, wenn:
die Frage sehr spezifisch ist
Informationen fehlen
die KI unter Zeit- oder Längenbeschränkungen antwortet
der Prompt unklar ist
Beispiele für Halluzinationen
Typische Fälle:
erfundene Bücher oder Studien
falsche Jahreszahlen
nicht existierende Gesetze
überzeugend klingende, aber falsche Erklärungen
Gerade weil die Antworten sicher formuliert sind, fallen Fehler oft nicht sofort auf.
Ist das ein Fehler der KI?
Ja – aber ein bekanntes und unvermeidbares Problem heutiger KI-Modelle.
KI ist darauf optimiert:
gut klingende Texte zu erzeugen nicht darauf, immer recht zu haben.
Wie kann man Halluzinationen vermeiden?
Ganz vermeiden lassen sie sich nicht, aber man kann sie reduzieren:
klare Prompts verwenden
nach Quellen fragen
Fakten gegenprüfen
KI nicht als alleinige Informationsquelle nutzen
Wo sind Halluzinationen besonders problematisch?
Medizin
Recht
Finanzen
Wissenschaftliche Arbeiten
In diesen Bereichen sollte KI nur unterstützend, nicht entscheidend eingesetzt werden.
Für wen ist das wichtig?
Alle KI-Nutzer
Schüler & Studierende
Lehrkräfte
Berufstätige
Kurz gesagt: für jeden, der KI-Ergebnisse ernst nimmt.
Verwandte Begriffe & Themen
Was ist Künstliche Intelligenz?
📝 Merksatz: KI kann überzeugend schreiben – auch dann, wenn sie falsch liegt.
