Benutzer-Werkzeuge

Webseiten-Werkzeuge


begriffe:halluzination

Dies ist eine alte Version des Dokuments!


Halluzination (bei KI) Kurz gesagt

Eine Halluzination bedeutet bei Künstlicher Intelligenz, dass sie Inhalte erfindet, die plausibel klingen, aber nicht korrekt oder frei ausgedacht sind.

Was bedeutet Halluzination bei KI?

Bei KI bezeichnet der Begriff Halluzination, dass ein System:

falsche Fakten nennt

Quellen erfindet

Zusammenhänge vorgibt, die nicht existieren

Die KI „halluziniert“ nicht bewusst – sie versucht lediglich, eine wahrscheinliche Antwort zu erzeugen.

Warum halluziniert KI?

KI-Modelle wie ChatGPT arbeiten mit Wahrscheinlichkeiten. Sie wissen nicht, was wahr ist, sondern nur, was sprachlich passt.

Halluzinationen entstehen zum Beispiel, wenn:

die Frage sehr spezifisch ist

Informationen fehlen

die KI unter Zeit- oder Längenbeschränkungen antwortet

der Prompt unklar ist

Beispiele für Halluzinationen

Typische Fälle:

erfundene Bücher oder Studien

falsche Jahreszahlen

nicht existierende Gesetze

überzeugend klingende, aber falsche Erklärungen

Gerade weil die Antworten sicher formuliert sind, fallen Fehler oft nicht sofort auf.

Ist das ein Fehler der KI?

Ja – aber ein bekanntes und unvermeidbares Problem heutiger KI-Modelle.

KI ist darauf optimiert:

gut klingende Texte zu erzeugen nicht darauf, immer recht zu haben.

Wie kann man Halluzinationen vermeiden?

Ganz vermeiden lassen sie sich nicht, aber man kann sie reduzieren:

klare Prompts verwenden

nach Quellen fragen

Fakten gegenprüfen

KI nicht als alleinige Informationsquelle nutzen

Wo sind Halluzinationen besonders problematisch?

Medizin

Recht

Finanzen

Wissenschaftliche Arbeiten

In diesen Bereichen sollte KI nur unterstützend, nicht entscheidend eingesetzt werden.

Für wen ist das wichtig?

Alle KI-Nutzer

Schüler & Studierende

Lehrkräfte

Berufstätige

Kurz gesagt: für jeden, der KI-Ergebnisse ernst nimmt.

Verwandte Begriffe & Themen

Was ist ChatGPT?

Was ist ein Prompt?

Was ist Künstliche Intelligenz?

📝 Merksatz: KI kann überzeugend schreiben – auch dann, wenn sie falsch liegt.

begriffe/halluzination.1767550082.txt.gz · Zuletzt geändert: von kai

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki