begriffe:halluzination
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Nächste Überarbeitung | Vorhergehende Überarbeitung | ||
| begriffe:halluzination [2026/01/04 19:08] – angelegt kai | begriffe:halluzination [2026/01/04 19:14] (aktuell) – kai | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| - | Halluzination (bei KI) | + | ====== |
| - | Kurz gesagt | + | |
| - | Eine Halluzination bedeutet bei Künstlicher Intelligenz, | ||
| - | Was bedeutet Halluzination bei KI? | + | ===== Kurz gesagt ===== |
| - | Bei KI bezeichnet der Begriff Halluzination, | ||
| - | falsche Fakten nennt | + | Eine **Halluzination** bedeutet bei Künstlicher Intelligenz, |
| - | Quellen erfindet | + | --- |
| + | |||
| + | ==== Was bedeutet Halluzination bei KI? ==== | ||
| + | |||
| + | |||
| + | Bei KI bezeichnet der Begriff *Halluzination*, | ||
| + | |||
| + | * falsche Fakten nennt | ||
| + | * Quellen erfindet | ||
| + | * Zusammenhänge vorgibt, die nicht existieren | ||
| + | |||
| + | Die KI „halluziniert“ nicht bewusst – sie versucht lediglich, eine **wahrscheinliche Antwort** zu erzeugen. | ||
| + | |||
| + | --- | ||
| + | |||
| + | ==== Warum halluziniert KI? ==== | ||
| - | Zusammenhänge vorgibt, die nicht existieren | ||
| - | Die KI „halluziniert“ nicht bewusst – sie versucht lediglich, eine wahrscheinliche Antwort zu erzeugen. | ||
| - | Warum halluziniert KI? | ||
| KI-Modelle wie ChatGPT arbeiten mit Wahrscheinlichkeiten. | KI-Modelle wie ChatGPT arbeiten mit Wahrscheinlichkeiten. | ||
| - | Sie wissen nicht, was wahr ist, sondern nur, was sprachlich passt. | + | Sie wissen nicht, |
| Halluzinationen entstehen zum Beispiel, wenn: | Halluzinationen entstehen zum Beispiel, wenn: | ||
| - | die Frage sehr spezifisch ist | + | * die Frage sehr spezifisch |
| + | * Informationen fehlen | ||
| + | * die KI unter Zeit- oder Längenbeschränkungen antwortet | ||
| + | * der Prompt unklar | ||
| - | Informationen fehlen | + | --- |
| - | die KI unter Zeit- oder Längenbeschränkungen antwortet | + | ==== |
| - | der Prompt unklar ist | ||
| - | Beispiele für Halluzinationen | ||
| Typische Fälle: | Typische Fälle: | ||
| - | erfundene Bücher oder Studien | + | * erfundene Bücher oder Studien |
| + | * falsche Jahreszahlen | ||
| + | * nicht existierende Gesetze | ||
| + | * überzeugend klingende, aber falsche Erklärungen | ||
| - | falsche Jahreszahlen | + | Gerade weil die Antworten **sicher formuliert** sind, fallen Fehler oft nicht sofort auf. |
| - | nicht existierende Gesetze | + | --- |
| - | überzeugend klingende, aber falsche Erklärungen | + | ==== Ist das ein Fehler der KI? ==== |
| + | |||
| - | Gerade weil die Antworten sicher formuliert sind, fallen Fehler oft nicht sofort auf. | ||
| - | Ist das ein Fehler der KI? | + | Ja – aber ein **bekanntes und unvermeidbares** Problem heutiger KI-Modelle. |
| - | + | ||
| - | Ja – aber ein bekanntes und unvermeidbares Problem heutiger KI-Modelle. | + | |
| KI ist darauf optimiert: | KI ist darauf optimiert: | ||
| - | gut klingende Texte zu erzeugen | + | > gut klingende Texte zu erzeugen |
| - | nicht darauf, immer recht zu haben. | + | > nicht darauf, immer recht zu haben. |
| - | Wie kann man Halluzinationen vermeiden? | + | --- |
| - | Ganz vermeiden lassen sie sich nicht, aber man kann sie reduzieren: | ||
| - | klare Prompts verwenden | + | ==== Wie kann man Halluzinationen vermeiden? ==== |
| + | |||
| + | |||
| + | |||
| + | Ganz vermeiden lassen sie sich nicht, aber man kann sie reduzieren: | ||
| - | nach Quellen fragen | + | * klare Prompts verwenden |
| + | * nach Quellen fragen | ||
| + | * Fakten gegenprüfen | ||
| + | * KI nicht als alleinige Informationsquelle nutzen | ||
| - | Fakten gegenprüfen | + | --- |
| - | KI nicht als alleinige Informationsquelle nutzen | + | ==== Wo sind Halluzinationen besonders problematisch? |
| + | |||
| - | Wo sind Halluzinationen besonders problematisch? | ||
| - | Medizin | + | * Medizin |
| + | * Recht | ||
| + | * Finanzen | ||
| + | * Wissenschaftliche Arbeiten | ||
| - | Recht | + | In diesen Bereichen sollte KI **nur unterstützend**, |
| - | Finanzen | + | --- |
| - | Wissenschaftliche Arbeiten | + | ==== Für wen ist das wichtig? ==== |
| - | In diesen Bereichen sollte KI nur unterstützend, | ||
| - | Für wen ist das wichtig? | ||
| - | Alle KI-Nutzer | + | * Alle KI-Nutzer |
| + | * Schüler & Studierende | ||
| + | * Lehrkräfte | ||
| + | * Berufstätige | ||
| - | Schüler & Studierende | + | Kurz gesagt: **für jeden, der KI-Ergebnisse ernst nimmt**. |
| - | Lehrkräfte | + | --- |
| - | Berufstätige | + | |
| - | Kurz gesagt: für jeden, der KI-Ergebnisse ernst nimmt. | + | * [[ki:grundlagen: |
| + | * [[begriffe: | ||
| + | * [[ki: | ||
| - | Verwandte Begriffe & Themen | + | --- |
| - | [[ki:grundlagen: | + | > 📝 **Merksatz:** |
| + | > KI kann überzeugend schreiben – auch dann, wenn sie falsch liegt. | ||
| - | [[begriffe: | + | --- |
| - | [[ki: | ||
| - | 📝 Merksatz: | ||
| - | KI kann überzeugend schreiben – auch dann, wenn sie falsch liegt. | ||
begriffe/halluzination.1767550082.txt.gz · Zuletzt geändert: von kai
