Halluzinationen: Warum KI Selbstbewusst Fehler Macht
Swipe um das Menü anzuzeigen
Sie haben gelernt, wie Sie nützliche Ergebnisse von KI erhalten. Jetzt ist es an der Zeit zu erfahren, wann Sie diesen Ergebnissen nicht vertrauen sollten.
KI-Tools sind flüssig, selbstbewusst und schnell. Sie sind jedoch auch in der Lage, Informationen zu erzeugen, die völlig plausibel klingen – und dennoch völlig falsch sind. Zu verstehen, warum dies geschieht, ist eine der wichtigsten Erkenntnisse, die Sie aus diesem Kurs mitnehmen können.
Was ist eine Halluzination?
In der KI bezeichnet eine "Halluzination" den Fall, dass das Modell Inhalte generiert, die sachlich falsch, erfunden oder nicht in der Realität verankert sind – diese aber mit demselben selbstbewussten Ton präsentiert wie korrekte Informationen.
Beispiele für Halluzinationen in der Praxis:
- Ein Anwalt reicht eine Klageschrift ein und zitiert sechs Gerichtsentscheidungen. Alle sechs wurden von ChatGPT erfunden. Keine davon existierte;
- Eine KI-generierte Produktbeschreibung enthält eine technische Spezifikation, die glaubwürdig klingt, aber vollständig erfunden ist;
- Eine Zusammenfassung eines wissenschaftlichen Artikels enthält eine Statistik, die im Originaldokument nie vorkam;
- Eine KI empfiehlt eine bestimmte Vorschrift oder ein Gesetz, das in der genannten Gerichtsbarkeit nicht existiert.
Die KI weiß nicht, dass sie falsch liegt. Sie lügt nicht. Sie tut genau das, wofür sie entwickelt wurde – sie generiert die statistisch wahrscheinlichste Fortsetzung des Textes – und in diesen Fällen führt dieser Prozess zu falschen Ergebnissen.
Warum passiert das?
Erinnerung an Abschnitt 1: KI sagt das nächste Token anhand von Mustern voraus. Sie verfügt über keinen internen Faktencheck. Sie hat kein Bewusstsein darüber, was sie weiß und was nicht.
Wenn das Modell auf eine Frage stößt, die es nicht zuverlässig beantworten kann, hält es nicht an – es generiert eine Antwort, die dem Muster einer korrekten Antwort entspricht. Das Ergebnis ist ein Inhalt, der flüssig, strukturiert und falsch ist.
Halluzinationen treten häufiger auf, wenn:
- Nach sehr spezifischen Fakten, Statistiken oder Zitaten gefragt wird;
- Nach aktuellen Ereignissen gefragt wird, die nach dem Trainingszeitpunkt des Modells liegen;
- Nach Nischenthemen gefragt wird, zu denen es nur wenig Trainingsdaten gibt;
- Die Frage eine „Lückentext“-Struktur hat, die zur Erfindung einlädt.
Was Halluzinationen nicht sind
Es ist wichtig, dies genau zu definieren:
- Halluzinationen bedeuten nicht, dass die KI täuscht oder böswillig handelt;
- Sie sind kein Zeichen dafür, dass die KI defekt oder unbrauchbar ist;
- Es handelt sich nicht um zufällige Fehler — sie folgen vorhersehbaren Mustern;
- Sie sind nicht auf ein bestimmtes Tool beschränkt — alle großen KI-Systeme halluzinieren.
Sie sind eine strukturelle Eigenschaft der Funktionsweise von Sprachmodellen. Die richtige Reaktion ist nicht, KI zu vermeiden — sondern zu wissen, wann eine Überprüfung notwendig ist.
Die goldene Regel: Sprachgewandtheit ist keine Genauigkeit
Das wichtigste Prinzip im Umgang mit KI-Ausgaben:
Eine Antwort kann sprachlich hervorragend, logisch aufgebaut und völlig falsch sein.
Die Qualität der Sprache sagt nichts über die Qualität der Information aus. KI formuliert stets mit gleichbleibender Sicherheit, unabhängig davon, ob die Antwort korrekt ist. Fakten, Statistiken, Namen, Daten und Quellenangaben sollten immer als ungeprüft betrachtet werden, bis sie überprüft wurden.
1. Welche der folgenden Aussagen beschreibt eine KI-Halluzination am besten?
2. Warum erzeugen KI-Modelle wie ChatGPT manchmal Informationen, die korrekt klingen, aber tatsächlich falsch sind, und was bedeutet das für Nutzer?
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen