Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Halluzinationen: Warum KI Selbstbewusst Fehler Macht | Risiken, Einschränkungen und Verantwortungsbewusste Nutzung
KI Verstehen für die Arbeitswelt

bookHalluzinationen: Warum KI Selbstbewusst Fehler Macht

Swipe um das Menü anzuzeigen

Sie haben gelernt, wie Sie nützliche Ergebnisse von KI erhalten. Jetzt ist es an der Zeit zu erfahren, wann Sie diesen Ergebnissen nicht vertrauen sollten.

KI-Tools sind flüssig, selbstbewusst und schnell. Sie sind jedoch auch in der Lage, Informationen zu erzeugen, die völlig plausibel klingen – und dennoch völlig falsch sind. Zu verstehen, warum dies geschieht, ist eine der wichtigsten Erkenntnisse, die Sie aus diesem Kurs mitnehmen können.

Was ist eine Halluzination?

Note
Definition

In der KI bezeichnet eine "Halluzination" den Fall, dass das Modell Inhalte generiert, die sachlich falsch, erfunden oder nicht in der Realität verankert sind – diese aber mit demselben selbstbewussten Ton präsentiert wie korrekte Informationen.

Beispiele für Halluzinationen in der Praxis:

  • Ein Anwalt reicht eine Klageschrift ein und zitiert sechs Gerichtsentscheidungen. Alle sechs wurden von ChatGPT erfunden. Keine davon existierte;
  • Eine KI-generierte Produktbeschreibung enthält eine technische Spezifikation, die glaubwürdig klingt, aber vollständig erfunden ist;
  • Eine Zusammenfassung eines wissenschaftlichen Artikels enthält eine Statistik, die im Originaldokument nie vorkam;
  • Eine KI empfiehlt eine bestimmte Vorschrift oder ein Gesetz, das in der genannten Gerichtsbarkeit nicht existiert.

Die KI weiß nicht, dass sie falsch liegt. Sie lügt nicht. Sie tut genau das, wofür sie entwickelt wurde – sie generiert die statistisch wahrscheinlichste Fortsetzung des Textes – und in diesen Fällen führt dieser Prozess zu falschen Ergebnissen.

Screenshot-Beschreibung: Ein Chatfenster zeigt, wie ein Nutzer fragt: „Was waren die wichtigsten Ergebnisse des Nielsen-Berichts 2021 zur Produktivität bei Remote-Arbeit?“ Die KI antwortet mit einer detaillierten, selbstbewusst klingenden Zusammenfassung – mit konkreten Prozentangaben, genannten Autoren, zentralen Schlussfolgerungen – alles als Fakten präsentiert. Unter der Antwort überlagert ein rotes Anmerkungsfeld die Ausgabe mit dem Hinweis: „Diesen Bericht gibt es nicht. Alle Details wurden vom Modell erfunden.“ Die KI-Antwort selbst enthält keine einschränkende Sprache – sie wirkt autoritativ. Der Kontrast zwischen dem selbstbewussten Ton und dem erfundenen Inhalt ist der Punkt. Keine tatsächlich gefälschten Zitate sollten echt genug aussehen, um übernommen zu werden – verwenden Sie eindeutig Platzhalternamen wie „Nielsen 2021 Remote Work Insights Report, verfasst von J. Harlow und S. Müller.“

Warum passiert das?

Erinnerung an Abschnitt 1: KI sagt das nächste Token anhand von Mustern voraus. Sie verfügt über keinen internen Faktencheck. Sie hat kein Bewusstsein darüber, was sie weiß und was nicht.

Wenn das Modell auf eine Frage stößt, die es nicht zuverlässig beantworten kann, hält es nicht an – es generiert eine Antwort, die dem Muster einer korrekten Antwort entspricht. Das Ergebnis ist ein Inhalt, der flüssig, strukturiert und falsch ist.

Halluzinationen treten häufiger auf, wenn:

  • Nach sehr spezifischen Fakten, Statistiken oder Zitaten gefragt wird;
  • Nach aktuellen Ereignissen gefragt wird, die nach dem Trainingszeitpunkt des Modells liegen;
  • Nach Nischenthemen gefragt wird, zu denen es nur wenig Trainingsdaten gibt;
  • Die Frage eine „Lückentext“-Struktur hat, die zur Erfindung einlädt.

Was Halluzinationen nicht sind

Es ist wichtig, dies genau zu definieren:

  • Halluzinationen bedeuten nicht, dass die KI täuscht oder böswillig handelt;
  • Sie sind kein Zeichen dafür, dass die KI defekt oder unbrauchbar ist;
  • Es handelt sich nicht um zufällige Fehler — sie folgen vorhersehbaren Mustern;
  • Sie sind nicht auf ein bestimmtes Tool beschränkt — alle großen KI-Systeme halluzinieren.

Sie sind eine strukturelle Eigenschaft der Funktionsweise von Sprachmodellen. Die richtige Reaktion ist nicht, KI zu vermeiden — sondern zu wissen, wann eine Überprüfung notwendig ist.

Die goldene Regel: Sprachgewandtheit ist keine Genauigkeit

Das wichtigste Prinzip im Umgang mit KI-Ausgaben:

Eine Antwort kann sprachlich hervorragend, logisch aufgebaut und völlig falsch sein.

Die Qualität der Sprache sagt nichts über die Qualität der Information aus. KI formuliert stets mit gleichbleibender Sicherheit, unabhängig davon, ob die Antwort korrekt ist. Fakten, Statistiken, Namen, Daten und Quellenangaben sollten immer als ungeprüft betrachtet werden, bis sie überprüft wurden.

1. Welche der folgenden Aussagen beschreibt eine KI-Halluzination am besten?

2. Warum erzeugen KI-Modelle wie ChatGPT manchmal Informationen, die korrekt klingen, aber tatsächlich falsch sind, und was bedeutet das für Nutzer?

question mark

Welche der folgenden Aussagen beschreibt eine KI-Halluzination am besten?

Wählen Sie die richtige Antwort aus

question mark

Warum erzeugen KI-Modelle wie ChatGPT manchmal Informationen, die korrekt klingen, aber tatsächlich falsch sind, und was bedeutet das für Nutzer?

Wählen Sie die richtige Antwort aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 1

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 3. Kapitel 1
some-alt