Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Hallucinaties. Waarom AI Zelfverzekerd Fouten Maakt | Risico's, Beperkingen en Verantwoord Gebruik
AI Begrijpen voor Werk

bookHallucinaties. Waarom AI Zelfverzekerd Fouten Maakt

Veeg om het menu te tonen

Je hebt geleerd hoe je nuttige resultaten uit AI kunt halen. Nu is het tijd om te leren wanneer je deze resultaten niet moet vertrouwen.

AI-tools zijn vloeiend, zelfverzekerd en snel. Ze kunnen echter ook informatie produceren die volledig aannemelijk klinkt — en toch volledig onjuist is. Begrijpen waarom dit gebeurt is een van de belangrijkste inzichten die je uit deze cursus kunt halen.

Wat is een hallucinatie?

Note
Definitie

In AI is een "hallucinatie" wanneer het model inhoud genereert die feitelijk onjuist, verzonnen of niet gebaseerd op de werkelijkheid is — maar dit presenteert met dezelfde zelfverzekerde toon als correcte informatie.

Voorbeelden van hallucinaties in de praktijk:

  • Een advocaat dient een juridisch betoog in met verwijzingen naar zes rechtszaken. Alle zes zijn verzonnen door ChatGPT. Geen van deze zaken bestond;
  • Een door AI gegenereerde productbeschrijving bevat een technische specificatie die geloofwaardig klinkt maar volledig is verzonnen;
  • Een samenvatting van een wetenschappelijk artikel bevat een statistiek die nooit in het oorspronkelijke document voorkwam;
  • Een AI beveelt een specifieke regelgeving of wet aan die niet bestaat in het genoemde rechtsgebied.

De AI weet niet dat het fout is. Het liegt niet. Het doet precies waarvoor het is ontworpen — het genereren van het meest statistisch waarschijnlijke vervolg van de tekst — en in deze gevallen levert dat proces foutieve output op.

Screenshotbeschrijving: Een chatvenster waarin een gebruiker vraagt: "Wat waren de belangrijkste bevindingen van het 2021 Nielsen-rapport over productiviteit bij werken op afstand?" De AI reageert met een gedetailleerde, zelfverzekerd klinkende samenvatting — specifieke percentages, genoemde auteurs, kernconclusies — allemaal gepresenteerd als feit. Onder de reactie overlapt een rood annotatievak de output met het label: "Dit rapport bestaat niet. Alle details zijn door het model verzonnen." De AI-reactie zelf bevat geen voorbehoud — het leest als gezaghebbend. Het contrast tussen de zelfverzekerde toon en de verzonnen inhoud is het punt. Geen enkele nepverwijzing mag echt genoeg lijken om gekopieerd te worden — gebruik duidelijk tijdelijke namen zoals "Nielsen 2021 Remote Work Insights Report, geschreven door J. Harlow en S. Müller."

Waarom Gebeurt Dit?

Herinner uit Sectie 1: AI voorspelt het volgende token op basis van patronen. Het heeft geen interne factchecker. Het heeft geen besef van wat het wel of niet weet.

Wanneer het model een vraag tegenkomt waarop het geen betrouwbaar antwoord kan geven, stopt het niet — het genereert een antwoord dat past bij het patroon van wat een correct antwoord zou zijn. Het resultaat is inhoud die vloeiend, gestructureerd en onjuist is.

Hallucinaties komen vaker voor wanneer:

  • Je vraagt naar zeer specifieke feiten, statistieken of verwijzingen;
  • Je vraagt naar recente gebeurtenissen na de trainingscut-offdatum van het model;
  • Je vraagt naar niche-onderwerpen met beperkte trainingsdata;
  • De vraag een "vul het gat in"-structuur heeft die uitnodigt tot verzinnen.

Wat hallucinaties niet zijn

Het is belangrijk om dit precies te benoemen:

  • Hallucinaties zijn niet het gevolg van bedrog of kwaadwilligheid door de AI;
  • Ze zijn geen teken dat de AI defect of onbruikbaar is;
  • Het zijn geen willekeurige fouten — ze volgen voorspelbare patronen;
  • Ze zijn niet uniek voor één tool — alle grote AI-systemen hallucineren.

Het is een structurele eigenschap van hoe taalmodellen werken. De juiste reactie is niet om AI te vermijden — maar om te weten wanneer je moet verifiëren.

De gouden regel: Vloeiendheid is geen nauwkeurigheid

Het belangrijkste om te onthouden over AI-uitvoer:

Een antwoord kan prachtig geformuleerd, logisch opgebouwd en volledig onjuist zijn.

De kwaliteit van de taal zegt niets over de kwaliteit van de informatie. AI schrijft altijd met hetzelfde vertrouwen, ongeacht of het juist is. Behandel feiten, statistieken, namen, data en verwijzingen altijd als niet-geverifieerd totdat je ze controleert.

1. Welke van de volgende omschrijvingen past het beste bij een AI-hallucinatie?

2. Waarom produceren AI-modellen zoals ChatGPT soms informatie die correct klinkt maar eigenlijk onjuist is, en wat betekent dit voor gebruikers?

question mark

Welke van de volgende omschrijvingen past het beste bij een AI-hallucinatie?

Selecteer het correcte antwoord

question mark

Waarom produceren AI-modellen zoals ChatGPT soms informatie die correct klinkt maar eigenlijk onjuist is, en wat betekent dit voor gebruikers?

Selecteer het correcte antwoord

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 3. Hoofdstuk 1

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Sectie 3. Hoofdstuk 1
some-alt