Hallucinaties. Waarom AI Zelfverzekerd Fouten Maakt
Veeg om het menu te tonen
Je hebt geleerd hoe je nuttige resultaten uit AI kunt halen. Nu is het tijd om te leren wanneer je deze resultaten niet moet vertrouwen.
AI-tools zijn vloeiend, zelfverzekerd en snel. Ze kunnen echter ook informatie produceren die volledig aannemelijk klinkt — en toch volledig onjuist is. Begrijpen waarom dit gebeurt is een van de belangrijkste inzichten die je uit deze cursus kunt halen.
Wat is een hallucinatie?
In AI is een "hallucinatie" wanneer het model inhoud genereert die feitelijk onjuist, verzonnen of niet gebaseerd op de werkelijkheid is — maar dit presenteert met dezelfde zelfverzekerde toon als correcte informatie.
Voorbeelden van hallucinaties in de praktijk:
- Een advocaat dient een juridisch betoog in met verwijzingen naar zes rechtszaken. Alle zes zijn verzonnen door ChatGPT. Geen van deze zaken bestond;
- Een door AI gegenereerde productbeschrijving bevat een technische specificatie die geloofwaardig klinkt maar volledig is verzonnen;
- Een samenvatting van een wetenschappelijk artikel bevat een statistiek die nooit in het oorspronkelijke document voorkwam;
- Een AI beveelt een specifieke regelgeving of wet aan die niet bestaat in het genoemde rechtsgebied.
De AI weet niet dat het fout is. Het liegt niet. Het doet precies waarvoor het is ontworpen — het genereren van het meest statistisch waarschijnlijke vervolg van de tekst — en in deze gevallen levert dat proces foutieve output op.
Waarom Gebeurt Dit?
Herinner uit Sectie 1: AI voorspelt het volgende token op basis van patronen. Het heeft geen interne factchecker. Het heeft geen besef van wat het wel of niet weet.
Wanneer het model een vraag tegenkomt waarop het geen betrouwbaar antwoord kan geven, stopt het niet — het genereert een antwoord dat past bij het patroon van wat een correct antwoord zou zijn. Het resultaat is inhoud die vloeiend, gestructureerd en onjuist is.
Hallucinaties komen vaker voor wanneer:
- Je vraagt naar zeer specifieke feiten, statistieken of verwijzingen;
- Je vraagt naar recente gebeurtenissen na de trainingscut-offdatum van het model;
- Je vraagt naar niche-onderwerpen met beperkte trainingsdata;
- De vraag een "vul het gat in"-structuur heeft die uitnodigt tot verzinnen.
Wat hallucinaties niet zijn
Het is belangrijk om dit precies te benoemen:
- Hallucinaties zijn niet het gevolg van bedrog of kwaadwilligheid door de AI;
- Ze zijn geen teken dat de AI defect of onbruikbaar is;
- Het zijn geen willekeurige fouten — ze volgen voorspelbare patronen;
- Ze zijn niet uniek voor één tool — alle grote AI-systemen hallucineren.
Het is een structurele eigenschap van hoe taalmodellen werken. De juiste reactie is niet om AI te vermijden — maar om te weten wanneer je moet verifiëren.
De gouden regel: Vloeiendheid is geen nauwkeurigheid
Het belangrijkste om te onthouden over AI-uitvoer:
Een antwoord kan prachtig geformuleerd, logisch opgebouwd en volledig onjuist zijn.
De kwaliteit van de taal zegt niets over de kwaliteit van de informatie. AI schrijft altijd met hetzelfde vertrouwen, ongeacht of het juist is. Behandel feiten, statistieken, namen, data en verwijzingen altijd als niet-geverifieerd totdat je ze controleert.
1. Welke van de volgende omschrijvingen past het beste bij een AI-hallucinatie?
2. Waarom produceren AI-modellen zoals ChatGPT soms informatie die correct klinkt maar eigenlijk onjuist is, en wat betekent dit voor gebruikers?
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.