Hoe Taalmodellen "Denken"
Veeg om het menu te tonen
Je hoeft niet te weten hoe een motor werkt om auto te rijden — maar weten dat hij op brandstof draait helpt je voorkomen dat je zonder benzine komt te staan. Hetzelfde geldt voor AI. Je hebt geen diploma informatica nodig, maar het begrijpen van één kernidee zorgt ervoor dat alles in deze cursus duidelijk wordt.
Voorspelling, het kernidee
Grote taalmodellen (LLM's) — de technologie achter ChatGPT, Claude, Gemini en anderen — werken door te voorspellen wat er daarna komt.
Gegeven een reeks woorden berekent het model welk woord (of welke zin) het meest waarschijnlijk volgt, op basis van patronen die het heeft geleerd uit enorme hoeveelheden tekst: boeken, artikelen, websites, code en meer.
Het lijkt op de automatische aanvulling op je telefoon — maar dan getraind op eigenlijk het hele internet, met veel meer verfijning.
Wat zijn tokens?
AI leest woorden niet zoals jij dat doet. Het splitst tekst op in kleine stukjes genoemd tokens — die grofweg overeenkomen met woorden of delen van woorden.
Bijvoorbeeld:
- "running" kan één token zijn;
- "unbelievable" kan worden opgesplitst in "un" + "believ" + "able";
- Zelfs spaties en leestekens zijn tokens.
Hierdoor gaat AI soms onhandig om met ongebruikelijke woorden, of worden zeer lange ingaven trager verwerkt — elke token kost verwerkingskracht.
Voor praktisch gebruik is het belangrijkste om te weten: hoe meer tokens in je gesprek, hoe meer context het model heeft — en hoe duurder het wordt om uit te voeren (daarom hebben gratis abonnementen limieten).
Waarom AI soms dingen verzint
Het model voorspelt wat juist klinkt, maar levert niet altijd wat feitelijk correct is. Wanneer het een onderwerp tegenkomt buiten zijn trainingsdata, of een vraag die het niet met zekerheid kan beantwoorden, zegt het niet "Ik weet het niet" — het genereert toch een aannemelijk klinkend antwoord.
Dit wordt een hallucinatie genoemd.
Het is geen fout, en het is niet dat de AI tegen je liegt. Het is een fundamentele eigenschap van hoe voorspellen werkt. Dit weten is de eerste stap naar veilig gebruik van AI. We behandelen dit uitgebreid in Sectie 3.
AI voorspelt — het weet niet echt. Dit ene inzicht verklaart waarom goede prompts belangrijk zijn, waarom je belangrijke feiten moet verifiëren, en waarom menselijk oordeel nooit optioneel is bij het werken met AI.
1. Wat is het kernidee achter hoe grote taalmodellen zoals ChatGPT werken?
2. Waarom genereert AI soms antwoorden die feitelijk niet correct zijn?
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.