Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Hoe Taalmodellen "Denken" | Hoe Moderne AI Werkt
AI Begrijpen voor Werk

bookHoe Taalmodellen "Denken"

Veeg om het menu te tonen

Je hoeft niet te weten hoe een motor werkt om auto te rijden — maar weten dat hij op brandstof draait helpt je voorkomen dat je zonder benzine komt te staan. Hetzelfde geldt voor AI. Je hebt geen diploma informatica nodig, maar het begrijpen van één kernidee zorgt ervoor dat alles in deze cursus duidelijk wordt.

Voorspelling, het kernidee

Grote taalmodellen (LLM's) — de technologie achter ChatGPT, Claude, Gemini en anderen — werken door te voorspellen wat er daarna komt.

Gegeven een reeks woorden berekent het model welk woord (of welke zin) het meest waarschijnlijk volgt, op basis van patronen die het heeft geleerd uit enorme hoeveelheden tekst: boeken, artikelen, websites, code en meer.

Het lijkt op de automatische aanvulling op je telefoon — maar dan getraind op eigenlijk het hele internet, met veel meer verfijning.

Screenshotbeschrijving: Een helder, horizontaal diagram met drie stappen verbonden door pijlen. Stap 1 — een tekstvak met het label "Uw invoer" met daarin: "The weather today is…". Stap 2 — een vak met het label "Model voorspelt het meest waarschijnlijke volgende woord" met drie opties en waarschijnlijkheden: "sunny" 42%, "cold" 31%, "unpredictable" 27%. Stap 3 — een vak met het label "Uitvoer wordt woord voor woord opgebouwd". Eenvoudig, vlak ontwerp, geen technische termen in het diagram.

Wat zijn tokens?

AI leest woorden niet zoals jij dat doet. Het splitst tekst op in kleine stukjes genoemd tokens — die grofweg overeenkomen met woorden of delen van woorden.

Bijvoorbeeld:

  • "running" kan één token zijn;
  • "unbelievable" kan worden opgesplitst in "un" + "believ" + "able";
  • Zelfs spaties en leestekens zijn tokens.

Hierdoor gaat AI soms onhandig om met ongebruikelijke woorden, of worden zeer lange ingaven trager verwerkt — elke token kost verwerkingskracht.

Voor praktisch gebruik is het belangrijkste om te weten: hoe meer tokens in je gesprek, hoe meer context het model heeft — en hoe duurder het wordt om uit te voeren (daarom hebben gratis abonnementen limieten).

Waarom AI soms dingen verzint

Het model voorspelt wat juist klinkt, maar levert niet altijd wat feitelijk correct is. Wanneer het een onderwerp tegenkomt buiten zijn trainingsdata, of een vraag die het niet met zekerheid kan beantwoorden, zegt het niet "Ik weet het niet" — het genereert toch een aannemelijk klinkend antwoord.

Dit wordt een hallucinatie genoemd.

Het is geen fout, en het is niet dat de AI tegen je liegt. Het is een fundamentele eigenschap van hoe voorspellen werkt. Dit weten is de eerste stap naar veilig gebruik van AI. We behandelen dit uitgebreid in Sectie 3.

AI voorspelt — het weet niet echt. Dit ene inzicht verklaart waarom goede prompts belangrijk zijn, waarom je belangrijke feiten moet verifiëren, en waarom menselijk oordeel nooit optioneel is bij het werken met AI.

1. Wat is het kernidee achter hoe grote taalmodellen zoals ChatGPT werken?

2. Waarom genereert AI soms antwoorden die feitelijk niet correct zijn?

question mark

Wat is het kernidee achter hoe grote taalmodellen zoals ChatGPT werken?

Selecteer het correcte antwoord

question mark

Waarom genereert AI soms antwoorden die feitelijk niet correct zijn?

Selecteer het correcte antwoord

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 2

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Sectie 1. Hoofdstuk 2
some-alt