De Werkelijke Grenzen Kennen
Veeg om het menu te tonen
Goede prompts kunnen veel bereiken. Ze kunnen echter niet alles. Een belangrijk onderdeel van effectief AI-gebruik is het herkennen van situaties waarin een betere prompt geen oplossing biedt — waar de beperking structureel is en geen enkele techniek een betrouwbaar resultaat zal opleveren.
Het kennen van deze grenzen bespaart tijd en voorkomt dat je vertrouwt op uitkomsten die je niet zou moeten vertrouwen.
Limiet 1 — Informatie Die Niet Bestaat In De Trainingsdata
AI-modellen zijn getraind op data tot een specifieke einddatum. Alles wat daarna is gebeurd, valt buiten de kennis van het model — en zorgvuldiger prompten verandert daar niets aan.
Dit heeft invloed op:
- Recent nieuws, wijzigingen in regelgeving of marktontwikkelingen;
- Nieuwe productlanceringen, bijgewerkte prijzen of recent onderzoek;
- Gebeurtenissen, beslissingen of aankondigingen die na de training van het model hebben plaatsgevonden.
Wat prompten niet kan oplossen: de ontbrekende informatie is er simpelweg niet. Het model zal vaak toch een geloofwaardig klinkend antwoord geven — en dat is precies het gevaar.
Wat je in plaats daarvan kunt doen: gebruik een tool met webzoekfunctie (ChatGPT met Browse, Perplexity, Gemini met Search) voor tijdgevoelige informatie, of plak de relevante actuele informatie direct in je prompt zodat het model ermee kan werken.
Limiet 2 — Gecontroleerde Feiten, Citaten En Specifieke Data
AI genereert geloofwaardige tekst. Voor veelbesproken onderwerpen is die tekst vaak accuraat. Voor specifieke feiten — statistieken, citaten, juridische verwijzingen, onderzoeksresultaten — is deze vaak onjuist op manieren die niet uit de output zelf te herkennen zijn.
Geen enkele prompttechniek lost dit betrouwbaar op, omdat het probleem niet zit in hoe de vraag wordt gesteld — maar in wat het model betrouwbaar kan produceren.
Wat prompten niet kan oplossen: het model vragen om "nauwkeurig te zijn" of "alleen geverifieerde bronnen te gebruiken" geeft het geen toegang tot informatie die het niet heeft. Dit kan hallucinaties iets verminderen, maar zal ze niet elimineren.
Wat je in plaats daarvan kunt doen: gebruik AI om de structuur en taal van content te genereren die specifieke feiten vereist, en vul vervolgens zelf de geverifieerde gegevens in vanuit primaire bronnen. Behandel elke specifieke claim van AI als niet-gecontroleerd totdat deze is nagekeken.
Limiet 3 — De Specifieke Context van Uw Organisatie
Het model heeft geen kennis van de interne situatie van uw bedrijf — uw strategie, teamdynamiek, klantrelaties, productroadmap, cultuur, of de geschiedenis van beslissingen waar u aan werkt.
Wanneer u AI om advies, aanbevelingen of analyses vraagt over uw specifieke situatie, is de output gebaseerd op algemene patronen — niet op uw werkelijke context. Het zal toepasselijk klinken, maar kan volledig niet aansluiten bij uw realiteit.
Wat prompten gedeeltelijk kan oplossen: u kunt context geven in uw prompt, en hoe specifieker die context is, des te meer op maat de output zal zijn. Maar er zijn grenzen aan hoeveel context in een prompt past, en het model kan alleen werken met wat u expliciet aanlevert.
Waarop letten: AI-aanbevelingen die technisch kloppen maar de organisatorische, politieke of relationele beperkingen negeren die de "voor de hand liggende" oplossing onwerkbaar maken in uw specifieke omgeving.
Limiet 4 — Oordeel, Waarden en Beslissingen die Mensen Raken
AI kan u helpen bij het overwegen van een beslissing. Het kan de beslissing niet voor u nemen — en dat zou ook niet moeten.
Taken waarbij menselijk oordeel leidend moet blijven:
- Beslissingen over aanname, prestaties en beloning;
- Strategische keuzes met grote organisatorische gevolgen;
- Communicatie met juridische, ethische of reputatie-impact;
- Elke situatie waarin de nuances van relaties, cultuur of individuele omstandigheden het juiste resultaat bepalen.
Wat prompten niet kan oplossen: AI heeft geen belang bij de uitkomst, geen kennis van de betrokken personen en geen verantwoordelijkheid voor de gevolgen. Juist deze zaken maken oordeel mogelijk.
Wat AI wel kan doen: opties aandragen, uw denken structureren, bezwaarpunten voorzien en communicatie opstellen. De daadwerkelijke beslissing — en de verantwoordelijkheid daarvoor — ligt bij u.
Een praktische test voordat je een output vertrouwt
Voordat je handelt op basis van een AI-output die feiten, aanbevelingen of beslissingen bevat, doorloop deze vier vragen:
- Kan deze informatie verouderd zijn? Zo ja — verifieer met een actuele bron;
- Bevat dit specifieke beweringen die ik niet heb geverifieerd? Zo ja — controleer ze allemaal voordat je ze gebruikt;
- Houdt deze aanbeveling rekening met mijn werkelijke context? Zo nee — beschouw het als een startpunt, niet als een conclusie;
- Gebruik ik deze output om een beslissing te nemen die mensen beïnvloedt? Zo ja — jouw oordeel, niet de output van de AI, moet doorslaggevend zijn.
Deze vragen kosten dertig seconden. Ze maken het verschil tussen AI als hulpmiddel gebruiken en je erdoor laten leiden.
1. Welke van de volgende is een reden waarom AI volgens het hoofdstuk onbetrouwbare outputs kan produceren?
2. Wat moet je doen voordat je AI-uitvoer vertrouwt die betrekking heeft op belangrijke beslissingen of feiten?
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.