Gegevensprivacy. Wat u Nooit met AI Mag Delen
Veeg om het menu te tonen
Prompt engineering maakt AI nuttiger. Maar weten wat je niet in een prompt moet zetten is net zo belangrijk als weten hoe je een goede prompt schrijft.
Wanneer je iets typt in een AI-tool, stuur je die tekst naar een externe server die wordt beheerd door een derde partij. Begrijpen wat dat betekent — en welke risico's dat met zich meebrengt — is essentieel voor iedereen die AI op het werk gebruikt.
Hoe AI-tools omgaan met jouw invoer
De meeste AI-tools voor consumenten — inclusief de gratis versies van ChatGPT, Claude en Gemini — kunnen jouw gesprekken gebruiken om hun modellen te verbeteren, tenzij je hier expliciet voor afmeldt.
Dit betekent dat tekst die je invoert in principe kan worden bekeken door medewerkers van het bedrijf, gebruikt kan worden in trainingsdata, of voor langere tijd kan worden opgeslagen.
Enterprise-versies van deze tools (zoals Microsoft Copilot voor Microsoft 365 of Claude for Enterprise) bieden doorgaans sterkere garanties op het gebied van gegevensprivacy — waaronder toezeggingen om jouw data niet te gebruiken voor training. Hiervoor is echter een betaald organisatie-abonnement en specifieke configuratie vereist.
Als je niet zeker weet welke versie jouw organisatie gebruikt — vraag het dan aan je IT- of beveiligingsteam voordat je gevoelige informatie in een AI-tool invoert.
Wat je nooit mag invoeren in een AI-tool voor consumenten
Hanteer als algemene regel dat je AI-chatinterfaces op dezelfde manier behandelt als een openbaar forum — ga ervan uit dat de inhoud door anderen kan worden gezien.
Voer nooit in:
- Persoonsgegevens van cliënten, klanten of medewerkers — namen, e-mails, telefoonnummers, ID-nummers, adressen;
- Financiële gegevens — rekeningnummers, transactiegegevens, salarisinformatie, niet-openbare budgetcijfers;
- Gezondheids- of medische informatie over een individu;
- Wachtwoorden, API-sleutels of authenticatiegegevens van welke aard dan ook;
- Vertrouwelijke bedrijfsinformatie — niet-uitgebrachte productdetails, M&A-besprekingen, strategische plannen, eigendomsonderzoek;
- Juridische documenten met vertrouwelijke of bevoorrechte inhoud.
Veilige alternatieven: Hulp krijgen zonder risico
Het beschermen van gevoelige gegevens betekent niet dat je AI niet kunt gebruiken voor deze taken. Praktische oplossingen:
- Anonimiseren vóór het invoeren — vervang echte namen door aanduidingen ("Klant A," "Werknemer X") voordat je inhoud in de AI plakt;
- Beschrijf de situatie zonder de gegevens — in plaats van een vertrouwelijk document te plakken, beschrijf het type probleem en vraag om een raamwerk of aanpak;
- Gebruik zakelijke tools — als jouw organisatie bijvoorbeeld Microsoft 365 Copilot of iets vergelijkbaars heeft gelicentieerd, werken deze tools doorgaans onder strengere gegevensbescherming;
- Houd gevoelige inhoud lokaal — gebruik AI om structuur en taal op te stellen, vul vervolgens zelf offline de gevoelige details in.
Ken het beleid van jouw organisatie
Veel organisaties ontwikkelen of hebben al interne AI-gebruiksbeleid gepubliceerd. Deze specificeren doorgaans:
- Welke AI-tools zijn goedgekeurd voor gebruik op het werk;
- Welke categorieën gegevens wel en niet mogen worden ingevoerd;
- Of er een bedrijfsspecifieke AI-omgeving beschikbaar is;
- Hoe zorgen of incidenten met betrekking tot AI-gebruik kunnen worden gemeld.
Als jouw organisatie zo'n beleid heeft — volg het. Als dat niet zo is — hanteer de hierboven genoemde voorzichtige standaard totdat er richtlijnen zijn.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.