Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Gegevensprivacy. Wat u Nooit met AI Mag Delen | Risico's, Beperkingen en Verantwoord Gebruik
AI Begrijpen voor Werk

bookGegevensprivacy. Wat u Nooit met AI Mag Delen

Veeg om het menu te tonen

Prompt engineering maakt AI nuttiger. Maar weten wat je niet in een prompt moet zetten is net zo belangrijk als weten hoe je een goede prompt schrijft.

Wanneer je iets typt in een AI-tool, stuur je die tekst naar een externe server die wordt beheerd door een derde partij. Begrijpen wat dat betekent — en welke risico's dat met zich meebrengt — is essentieel voor iedereen die AI op het werk gebruikt.

Hoe AI-tools omgaan met jouw invoer

De meeste AI-tools voor consumenten — inclusief de gratis versies van ChatGPT, Claude en Gemini — kunnen jouw gesprekken gebruiken om hun modellen te verbeteren, tenzij je hier expliciet voor afmeldt.

Dit betekent dat tekst die je invoert in principe kan worden bekeken door medewerkers van het bedrijf, gebruikt kan worden in trainingsdata, of voor langere tijd kan worden opgeslagen.

Enterprise-versies van deze tools (zoals Microsoft Copilot voor Microsoft 365 of Claude for Enterprise) bieden doorgaans sterkere garanties op het gebied van gegevensprivacy — waaronder toezeggingen om jouw data niet te gebruiken voor training. Hiervoor is echter een betaald organisatie-abonnement en specifieke configuratie vereist.

Als je niet zeker weet welke versie jouw organisatie gebruikt — vraag het dan aan je IT- of beveiligingsteam voordat je gevoelige informatie in een AI-tool invoert.

Wat je nooit mag invoeren in een AI-tool voor consumenten

Hanteer als algemene regel dat je AI-chatinterfaces op dezelfde manier behandelt als een openbaar forum — ga ervan uit dat de inhoud door anderen kan worden gezien.

Voer nooit in:

  • Persoonsgegevens van cliënten, klanten of medewerkers — namen, e-mails, telefoonnummers, ID-nummers, adressen;
  • Financiële gegevens — rekeningnummers, transactiegegevens, salarisinformatie, niet-openbare budgetcijfers;
  • Gezondheids- of medische informatie over een individu;
  • Wachtwoorden, API-sleutels of authenticatiegegevens van welke aard dan ook;
  • Vertrouwelijke bedrijfsinformatie — niet-uitgebrachte productdetails, M&A-besprekingen, strategische plannen, eigendomsonderzoek;
  • Juridische documenten met vertrouwelijke of bevoorrechte inhoud.
Screenshotbeschrijving: Een visueel beeld met twee panelen. Linker paneel gelabeld "Wat je hebt getypt" — een chatpromptvak met een realistisch maar fictief voorbeeld van een slechte praktijk: "Hier zijn de Q3-verkoopcijfers voor onze top 10 klanten: [een korte tabel met fictieve bedrijfsnamen en omzetcijfers]. Vat de belangrijkste trends samen." Rechter paneel gelabeld "Waar het naartoe gaat" — een eenvoudig diagram dat de tekst toont die de browser van de gebruiker verlaat, naar een cloudserverpictogram gelabeld "AI-provider servers," met een stippellijn die aftakt gelabeld "Kan worden gebruikt voor modeltraining of beoordeeld door personeel." Een rood waarschuwingslabel onderaan: "Vertrouwelijke bedrijfsgegevens mogen nooit worden ingevoerd in een consumenten-AI-tool." Alle bedrijfsnamen en cijfers in het voorbeeld zijn duidelijk fictief.

Veilige alternatieven: Hulp krijgen zonder risico

Het beschermen van gevoelige gegevens betekent niet dat je AI niet kunt gebruiken voor deze taken. Praktische oplossingen:

  • Anonimiseren vóór het invoeren — vervang echte namen door aanduidingen ("Klant A," "Werknemer X") voordat je inhoud in de AI plakt;
  • Beschrijf de situatie zonder de gegevens — in plaats van een vertrouwelijk document te plakken, beschrijf het type probleem en vraag om een raamwerk of aanpak;
  • Gebruik zakelijke tools — als jouw organisatie bijvoorbeeld Microsoft 365 Copilot of iets vergelijkbaars heeft gelicentieerd, werken deze tools doorgaans onder strengere gegevensbescherming;
  • Houd gevoelige inhoud lokaal — gebruik AI om structuur en taal op te stellen, vul vervolgens zelf offline de gevoelige details in.

Ken het beleid van jouw organisatie

Veel organisaties ontwikkelen of hebben al interne AI-gebruiksbeleid gepubliceerd. Deze specificeren doorgaans:

  • Welke AI-tools zijn goedgekeurd voor gebruik op het werk;
  • Welke categorieën gegevens wel en niet mogen worden ingevoerd;
  • Of er een bedrijfsspecifieke AI-omgeving beschikbaar is;
  • Hoe zorgen of incidenten met betrekking tot AI-gebruik kunnen worden gemeld.

Als jouw organisatie zo'n beleid heeft — volg het. Als dat niet zo is — hanteer de hierboven genoemde voorzichtige standaard totdat er richtlijnen zijn.

question mark

Welke van de volgende soorten informatie moet je vermijden in te voeren in een consumentgerichte AI-tool zoals ChatGPT op het werk?

Selecteer het correcte antwoord

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 3. Hoofdstuk 3

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Sectie 3. Hoofdstuk 3
some-alt