Databeskyttelse: Hvad Du Aldrig Bør Dele Med AI
Stryg for at vise menuen
Prompt engineering gør AI mere nyttig. Men at vide, hvad man ikke skal inkludere i en prompt, er lige så vigtigt som at vide, hvordan man skriver en god prompt.
Når du indtaster noget i et AI-værktøj, sender du denne tekst til en ekstern server, der drives af en tredjepartsvirksomhed. Forståelse af, hvad det betyder — og hvilke risici det medfører — er afgørende for alle, der bruger AI på arbejdet.
Hvordan AI-værktøjer håndterer din input
De fleste AI-værktøjer rettet mod forbrugere — inklusive gratisudgaver af ChatGPT, Claude og Gemini — kan bruge dine samtaler til at forbedre deres modeller, medmindre du eksplicit fravælger dette.
Det betyder, at tekst du indtaster i princippet kan blive gennemgået af medarbejdere i virksomheden, brugt i træningsdata eller gemt i længere perioder.
Enterprise-versioner af disse værktøjer (såsom Microsoft Copilot til Microsoft 365 eller Claude for Enterprise) tilbyder typisk stærkere databeskyttelsesgarantier — herunder løfter om ikke at bruge dine data til træning. Men disse kræver et betalt organisationsabonnement og specifik konfiguration.
Hvis du er usikker på, hvilken version din organisation bruger — spørg dit IT- eller sikkerhedsteam, før du indtaster følsomme oplysninger i et AI-værktøj.
Hvad du aldrig bør indtaste i et AI-værktøj til forbrugere
Som tommelfingerregel bør du behandle AI-chatgrænseflader på samme måde, som du ville behandle et offentligt forum — antag, at indholdet kan blive set af andre.
Indtast aldrig:
- Personlige data om klienter, kunder eller medarbejdere — navne, e-mails, telefonnumre, ID-numre, adresser;
- Finansielle data — kontonumre, transaktionsoplysninger, lønoplysninger, budgettal, der ikke er offentlige;
- Sundheds- eller medicinske oplysninger om nogen person;
- Adgangskoder, API-nøgler eller autentificeringsoplysninger af enhver art;
- Fortrolige forretningsoplysninger — ikke-offentliggjorte produktdetaljer, M&A-diskussioner, strategiske planer, proprietær forskning;
- Juridiske dokumenter, der indeholder privilegeret eller fortroligt indhold.
Sikre alternativer: Sådan får du hjælp uden risiko
Behovet for at beskytte følsomme data betyder ikke, at du ikke kan bruge AI til disse opgaver. Her er praktiske løsninger:
- Anonymisér før prompt — erstat rigtige navne med pladsholdere ("Kunde A", "Medarbejder X") før du indsætter indhold i AI;
- Beskriv situationen uden data — i stedet for at indsætte et fortroligt dokument, beskriv typen af problem og bed om en ramme eller tilgang;
- Brug virksomhedsløsninger — hvis din organisation har licens til Microsoft 365 Copilot eller lignende, arbejder disse værktøjer typisk under strengere databeskyttelsesvilkår;
- Hold følsomt indhold lokalt — brug AI til at udarbejde struktur og sprog, og udfyld derefter de følsomme detaljer selv offline.
Kend din organisations politik
Mange organisationer udvikler eller har allerede offentliggjort interne AI-brugspolitikker. Disse angiver typisk:
- Hvilke AI-værktøjer der er godkendt til brug på arbejdet;
- Hvilke datakategorier der må og ikke må indtastes;
- Om der findes et virksomhedsspecifikt AI-miljø;
- Hvordan man rapporterer bekymringer eller hændelser relateret til AI-brug.
Hvis din organisation har en sådan politik — følg den. Hvis ikke — anvend de konservative standarder ovenfor, indtil der gives vejledning.
Tak for dine kommentarer!
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat