Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Databeskyttelse: Hvad Du Aldrig Bør Dele Med AI | Risici, Begrænsninger og Ansvarlig Brug
Forståelse af AI til Arbejde

bookDatabeskyttelse: Hvad Du Aldrig Bør Dele Med AI

Stryg for at vise menuen

Prompt engineering gør AI mere nyttig. Men at vide, hvad man ikke skal inkludere i en prompt, er lige så vigtigt som at vide, hvordan man skriver en god prompt.

Når du indtaster noget i et AI-værktøj, sender du denne tekst til en ekstern server, der drives af en tredjepartsvirksomhed. Forståelse af, hvad det betyder — og hvilke risici det medfører — er afgørende for alle, der bruger AI på arbejdet.

Hvordan AI-værktøjer håndterer din input

De fleste AI-værktøjer rettet mod forbrugere — inklusive gratisudgaver af ChatGPT, Claude og Gemini — kan bruge dine samtaler til at forbedre deres modeller, medmindre du eksplicit fravælger dette.

Det betyder, at tekst du indtaster i princippet kan blive gennemgået af medarbejdere i virksomheden, brugt i træningsdata eller gemt i længere perioder.

Enterprise-versioner af disse værktøjer (såsom Microsoft Copilot til Microsoft 365 eller Claude for Enterprise) tilbyder typisk stærkere databeskyttelsesgarantier — herunder løfter om ikke at bruge dine data til træning. Men disse kræver et betalt organisationsabonnement og specifik konfiguration.

Hvis du er usikker på, hvilken version din organisation bruger — spørg dit IT- eller sikkerhedsteam, før du indtaster følsomme oplysninger i et AI-værktøj.

Hvad du aldrig bør indtaste i et AI-værktøj til forbrugere

Som tommelfingerregel bør du behandle AI-chatgrænseflader på samme måde, som du ville behandle et offentligt forum — antag, at indholdet kan blive set af andre.

Indtast aldrig:

  • Personlige data om klienter, kunder eller medarbejdere — navne, e-mails, telefonnumre, ID-numre, adresser;
  • Finansielle data — kontonumre, transaktionsoplysninger, lønoplysninger, budgettal, der ikke er offentlige;
  • Sundheds- eller medicinske oplysninger om nogen person;
  • Adgangskoder, API-nøgler eller autentificeringsoplysninger af enhver art;
  • Fortrolige forretningsoplysninger — ikke-offentliggjorte produktdetaljer, M&A-diskussioner, strategiske planer, proprietær forskning;
  • Juridiske dokumenter, der indeholder privilegeret eller fortroligt indhold.
Skærmbilledebeskrivelse: Et todelt billede. Venstre panel mærket "Det du skrev" — en chatpromptboks med et realistisk, men fiktivt eksempel på dårlig praksis: "Her er Q3-salgstallene for vores 10 største kunder: [en kort tabel med fiktive firmanavne og omsætningstal]. Opsummer de vigtigste tendenser." Højre panel mærket "Hvor det ender" — et simpelt diagram, der viser teksten forlade brugerens browser, rejse til et cloud-serverikon mærket "AI-udbyderens servere," med en stiplet linje, der forgrener sig og er mærket "Kan bruges til modeltræning eller gennemgås af personale." En rød advarselslabel nederst: "Fortrolige forretningsdata må aldrig indtastes i et forbruger-AI-værktøj." Alle firmanavne og tal i eksemplet er tydeligt fiktive.

Sikre alternativer: Sådan får du hjælp uden risiko

Behovet for at beskytte følsomme data betyder ikke, at du ikke kan bruge AI til disse opgaver. Her er praktiske løsninger:

  • Anonymisér før prompt — erstat rigtige navne med pladsholdere ("Kunde A", "Medarbejder X") før du indsætter indhold i AI;
  • Beskriv situationen uden data — i stedet for at indsætte et fortroligt dokument, beskriv typen af problem og bed om en ramme eller tilgang;
  • Brug virksomhedsløsninger — hvis din organisation har licens til Microsoft 365 Copilot eller lignende, arbejder disse værktøjer typisk under strengere databeskyttelsesvilkår;
  • Hold følsomt indhold lokalt — brug AI til at udarbejde struktur og sprog, og udfyld derefter de følsomme detaljer selv offline.

Kend din organisations politik

Mange organisationer udvikler eller har allerede offentliggjort interne AI-brugspolitikker. Disse angiver typisk:

  • Hvilke AI-værktøjer der er godkendt til brug på arbejdet;
  • Hvilke datakategorier der må og ikke må indtastes;
  • Om der findes et virksomhedsspecifikt AI-miljø;
  • Hvordan man rapporterer bekymringer eller hændelser relateret til AI-brug.

Hvis din organisation har en sådan politik — følg den. Hvis ikke — anvend de konservative standarder ovenfor, indtil der gives vejledning.

question mark

Hvilke af følgende typer oplysninger bør du undgå at indtaste i et forbrugerrettet AI-værktøj som ChatGPT på arbejdet?

Vælg det korrekte svar

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 3. Kapitel 3

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 3. Kapitel 3
some-alt