Datasekretess. Vad du aldrig bör dela med AI
Svep för att visa menyn
Promptteknik gör AI mer användbar. Men att veta vad man inte ska lägga in i en prompt är minst lika viktigt som att kunna skriva en bra prompt.
När du skriver något i ett AI-verktyg skickar du den texten till en extern server som drivs av ett tredjepartsföretag. Att förstå vad det innebär — och vilka risker det medför — är avgörande för alla som använder AI i arbetet.
Hur AI-verktyg hanterar din inmatning
De flesta AI-verktyg för konsumenter — inklusive gratisversioner av ChatGPT, Claude och Gemini — kan använda dina konversationer för att förbättra sina modeller, om du inte uttryckligen väljer bort det.
Detta innebär att text du matar in i princip kan granskas av anställda på företaget, användas i träningsdata eller sparas under längre tid.
Företagsversioner av dessa verktyg (såsom Microsoft Copilot för Microsoft 365 eller Claude for Enterprise) erbjuder vanligtvis starkare datasekretess — inklusive löften om att inte använda din data för träning. Men dessa kräver ett betalt organisationsabonnemang och specifik konfiguration.
Om du är osäker på vilken version din organisation använder — kontakta din IT- eller säkerhetsavdelning innan du matar in känslig information i något AI-verktyg.
Vad du aldrig ska mata in i ett AI-verktyg för konsumenter
Som en allmän regel, behandla AI-chattgränssnitt på samma sätt som du skulle behandla ett offentligt forum — utgå från att innehållet kan ses av andra.
Mata aldrig in:
- Personuppgifter om kunder, klienter eller anställda — namn, e-postadresser, telefonnummer, ID-nummer, adresser;
- Finansiell information — kontonummer, transaktionsdetaljer, löneuppgifter, budgetuppgifter som inte är offentliga;
- Hälso- eller medicinsk information om någon individ;
- Lösenord, API-nycklar eller autentiseringsuppgifter av något slag;
- Konfidentiell affärsinformation — information om ej lanserade produkter, M&A-diskussioner, strategiska planer, egen forskning;
- Juridiska dokument som innehåller privilegierat eller konfidentiellt innehåll.
Säkra alternativ: Hur du får hjälp utan risk
Behovet av att skydda känsliga data innebär inte att du inte kan använda AI för dessa uppgifter. Här är praktiska lösningar:
- Anonymisera innan du skriver in — ersätt riktiga namn med platshållare ("Kund A", "Anställd X") innan du klistrar in innehåll i AI:n;
- Beskriv situationen utan data — istället för att klistra in ett konfidentiellt dokument, beskriv typen av problem och be om en ram eller metod;
- Använd företagsklassade verktyg — om din organisation har licensierat Microsoft 365 Copilot eller liknande, arbetar dessa verktyg vanligtvis under striktare dataskyddsvillkor;
- Behåll känsligt innehåll lokalt — använd AI för att utarbeta struktur och språk, och fyll sedan i de känsliga detaljerna själv offline.
Känn till din organisations policy
Många organisationer utvecklar eller har redan publicerat interna AI-användningspolicyer. Dessa specificerar vanligtvis:
- Vilka AI-verktyg som är godkända för användning på jobbet;
- Vilka datakategorier som får och inte får matas in;
- Om en företagsspecifik AI-miljö finns tillgänglig;
- Hur man rapporterar oro eller incidenter relaterade till AI-användning.
Om din organisation har en sådan policy — följ den. Om inte — tillämpa de försiktiga standarderna ovan tills vägledning ges.
Tack för dina kommentarer!
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal