Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Datasekretess. Vad du aldrig bör dela med AI | Risker, Begränsningar och Ansvarsfull Användning
Förståelse för AI i Arbetslivet

bookDatasekretess. Vad du aldrig bör dela med AI

Svep för att visa menyn

Promptteknik gör AI mer användbar. Men att veta vad man inte ska lägga in i en prompt är minst lika viktigt som att kunna skriva en bra prompt.

När du skriver något i ett AI-verktyg skickar du den texten till en extern server som drivs av ett tredjepartsföretag. Att förstå vad det innebär — och vilka risker det medför — är avgörande för alla som använder AI i arbetet.

Hur AI-verktyg hanterar din inmatning

De flesta AI-verktyg för konsumenter — inklusive gratisversioner av ChatGPT, Claude och Gemini — kan använda dina konversationer för att förbättra sina modeller, om du inte uttryckligen väljer bort det.

Detta innebär att text du matar in i princip kan granskas av anställda på företaget, användas i träningsdata eller sparas under längre tid.

Företagsversioner av dessa verktyg (såsom Microsoft Copilot för Microsoft 365 eller Claude for Enterprise) erbjuder vanligtvis starkare datasekretess — inklusive löften om att inte använda din data för träning. Men dessa kräver ett betalt organisationsabonnemang och specifik konfiguration.

Om du är osäker på vilken version din organisation använder — kontakta din IT- eller säkerhetsavdelning innan du matar in känslig information i något AI-verktyg.

Vad du aldrig ska mata in i ett AI-verktyg för konsumenter

Som en allmän regel, behandla AI-chattgränssnitt på samma sätt som du skulle behandla ett offentligt forum — utgå från att innehållet kan ses av andra.

Mata aldrig in:

  • Personuppgifter om kunder, klienter eller anställda — namn, e-postadresser, telefonnummer, ID-nummer, adresser;
  • Finansiell information — kontonummer, transaktionsdetaljer, löneuppgifter, budgetuppgifter som inte är offentliga;
  • Hälso- eller medicinsk information om någon individ;
  • Lösenord, API-nycklar eller autentiseringsuppgifter av något slag;
  • Konfidentiell affärsinformation — information om ej lanserade produkter, M&A-diskussioner, strategiska planer, egen forskning;
  • Juridiska dokument som innehåller privilegierat eller konfidentiellt innehåll.
Skärmdumpsbeskrivning: En tvådelad bild. Vänster panel märkt "Vad du skrev" — en chattrutebox med ett realistiskt men fiktivt exempel på dålig praxis: "Här är försäljningssiffrorna för Q3 för våra 10 största kunder: [en kort tabell med fiktiva företagsnamn och intäktsbelopp]. Sammanfatta de viktigaste trenderna." Höger panel märkt "Vart det tar vägen" — ett enkelt diagram som visar texten lämna användarens webbläsare, resa till en molnserverikon märkt "AI-leverantörens servrar," med en streckad linje som förgrenar sig märkt "Kan användas för modellträning eller granskas av personal." En röd varningsetikett längst ner: "Konfidentiella affärsdata ska aldrig matas in i ett konsument-AI-verktyg." Alla företagsnamn och siffror i exemplet är tydligt fiktiva.

Säkra alternativ: Hur du får hjälp utan risk

Behovet av att skydda känsliga data innebär inte att du inte kan använda AI för dessa uppgifter. Här är praktiska lösningar:

  • Anonymisera innan du skriver in — ersätt riktiga namn med platshållare ("Kund A", "Anställd X") innan du klistrar in innehåll i AI:n;
  • Beskriv situationen utan data — istället för att klistra in ett konfidentiellt dokument, beskriv typen av problem och be om en ram eller metod;
  • Använd företagsklassade verktyg — om din organisation har licensierat Microsoft 365 Copilot eller liknande, arbetar dessa verktyg vanligtvis under striktare dataskyddsvillkor;
  • Behåll känsligt innehåll lokalt — använd AI för att utarbeta struktur och språk, och fyll sedan i de känsliga detaljerna själv offline.

Känn till din organisations policy

Många organisationer utvecklar eller har redan publicerat interna AI-användningspolicyer. Dessa specificerar vanligtvis:

  • Vilka AI-verktyg som är godkända för användning på jobbet;
  • Vilka datakategorier som får och inte får matas in;
  • Om en företagsspecifik AI-miljö finns tillgänglig;
  • Hur man rapporterar oro eller incidenter relaterade till AI-användning.

Om din organisation har en sådan policy — följ den. Om inte — tillämpa de försiktiga standarderna ovan tills vägledning ges.

question mark

Vilken av följande typer av information bör du undvika att mata in i ett konsumentinriktat AI-verktyg som ChatGPT på jobbet?

Vänligen välj det korrekta svaret

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 3. Kapitel 3

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Avsnitt 3. Kapitel 3
some-alt