Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hallusinasjoner: Hvorfor KI Selvsikkert Tar Feil | Risikoer, Begrensninger og Ansvarlig Bruk
Forståelse av KI for Arbeid

bookHallusinasjoner: Hvorfor KI Selvsikkert Tar Feil

Sveip for å vise menyen

Du har lært hvordan du får nyttige resultater fra KI. Nå er det på tide å lære når du ikke skal stole på dem.

KI-verktøy er flytende, selvsikre og raske. De er også i stand til å produsere informasjon som høres helt plausibel ut — men som er fullstendig feil. Å forstå hvorfor dette skjer er en av de viktigste tingene du kan ta med deg fra dette kurset.

Hva er en hallusinasjon?

Note
Definisjon

I KI er en "hallusinasjon" når modellen genererer innhold som er faktisk feil, oppdiktet eller ikke forankret i virkeligheten — men presenterer det med samme selvsikre tone som korrekt informasjon.

Eksempler på hallusinasjoner i praksis:

  • En advokat leverer et juridisk notat med henvisning til seks rettssaker. Alle seks var oppdiktet av ChatGPT. Ingen av dem eksisterte;
  • En AI-generert produktbeskrivelse inneholder en teknisk spesifikasjon som virker troverdig, men som er fullstendig oppdiktet;
  • Et sammendrag av en forskningsartikkel inneholder en statistikk som aldri forekom i det opprinnelige dokumentet;
  • En AI anbefaler en spesifikk forskrift eller lov som ikke eksisterer i den nevnte jurisdiksjonen.

AI-en vet ikke at den tar feil. Den lyver ikke. Den gjør nøyaktig det den er designet for å gjøre — generere den mest sannsynlige fortsettelsen av teksten — og i disse tilfellene fører denne prosessen til feilaktig innhold.

Skjermbildebeskrivelse: Et chatvindu viser en bruker som spør: "Hva var hovedfunnene i 2021 Nielsen-rapporten om produktivitet ved fjernarbeid?" AI-en svarer med et detaljert, selvsikkert sammendrag — spesifikke prosentandeler, navngitte forfattere, sentrale konklusjoner — alt presentert som fakta. Under svaret ligger en rød kommentarboks over utdataene med etiketten: "Denne rapporten eksisterer ikke. Alle detaljer ble fabrikkert av modellen." AI-svaret inneholder ingen forbehold — det fremstår som autoritativt. Kontrasten mellom den selvsikre tonen og det oppdiktede innholdet er poenget. Ingen faktiske falske referanser skal se ekte ut — bruk tydelig plassholdernavn som "Nielsen 2021 Remote Work Insights Report, forfattet av J. Harlow og S. Müller."

Hvorfor skjer dette?

Som nevnt i Seksjon 1: AI forutsier neste tegn basert på mønstre. Den har ingen intern faktasjekk. Den har ingen bevissthet om hva den vet eller ikke vet.

Når modellen får et spørsmål den ikke kan besvare pålitelig, stopper den ikke — den genererer et svar som passer til mønsteret av hvordan et korrekt svar ville sett ut. Resultatet er innhold som er flytende, strukturert og feil.

Hallusinasjoner er mer sannsynlig når:

  • Du spør om svært spesifikke fakta, statistikker eller referanser;
  • Du spør om nylige hendelser etter modellens treningskutt-off-dato;
  • Du spør om nisjetemaer med begrenset treningsdata;
  • Spørsmålet har en "fyll inn det tomme"-struktur som inviterer til oppdiktning.

Hva hallusinasjoner ikke er

Det er verdt å være presis om dette:

  • Hallusinasjoner er ikke at KI er villedende eller ondsinnet;
  • De er ikke et tegn på at KI er ødelagt eller ubrukelig;
  • De er ikke tilfeldige feil — de følger forutsigbare mønstre;
  • De er ikke unike for ett verktøy — alle større KI-systemer hallusinerer.

Dette er en strukturell egenskap ved hvordan språkmodeller fungerer. Riktig respons er ikke å unngå KI — det er å vite når man må verifisere.

Den gyldne regel: Flyt er ikke nøyaktighet

Det viktigste å forstå om KI-utdata:

Et svar kan være vakkert skrevet, logisk strukturert, og fullstendig feil.

Kvaliteten på språket sier ingenting om kvaliteten på informasjonen. KI skriver med jevn selvsikkerhet uavhengig av om det er korrekt. Behandle alltid fakta, statistikk, navn, datoer og referanser som uverifiserte inntil du har sjekket dem.

1. Hvilket av følgende beskriver best en KI-hallusinasjon?

2. Hvorfor produserer AI-modeller som ChatGPT noen ganger informasjon som høres korrekt ut, men som faktisk er feil, og hva betyr dette for brukerne?

question mark

Hvilket av følgende beskriver best en KI-hallusinasjon?

Velg det helt riktige svaret

question mark

Hvorfor produserer AI-modeller som ChatGPT noen ganger informasjon som høres korrekt ut, men som faktisk er feil, og hva betyr dette for brukerne?

Velg det helt riktige svaret

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 3. Kapittel 1

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Seksjon 3. Kapittel 1
some-alt