Hallucinationer: Hvorfor AI Selvsikkert Tager Fejl
Stryg for at vise menuen
Du har lært, hvordan du får nyttige resultater fra AI. Nu er det tid til at lære, hvornår du ikke skal stole på dem.
AI-værktøjer er flydende, selvsikre og hurtige. De er også i stand til at producere information, der lyder fuldstændig plausibel — og som er helt forkert. At forstå, hvorfor dette sker, er en af de vigtigste ting, du kan tage med dig fra dette kursus.
Hvad er en hallucination?
Inden for AI er en "hallucination" når modellen genererer indhold, der er faktuelt forkert, opdigtet eller ikke forankret i virkeligheden — men præsenterer det med samme selvsikre tone som korrekt information.
Eksempler på hallucinationer i praksis:
- En advokat indsender et juridisk dokument, der henviser til seks retssager. Alle seks var opfundet af ChatGPT. Ingen af dem eksisterede;
- En AI-genereret produktbeskrivelse indeholder en teknisk specifikation, der lyder troværdig, men er fuldstændig opdigtet;
- Et resumé af en forskningsartikel indeholder en statistik, der aldrig optrådte i det oprindelige dokument;
- En AI anbefaler en specifik regulering eller lov, der ikke eksisterer i den nævnte jurisdiktion.
AI'en ved ikke, at den tager fejl. Den lyver ikke. Den gør præcis, hvad den er designet til — genererer den mest statistisk sandsynlige fortsættelse af teksten — og i disse tilfælde producerer denne proces fejlagtigt output.
Hvorfor sker dette?
Som nævnt i afsnit 1: AI forudsiger det næste token baseret på mønstre. Den har ingen intern faktatjekker. Den har ingen bevidsthed om, hvad den ved eller ikke ved.
Når modellen får et spørgsmål, den ikke kan besvare pålideligt, stopper den ikke — den genererer et svar, der passer til mønstret for, hvordan et korrekt svar ville se ud. Resultatet er indhold, der er flydende, struktureret og forkert.
Hallucinationer er mere sandsynlige, når:
- Du spørger om meget specifikke fakta, statistikker eller referencer;
- Du spørger om nylige begivenheder efter modellens træningsdato;
- Du spørger om nicheemner med begrænset træningsdata;
- Spørgsmålet har en "udfyld det tomme felt"-struktur, der indbyder til opfindelser.
Hvad hallucinationer ikke er
Det er værd at være præcis omkring dette:
- Hallucinationer er ikke AI, der er vildledende eller ondsindet;
- De er ikke et tegn på, at AI er ødelagt eller ubrugelig;
- De er ikke tilfældige fejl — de følger forudsigelige mønstre;
- De er ikke unikke for ét værktøj — alle større AI-systemer hallucinerer.
De er en strukturel egenskab ved, hvordan sprogmodeller fungerer. Den rette reaktion er ikke at undgå AI — det er at vide, hvornår man skal verificere.
Den gyldne regel: Flydende sprog er ikke nøjagtighed
Det vigtigste at forstå om AI-output:
Et svar kan være smukt formuleret, logisk opbygget og fuldstændig forkert.
Kvaliteten af sproget siger intet om kvaliteten af oplysningerne. AI skriver med konstant selvtillid, uanset om det er korrekt eller ej. Behandl altid fakta, statistikker, navne, datoer og referencer som ubekræftede, indtil du har tjekket dem.
1. Hvilket af følgende beskriver bedst en AI-hallucination?
2. Hvorfor producerer AI-modeller som ChatGPT nogle gange information, der lyder korrekt, men faktisk er forkert, og hvad betyder det for brugerne?
Tak for dine kommentarer!
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat