Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hallucinationer: Hvorfor AI Selvsikkert Tager Fejl | Risici, Begrænsninger og Ansvarlig Brug
Forståelse af AI til Arbejde

bookHallucinationer: Hvorfor AI Selvsikkert Tager Fejl

Stryg for at vise menuen

Du har lært, hvordan du får nyttige resultater fra AI. Nu er det tid til at lære, hvornår du ikke skal stole på dem.

AI-værktøjer er flydende, selvsikre og hurtige. De er også i stand til at producere information, der lyder fuldstændig plausibel — og som er helt forkert. At forstå, hvorfor dette sker, er en af de vigtigste ting, du kan tage med dig fra dette kursus.

Hvad er en hallucination?

Note
Definition

Inden for AI er en "hallucination" når modellen genererer indhold, der er faktuelt forkert, opdigtet eller ikke forankret i virkeligheden — men præsenterer det med samme selvsikre tone som korrekt information.

Eksempler på hallucinationer i praksis:

  • En advokat indsender et juridisk dokument, der henviser til seks retssager. Alle seks var opfundet af ChatGPT. Ingen af dem eksisterede;
  • En AI-genereret produktbeskrivelse indeholder en teknisk specifikation, der lyder troværdig, men er fuldstændig opdigtet;
  • Et resumé af en forskningsartikel indeholder en statistik, der aldrig optrådte i det oprindelige dokument;
  • En AI anbefaler en specifik regulering eller lov, der ikke eksisterer i den nævnte jurisdiktion.

AI'en ved ikke, at den tager fejl. Den lyver ikke. Den gør præcis, hvad den er designet til — genererer den mest statistisk sandsynlige fortsættelse af teksten — og i disse tilfælde producerer denne proces fejlagtigt output.

Skærmbeskrivelse: Et chatvindue viser en bruger, der spørger: "Hvad var hovedresultaterne i 2021 Nielsen-rapporten om produktivitet ved fjernarbejde?" AI'en svarer med et detaljeret, selvsikkert resumé — specifikke procenter, navngivne forfattere, centrale konklusioner — alt præsenteret som fakta. Under svaret er der en rød markeringsboks over outputtet med teksten: "Denne rapport eksisterer ikke. Alle detaljer blev fabrikeret af modellen." AI'ens svar indeholder ingen forbehold — det fremstår autoritativt. Kontrasten mellem den selvsikre tone og det fabrikerede indhold er pointen. Ingen falske citater må se ægte nok ud til at kunne kopieres — brug tydeligt pladsholdernavne som "Nielsen 2021 Remote Work Insights Report, forfattet af J. Harlow og S. Müller."

Hvorfor sker dette?

Som nævnt i afsnit 1: AI forudsiger det næste token baseret på mønstre. Den har ingen intern faktatjekker. Den har ingen bevidsthed om, hvad den ved eller ikke ved.

Når modellen får et spørgsmål, den ikke kan besvare pålideligt, stopper den ikke — den genererer et svar, der passer til mønstret for, hvordan et korrekt svar ville se ud. Resultatet er indhold, der er flydende, struktureret og forkert.

Hallucinationer er mere sandsynlige, når:

  • Du spørger om meget specifikke fakta, statistikker eller referencer;
  • Du spørger om nylige begivenheder efter modellens træningsdato;
  • Du spørger om nicheemner med begrænset træningsdata;
  • Spørgsmålet har en "udfyld det tomme felt"-struktur, der indbyder til opfindelser.

Hvad hallucinationer ikke er

Det er værd at være præcis omkring dette:

  • Hallucinationer er ikke AI, der er vildledende eller ondsindet;
  • De er ikke et tegn på, at AI er ødelagt eller ubrugelig;
  • De er ikke tilfældige fejl — de følger forudsigelige mønstre;
  • De er ikke unikke for ét værktøj — alle større AI-systemer hallucinerer.

De er en strukturel egenskab ved, hvordan sprogmodeller fungerer. Den rette reaktion er ikke at undgå AI — det er at vide, hvornår man skal verificere.

Den gyldne regel: Flydende sprog er ikke nøjagtighed

Det vigtigste at forstå om AI-output:

Et svar kan være smukt formuleret, logisk opbygget og fuldstændig forkert.

Kvaliteten af sproget siger intet om kvaliteten af oplysningerne. AI skriver med konstant selvtillid, uanset om det er korrekt eller ej. Behandl altid fakta, statistikker, navne, datoer og referencer som ubekræftede, indtil du har tjekket dem.

1. Hvilket af følgende beskriver bedst en AI-hallucination?

2. Hvorfor producerer AI-modeller som ChatGPT nogle gange information, der lyder korrekt, men faktisk er forkert, og hvad betyder det for brugerne?

question mark

Hvilket af følgende beskriver bedst en AI-hallucination?

Vælg det korrekte svar

question mark

Hvorfor producerer AI-modeller som ChatGPT nogle gange information, der lyder korrekt, men faktisk er forkert, og hvad betyder det for brugerne?

Vælg det korrekte svar

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 3. Kapitel 1

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 3. Kapitel 1
some-alt