Hvordan Språkmodeller "Tenker"
Sveip for å vise menyen
Du trenger ikke å vite hvordan en bilmotor fungerer for å kjøre — men å vite at den går på drivstoff hjelper deg å unngå å gå tom. Det samme gjelder for KI. Du trenger ikke en datavitenskapelig utdannelse, men å forstå et sentralt konsept vil gjøre resten av kurset mye lettere å forstå.
Prediksjon, det sentrale konseptet
Store språkmodeller (LLM-er) — teknologien bak ChatGPT, Claude, Gemini og andre — fungerer ved å forutsi hva som kommer neste.
Gitt en sekvens av ord, beregner modellen hvilket ord (eller uttrykk) som er mest sannsynlig å følge, basert på mønstre den har lært fra enorme mengder av tekst: bøker, artikler, nettsider, kode og mer.
Det ligner på autofullføringen på mobilen din — bare trent på i praksis hele internett, med langt større kompleksitet.
Hva er tokens?
KI leser ikke ord slik du gjør. Den deler tekst opp i små biter kalt tokens — som omtrent tilsvarer ord eller deler av ord.
For eksempel:
- "running" kan være én token;
- "unbelievable" kan deles opp i "un" + "believ" + "able";
- Selv mellomrom og tegnsetting er tokens.
Dette forklarer hvorfor KI noen ganger håndterer uvanlige ord klønete, eller hvorfor veldig lange inndata gjør prosessen tregere — hver token krever prosessorkraft.
For praktisk bruk er det viktigste å vite dette: jo flere tokens i samtalen din, desto mer kontekst har modellen — og desto dyrere er det å kjøre (derfor har gratisabonnementer begrensninger).
Hvorfor KI noen ganger finner på ting
Modellen forutsier det som høres riktig ut, men produserer ikke alltid det som er faktisk korrekt. Når den møter et tema utenfor treningsdataene sine, eller et spørsmål den ikke kan svare på med sikkerhet, sier den ikke "jeg vet ikke" — den genererer likevel et svar som høres plausibelt ut.
Dette kalles en hallusinasjon.
Det er ikke en feil, og det er ikke KI som lyver for deg. Det er en grunnleggende egenskap ved hvordan prediksjon fungerer. Å vite dette er første steg til sikker bruk av KI. Vi går grundigere inn på dette i seksjon 3.
KI forutsier — den vet ikke egentlig. Denne innsikten forklarer hvorfor gode prompt er viktig, hvorfor du bør verifisere viktige fakta, og hvorfor menneskelig vurdering aldri kan utelates når du jobber med KI.
1. Hva er hovedideen bak hvordan store språkmodeller som ChatGPT fungerer?
2. Hvorfor genererer AI noen ganger svar som ikke er faktuelt korrekte?
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår