Hvordan Sprogmodeller "Tænker"
Stryg for at vise menuen
Du behøver ikke at forstå, hvordan en bilmotor fungerer for at køre — men at vide, at den kører på brændstof, hjælper dig med at undgå at løbe tør for benzin. Det samme gælder for AI. Du behøver ikke en datalogisk uddannelse, men forståelsen af én central idé vil gøre resten af dette kursus meget mere forståeligt.
Forudsigelse, den centrale idé
Store sprogmodeller (LLM'er) — teknologien bag ChatGPT, Claude, Gemini og andre — fungerer ved at forudsige, hvad der kommer næste gang.
Givet en sekvens af ord beregner modellen, hvilket ord (eller sætning) der med størst sandsynlighed følger, baseret på mønstre, den har lært fra enorme mængder tekst: bøger, artikler, hjemmesider, kode og meget mere.
Det minder om autoudfyld på din telefon — blot trænet på stort set hele internettet og med langt større kompleksitet.
Hvad er tokens?
AI læser ikke ord på samme måde som du gør. Den opdeler tekst i små stykker kaldet tokens — som nogenlunde svarer til ord eller dele af ord.
For eksempel:
- "running" kan være én token;
- "unbelievable" kan opdeles i "un" + "believ" + "able";
- Selv mellemrum og tegnsætning er tokens.
Derfor håndterer AI nogle gange usædvanlige ord akavet, eller meget lange input gør processen langsommere — hver token kræver processorkraft.
I praksis er det vigtigste at vide: jo flere tokens der er i din samtale, jo mere kontekst har modellen — og jo dyrere er det at køre (hvilket er grunden til, at gratis planer har begrænsninger).
Hvorfor AI nogle gange finder på ting
Modellen forudsiger hvad der lyder rigtigt, men producerer ikke altid det der er faktuelt korrekt. Når den støder på et emne uden for dens træningsdata, eller et spørgsmål den ikke kan besvare sikkert, siger den ikke "jeg ved det ikke" — den genererer i stedet et svar, der lyder plausibelt.
Dette kaldes en hallucination.
Det er ikke en fejl, og det er ikke AI'en der lyver. Det er en grundlæggende egenskab ved, hvordan forudsigelse fungerer. At vide dette er det første skridt til at bruge AI sikkert. Vi dækker det mere indgående i afsnit 3.
AI forudsiger — den ved det ikke rigtigt. Denne ene indsigt forklarer hvorfor gode prompts er vigtige, hvorfor du bør verificere vigtige fakta, og hvorfor menneskelig vurdering aldrig er valgfri, når du arbejder med AI.
1. Hvad er den grundlæggende idé bag, hvordan store sprogmodeller som ChatGPT fungerer?
2. Hvorfor genererer AI nogle gange svar, der ikke er faktuelt korrekte?
Tak for dine kommentarer!
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat