Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hvordan Sprogmodeller "Tænker" | Hvordan Moderne AI Fungerer
Forståelse af AI til Arbejde

bookHvordan Sprogmodeller "Tænker"

Stryg for at vise menuen

Du behøver ikke at forstå, hvordan en bilmotor fungerer for at køre — men at vide, at den kører på brændstof, hjælper dig med at undgå at løbe tør for benzin. Det samme gælder for AI. Du behøver ikke en datalogisk uddannelse, men forståelsen af én central idé vil gøre resten af dette kursus meget mere forståeligt.

Forudsigelse, den centrale idé

Store sprogmodeller (LLM'er) — teknologien bag ChatGPT, Claude, Gemini og andre — fungerer ved at forudsige, hvad der kommer næste gang.

Givet en sekvens af ord beregner modellen, hvilket ord (eller sætning) der med størst sandsynlighed følger, baseret på mønstre, den har lært fra enorme mængder tekst: bøger, artikler, hjemmesider, kode og meget mere.

Det minder om autoudfyld på din telefon — blot trænet på stort set hele internettet og med langt større kompleksitet.

Skærmbilledebeskrivelse: Et enkelt, horisontalt diagram med tre trin forbundet af pile. Trin 1 — en tekstboks mærket "Din indtastning" med: "The weather today is…". Trin 2 — en boks mærket "Modellen forudsiger det mest sandsynlige næste ord" med tre muligheder og sandsynligheder: "sunny" 42 %, "cold" 31 %, "unpredictable" 27 %. Trin 3 — en boks mærket "Output opbygges ord for ord". Simpelt, fladt design, ingen teknisk jargon i diagrammet.

Hvad er tokens?

AI læser ikke ord på samme måde som du gør. Den opdeler tekst i små stykker kaldet tokens — som nogenlunde svarer til ord eller dele af ord.

For eksempel:

  • "running" kan være én token;
  • "unbelievable" kan opdeles i "un" + "believ" + "able";
  • Selv mellemrum og tegnsætning er tokens.

Derfor håndterer AI nogle gange usædvanlige ord akavet, eller meget lange input gør processen langsommere — hver token kræver processorkraft.

I praksis er det vigtigste at vide: jo flere tokens der er i din samtale, jo mere kontekst har modellen — og jo dyrere er det at køre (hvilket er grunden til, at gratis planer har begrænsninger).

Hvorfor AI nogle gange finder på ting

Modellen forudsiger hvad der lyder rigtigt, men producerer ikke altid det der er faktuelt korrekt. Når den støder på et emne uden for dens træningsdata, eller et spørgsmål den ikke kan besvare sikkert, siger den ikke "jeg ved det ikke" — den genererer i stedet et svar, der lyder plausibelt.

Dette kaldes en hallucination.

Det er ikke en fejl, og det er ikke AI'en der lyver. Det er en grundlæggende egenskab ved, hvordan forudsigelse fungerer. At vide dette er det første skridt til at bruge AI sikkert. Vi dækker det mere indgående i afsnit 3.

AI forudsiger — den ved det ikke rigtigt. Denne ene indsigt forklarer hvorfor gode prompts er vigtige, hvorfor du bør verificere vigtige fakta, og hvorfor menneskelig vurdering aldrig er valgfri, når du arbejder med AI.

1. Hvad er den grundlæggende idé bag, hvordan store sprogmodeller som ChatGPT fungerer?

2. Hvorfor genererer AI nogle gange svar, der ikke er faktuelt korrekte?

question mark

Hvad er den grundlæggende idé bag, hvordan store sprogmodeller som ChatGPT fungerer?

Vælg det korrekte svar

question mark

Hvorfor genererer AI nogle gange svar, der ikke er faktuelt korrekte?

Vælg det korrekte svar

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 1. Kapitel 2
some-alt