Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hvordan AI Genererer Et Svar | Hvordan Prompts Fungerer
Prompt Engineering til Arbejde

bookHvordan AI Genererer Et Svar

Stryg for at vise menuen

For at skrive bedre prompts hjælper det at have en grundlæggende mental model af, hvad der sker, efter du trykker send. Du behøver ikke forstå matematikken bag sprogmodeller — men at forstå processen på et konceptuelt niveau forklarer, hvorfor prompts fungerer, som de gør, og hvorfor resultaterne kan variere på måder, der føles uforudsigelige.

Fra input til output: Hvad sker der egentlig?

Når du sender en prompt, slår modellen ikke et svar op i en database. Den henter ikke et forudskrevet svar. Den genererer et svar — token for token — ved at forudsige, hvad der bør komme næste, givet alt i inputtet.

Processen fungerer omtrent sådan her:

  1. Din prompt opdeles i tokens — små tekstdele (omtrent ord eller dele af ord);
  2. Modellen behandler disse tokens gennem milliarder af lærte parametre for at opbygge en repræsentation af betydning og hensigt;
  3. Den genererer derefter outputtet én token ad gangen, hvor hver ny token påvirkes af alt det, der kom før;
  4. Dette fortsætter, indtil modellen når et naturligt stop eller rammer outputgrænsen.

Resultatet hentes ikke — det konstrueres, ord for ord, baseret på mønstre lært under træningen.

Skærmbilledebeskrivelse: Et rent, horisontalt flowdiagram med fire markerede trin forbundet med pile. Trin 1 — boks mærket "Your prompt" med teksten: "Summarize this in 3 bullet points for a non-technical audience." Trin 2 — boks mærket "Tokenization" viser den samme sætning opdelt i farvekodede dele: Summarize / this / in / 3 / bullet / points / for / a / non-technical / audience. Trin 3 — boks mærket "Model predicts next token" med en lille sandsynlighedsvisning, der viser tre muligheder: "The" 38%, "Here" 31%, "This" 19%. Trin 4 — boks mærket "Output builds token by token" viser et delvist færdigt svar. Fladt, minimalistisk design uden teknisk jargon i selve diagrammet.

Hvorfor det samme prompt kan give forskellige svar

Hvis du sender det præcis samme prompt to gange, kan du få to forskellige svar. Dette er ikke en fejl — det skyldes en parameter kaldet temperature, som styrer, hvor meget tilfældighed der introduceres i udvælgelsen af tokens.

  • Lav temperature — modellen vælger konsekvent det mest sandsynlige næste token. Output er mere forudsigeligt og gentagende;
  • Høj temperature — modellen vælger lejlighedsvis mindre sandsynlige tokens. Output er mere varieret og kreativt, men mindre konsistent.

De fleste AI-værktøjer indstiller temperature automatisk og viser ikke denne indstilling til brugeren. Det vigtigste i praksis er at vide, at variation er forventet og normalt — især ved kreative eller åbne opgaver.

Ved opgaver, der kræver konsistens (standardresuméer, strukturerede rapporter, skabelonbaseret kommunikation), er dette en grund til at være mere eksplicit i dit prompt om format og forventet output.

Hvad modellen ikke har adgang til

At forstå hvad modellen ikke kan se, er lige så vigtigt som at forstå, hvordan den genererer:

  • Den kan som udgangspunkt ikke tilgå internettet — medmindre værktøjet specifikt tilbyder websøgning som funktion;
  • Den har en knowledge cutoff-dato — begivenheder efter træningen er ukendte for modellen, medmindre de gives i prompten;
  • Den har ingen hukommelse mellem sessioner — hver ny samtale begynder fra bunden;
  • Den kan ikke se dine filer, skærme eller systemer — medmindre du eksplicit indsætter indholdet i prompten.

Hver af disse begrænsninger kan du kompensere for i dit prompt — ved at give den information, modellen ellers mangler. Det er netop det, kontekst i et prompt bruges til.

question mark

Hvorfor kan det samme prompt give forskellige svar fra en AI-model?

Vælg det korrekte svar

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 1. Kapitel 2
some-alt