Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hvordan KI Genererer Et Svar | Hvordan prompt fungerer
Prompt Engineering for Arbeid

bookHvordan KI Genererer Et Svar

Sveip for å vise menyen

For å skrive bedre prompt, er det nyttig å ha en grunnleggende mental modell av hva som skjer etter at du trykker send. Du trenger ikke å forstå matematikken bak språkmodeller — men å forstå prosessen på et konseptuelt nivå forklarer hvorfor prompt fungerer som de gjør, og hvorfor resultatene kan variere på måter som kan virke uforutsigbare.

Fra input til output: Hva skjer egentlig

Når du sender en prompt, slår ikke modellen opp et svar i en database. Den henter ikke frem et ferdigskrevet svar. Den genererer et svar — token for token — ved å forutsi hva som bør komme neste, gitt alt i inputen.

Prosessen fungerer omtrent slik:

  1. Prompten din deles opp i tokens — små tekstbiter (omtrent ord eller deler av ord);
  2. Modellen prosesserer disse tokens gjennom milliarder av lærte parametere for å bygge en representasjon av mening og hensikt;
  3. Den genererer deretter output én token om gangen, hvor hver nye token påvirkes av alt som har kommet før;
  4. Dette fortsetter til modellen når et naturlig stoppunkt eller treffer output-grensen.

Resultatet hentes ikke frem — det konstrueres, ord for ord, basert på mønstre lært under trening.

Skjermbildebeskrivelse: Et rent horisontalt flytdiagram med fire merkede steg koblet sammen med piler. Steg 1 — boks merket "Din prompt" som inneholder teksten: "Summarize this in 3 bullet points for a non-technical audience." Steg 2 — boks merket "Tokenisering" som viser den samme setningen delt opp i fargekodede deler: Summarize / this / in / 3 / bullet / points / for / a / non-technical / audience. Steg 3 — boks merket "Modellen forutsier neste token" med en liten sannsynlighetsvisning som viser tre alternativer: "The" 38 %, "Here" 31 %, "This" 19 %. Steg 4 — boks merket "Output bygges token for token" som viser et delvis ferdig svar. Flatt, minimalistisk design uten teknisk sjargong i selve diagrammet.

Hvorfor samme prompt kan gi forskjellige svar

Hvis du sender nøyaktig samme prompt to ganger, kan du få to forskjellige svar. Dette er ikke en feil — det skyldes en parameter kalt temperatur, som styrer hvor mye tilfeldighet som introduseres i prosessen med å velge neste token.

  • Lav temperatur — modellen velger konsekvent det mest sannsynlige neste token. Resultatene blir mer forutsigbare og repeterende;
  • Høy temperatur — modellen velger av og til mindre sannsynlige tokens. Resultatene blir mer varierte og kreative, men mindre konsistente.

De fleste AI-verktøy setter temperatur automatisk og lar ikke brukeren justere denne innstillingen. Det viktigste i praksis er å vite at variasjon er forventet og normalt — spesielt for kreative eller åpne oppgaver.

For oppgaver som krever konsistens (standardoppsummeringer, strukturerte rapporter, malbasert kommunikasjon), er dette en grunn til å være mer eksplicit i prompten om format og forventet utdata.

Hva modellen ikke har tilgang til

Å forstå hva modellen ikke kan se er like viktig som å forstå hvordan den genererer svar:

  • Den har ikke tilgang til internett som standard — med mindre verktøyet spesifikt tilbyr nettsøk som funksjon;
  • Den har en kunnskapsgrense — hendelser etter treningsperioden er ukjente for modellen med mindre de oppgis i prompten;
  • Den har ikke minne mellom økter — hver nye samtale starter fra begynnelsen;
  • Den kan ikke se filene, skjermene eller systemene dine — med mindre du eksplicit limer inn innholdet i prompten.

Hver av disse begrensningene kan du kompensere for i prompten — ved å gi informasjonen modellen ellers ville mangle. Dette er nettopp hensikten med kontekst i en prompt.

question mark

Hvorfor kan samme prompt gi forskjellige svar fra en AI-modell?

Velg det helt riktige svaret

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 2

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Seksjon 1. Kapittel 2
some-alt