Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Kjenne de reelle begrensningene | Avansert Prompting og Å Kjenne Begrensningene
Prompt Engineering for Arbeid

bookKjenne de reelle begrensningene

Sveip for å vise menyen

Gode prompt kan gjøre mye. De kan ikke gjøre alt. En del av å bruke KI effektivt er å gjenkjenne situasjoner der en bedre prompt ikke er løsningen — der begrensningen er strukturell, og ingen mengde teknikk vil gi et pålitelig resultat.

Å kjenne til disse begrensningene sparer deg for tid og hindrer deg i å stole på utdata du ikke burde stole på.

Begrensning 1 — Informasjon som ikke finnes i treningsdataene

KI-modeller er trent på data frem til en bestemt skjæringsdato. Alt som har skjedd etter denne datoen er utenfor det modellen vet — og mer presis prompting vil ikke endre dette.

Dette påvirker:

  • Siste nytt, regulatoriske endringer eller markedsutvikling;
  • Nye produktlanseringer, oppdaterte priser eller nylig forskning;
  • Hendelser, beslutninger eller kunngjøringer som har skjedd etter modellens trening.

Hva prompting ikke kan løse: den manglende informasjonen er rett og slett ikke der. Modellen vil ofte likevel produsere et troverdig svar — og det er nettopp dette som er faren.

Hva du kan gjøre i stedet: bruk et verktøy med nettsøk aktivert (ChatGPT med Browse, Perplexity, Gemini med Search) for tidskritisk informasjon, eller lim inn relevant oppdatert informasjon direkte i prompten slik at modellen kan arbeide med den.

Begrensning 2 — Verifiserte fakta, referanser og spesifikke data

KI genererer troverdig tekst. For godt dekkede temaer er denne teksten ofte korrekt. For spesifikke fakta — statistikk, referanser, juridiske henvisninger, forskningsfunn — er den ofte feil på måter som ikke kan oppdages ut fra svaret alene.

Ingen prompt-teknikk løser dette pålitelig fordi problemet ikke ligger i hvordan spørsmålet stilles — men i hva modellen pålitelig kan produsere.

Hva prompting ikke kan løse: å be modellen "være nøyaktig" eller "kun bruke verifiserte kilder" gir den ikke tilgang til informasjon den ikke har. Det kan redusere hallusinasjoner litt, men vil ikke eliminere dem.

Hva du kan gjøre i stedet: bruk KI til å generere struktur og språk for innhold som krever spesifikke fakta, og fyll deretter inn verifiserte data selv fra primærkilder. Behandle enhver spesifikk påstand fra KI som uverifisert inntil den er sjekket.

Begrensning 3 — Din organisasjons spesifikke kontekst

Modellen har ingen kunnskap om din bedrifts interne situasjon — din strategi, teamdynamikk, kundeforhold, produktplan, kultur eller historikken bak noen beslutninger du arbeider med.

Når du ber KI om råd, anbefalinger eller analyser om din spesifikke situasjon, er svaret basert på generelle mønstre — ikke din faktiske kontekst. Det kan høres relevant ut, men kan være helt feil i forhold til din virkelighet.

Hva promptingen delvis kan løse: du kan gi kontekst i prompten, og jo mer spesifikk denne konteksten er, jo mer tilpasset blir svaret. Men det er grenser for hvor mye kontekst som får plass i en prompt, og modellen kan bare arbeide med det du eksplisitt gir den.

Hva du bør være oppmerksom på: KI-anbefalinger som er teknisk korrekte, men som ignorerer organisatoriske, politiske eller relasjonelle begrensninger som gjør den "åpenbare" løsningen ubrukelig i din spesifikke situasjon.

Begrensning 4 — Vurderingsevne, verdier og beslutninger som påvirker mennesker

KI kan hjelpe deg med å tenke gjennom en beslutning. Den kan ikke ta beslutningen for deg — og bør heller ikke gjøre det.

Oppgaver hvor menneskelig vurdering må være avgjørende:

  • Ansettelse, prestasjon og lønnsbeslutninger;
  • Strategiske valg med betydelige organisatoriske konsekvenser;
  • Kommunikasjon med juridisk, etisk eller omdømmemessig betydning;
  • Enhver situasjon hvor nyanser i relasjoner, kultur eller individuelle forhold avgjør riktig utfall.

Hva prompting ikke kan løse: KI har ingen interesse i utfallet, ingen kunnskap om de involverte personene, og intet ansvar for konsekvensene. Dette er nettopp det som gjør vurdering mulig.

Hva KI kan gjøre: presentere alternativer, strukturere tankegangen, forutse innvendinger og utarbeide utkast til kommunikasjon. Den faktiske beslutningen — og ansvaret for den — tilhører deg.

Skjermbildetekst: Et ryddig referansekort med fire paneler — ikke et skjermbilde av et KI-verktøy. Tittel øverst: "Når en bedre prompt ikke løser det." Fire rader, hver med et uthevet begrensningsnavn til venstre og en todelt forklaring til høyre som viser "Hva som faktisk er galt" og "Hva du bør gjøre i stedet." Rad 1: "Informasjon etter treningsavgrensningen" → "Dataene finnes ikke i modellen / Bruk et verktøy med nettsøk eller lim inn oppdatert informasjon direkte." Rad 2: "Spesifikke fakta og referanser" → "Modellen genererer plausibel tekst, ikke verifiserte fakta / Bruk KI for struktur og språk; verifiser hver enkelt påstand separat." Rad 3: "Din organisasjons interne kontekst" → "Modellen har ingen kunnskap om din spesifikke situasjon / Gi kontekst eksplisitt i prompten; behandle anbefalinger som generelle, ikke spesifikke." Rad 4: "Vurdering og beslutninger som påvirker mennesker" → "KI har ingen interesse, intet ansvar og ingen relasjonell kunnskap / Bruk KI til å strukturere tankegangen; behold beslutningen og ansvaret selv." Ryddig utforming, profesjonell typografi, diskret venstre kantlinje i ravgul.

En praktisk test før du stoler på et resultat

Før du handler på et AI-resultat som involverer fakta, anbefalinger eller beslutninger, gå gjennom disse fire spørsmålene:

  • Kan denne informasjonen være utdatert? Hvis ja — verifiser med en oppdatert kilde;
  • Inneholder dette spesifikke påstander jeg ikke har verifisert? Hvis ja — sjekk hver enkelt før bruk;
  • Tar denne anbefalingen hensyn til min faktiske kontekst? Hvis nei — bruk det som et utgangspunkt, ikke en konklusjon;
  • Bruker jeg dette resultatet til å ta en beslutning som påvirker mennesker? Hvis ja — det er din vurdering, ikke AI-ens resultat, som bør være avgjørende.

Disse spørsmålene tar tretti sekunder. De utgjør forskjellen mellom å bruke AI som et verktøy og å bli ledet av det.

1. Hvilket av følgende er en grunn til at AI kan gi upålitelige resultater ifølge kapitlet?

2. Hva bør du gjøre før du stoler på AI-resultater som involverer viktige beslutninger eller fakta?

question mark

Hvilket av følgende er en grunn til at AI kan gi upålitelige resultater ifølge kapitlet?

Velg det helt riktige svaret

question mark

Hva bør du gjøre før du stoler på AI-resultater som involverer viktige beslutninger eller fakta?

Velg det helt riktige svaret

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 4. Kapittel 3

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Seksjon 4. Kapittel 3
some-alt