Kjenne de reelle begrensningene
Sveip for å vise menyen
Gode prompt kan gjøre mye. De kan ikke gjøre alt. En del av å bruke KI effektivt er å gjenkjenne situasjoner der en bedre prompt ikke er løsningen — der begrensningen er strukturell, og ingen mengde teknikk vil gi et pålitelig resultat.
Å kjenne til disse begrensningene sparer deg for tid og hindrer deg i å stole på utdata du ikke burde stole på.
Begrensning 1 — Informasjon som ikke finnes i treningsdataene
KI-modeller er trent på data frem til en bestemt skjæringsdato. Alt som har skjedd etter denne datoen er utenfor det modellen vet — og mer presis prompting vil ikke endre dette.
Dette påvirker:
- Siste nytt, regulatoriske endringer eller markedsutvikling;
- Nye produktlanseringer, oppdaterte priser eller nylig forskning;
- Hendelser, beslutninger eller kunngjøringer som har skjedd etter modellens trening.
Hva prompting ikke kan løse: den manglende informasjonen er rett og slett ikke der. Modellen vil ofte likevel produsere et troverdig svar — og det er nettopp dette som er faren.
Hva du kan gjøre i stedet: bruk et verktøy med nettsøk aktivert (ChatGPT med Browse, Perplexity, Gemini med Search) for tidskritisk informasjon, eller lim inn relevant oppdatert informasjon direkte i prompten slik at modellen kan arbeide med den.
Begrensning 2 — Verifiserte fakta, referanser og spesifikke data
KI genererer troverdig tekst. For godt dekkede temaer er denne teksten ofte korrekt. For spesifikke fakta — statistikk, referanser, juridiske henvisninger, forskningsfunn — er den ofte feil på måter som ikke kan oppdages ut fra svaret alene.
Ingen prompt-teknikk løser dette pålitelig fordi problemet ikke ligger i hvordan spørsmålet stilles — men i hva modellen pålitelig kan produsere.
Hva prompting ikke kan løse: å be modellen "være nøyaktig" eller "kun bruke verifiserte kilder" gir den ikke tilgang til informasjon den ikke har. Det kan redusere hallusinasjoner litt, men vil ikke eliminere dem.
Hva du kan gjøre i stedet: bruk KI til å generere struktur og språk for innhold som krever spesifikke fakta, og fyll deretter inn verifiserte data selv fra primærkilder. Behandle enhver spesifikk påstand fra KI som uverifisert inntil den er sjekket.
Begrensning 3 — Din organisasjons spesifikke kontekst
Modellen har ingen kunnskap om din bedrifts interne situasjon — din strategi, teamdynamikk, kundeforhold, produktplan, kultur eller historikken bak noen beslutninger du arbeider med.
Når du ber KI om råd, anbefalinger eller analyser om din spesifikke situasjon, er svaret basert på generelle mønstre — ikke din faktiske kontekst. Det kan høres relevant ut, men kan være helt feil i forhold til din virkelighet.
Hva promptingen delvis kan løse: du kan gi kontekst i prompten, og jo mer spesifikk denne konteksten er, jo mer tilpasset blir svaret. Men det er grenser for hvor mye kontekst som får plass i en prompt, og modellen kan bare arbeide med det du eksplisitt gir den.
Hva du bør være oppmerksom på: KI-anbefalinger som er teknisk korrekte, men som ignorerer organisatoriske, politiske eller relasjonelle begrensninger som gjør den "åpenbare" løsningen ubrukelig i din spesifikke situasjon.
Begrensning 4 — Vurderingsevne, verdier og beslutninger som påvirker mennesker
KI kan hjelpe deg med å tenke gjennom en beslutning. Den kan ikke ta beslutningen for deg — og bør heller ikke gjøre det.
Oppgaver hvor menneskelig vurdering må være avgjørende:
- Ansettelse, prestasjon og lønnsbeslutninger;
- Strategiske valg med betydelige organisatoriske konsekvenser;
- Kommunikasjon med juridisk, etisk eller omdømmemessig betydning;
- Enhver situasjon hvor nyanser i relasjoner, kultur eller individuelle forhold avgjør riktig utfall.
Hva prompting ikke kan løse: KI har ingen interesse i utfallet, ingen kunnskap om de involverte personene, og intet ansvar for konsekvensene. Dette er nettopp det som gjør vurdering mulig.
Hva KI kan gjøre: presentere alternativer, strukturere tankegangen, forutse innvendinger og utarbeide utkast til kommunikasjon. Den faktiske beslutningen — og ansvaret for den — tilhører deg.
En praktisk test før du stoler på et resultat
Før du handler på et AI-resultat som involverer fakta, anbefalinger eller beslutninger, gå gjennom disse fire spørsmålene:
- Kan denne informasjonen være utdatert? Hvis ja — verifiser med en oppdatert kilde;
- Inneholder dette spesifikke påstander jeg ikke har verifisert? Hvis ja — sjekk hver enkelt før bruk;
- Tar denne anbefalingen hensyn til min faktiske kontekst? Hvis nei — bruk det som et utgangspunkt, ikke en konklusjon;
- Bruker jeg dette resultatet til å ta en beslutning som påvirker mennesker? Hvis ja — det er din vurdering, ikke AI-ens resultat, som bør være avgjørende.
Disse spørsmålene tar tretti sekunder. De utgjør forskjellen mellom å bruke AI som et verktøy og å bli ledet av det.
1. Hvilket av følgende er en grunn til at AI kan gi upålitelige resultater ifølge kapitlet?
2. Hva bør du gjøre før du stoler på AI-resultater som involverer viktige beslutninger eller fakta?
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår