At Kende de Reelle Begrænsninger
Stryg for at vise menuen
Gode prompts kan gøre meget. De kan ikke gøre alt. En del af at bruge AI effektivt er at erkende de situationer, hvor en bedre prompt ikke er løsningen — hvor begrænsningen er strukturel, og ingen mængde teknik vil give et pålideligt resultat.
At kende disse begrænsninger sparer tid og forhindrer dig i at stole på uddata, du ikke burde.
Begrænsning 1 — Information, der ikke findes i træningsdata
AI-modeller er trænet på data op til en bestemt afskæringsdato. Alt, der er sket efter denne dato, ligger uden for, hvad modellen ved — og mere omhyggelig prompting ændrer ikke dette.
Dette påvirker:
- Seneste nyheder, lovgivningsændringer eller markedsudviklinger;
- Nye produktlanceringer, opdaterede priser eller nylig forskning;
- Begivenheder, beslutninger eller meddelelser, der er sket efter modellens træning.
Hvad prompting ikke kan løse: den manglende information er simpelthen ikke til stede. Modellen vil ofte alligevel producere et troværdigt svar — hvilket netop er faren.
Hvad du kan gøre i stedet: brug et værktøj med websøgningsfunktion (ChatGPT med Browse, Perplexity, Gemini med Search) til tidsfølsom information, eller indsæt de relevante aktuelle oplysninger direkte i din prompt, så modellen kan arbejde med dem.
Begrænsning 2 — Verificerede fakta, kildehenvisninger og specifikke data
AI genererer troværdig tekst. For velbeskrevne emner er teksten ofte korrekt. For specifikke fakta — statistikker, kildehenvisninger, juridiske referencer, forskningsresultater — er den ofte forkert på måder, der ikke kan opdages ud fra outputtet alene.
Ingen promptteknik løser dette pålideligt, fordi problemet ikke ligger i, hvordan spørgsmålet stilles — men i, hvad modellen pålideligt kan producere.
Hvad prompting ikke kan løse: at bede modellen om at "være nøjagtig" ellers "kun bruge verificerede kilder" giver den ikke adgang til oplysninger, den ikke har. Det kan måske reducere hallucinationer en smule, men vil ikke fjerne dem.
Hvad du kan gøre i stedet: brug AI til at generere struktur og sprog til indhold, der kræver specifikke fakta, og udfyld derefter de verificerede data selv fra primære kilder. Behandl ethvert specifikt udsagn fra AI som ikke-verificeret, indtil det er kontrolleret.
Grænse 3 — Din Organisations Specifikke Kontekst
Modellen har ingen viden om din virksomheds interne situation — din strategi, dit teams dynamik, dine kundeforhold, din produktplan, din kultur eller historikken bag nogen beslutning, du arbejder på.
Når du beder AI om råd, anbefalinger eller analyser omkring din specifikke situation, er output baseret på generelle mønstre — ikke din faktiske kontekst. Det kan lyde relevant, men kan være helt ude af trit med din virkelighed.
Hvad promptning delvist kan løse: du kan give kontekst i din prompt, og jo mere specifik denne kontekst er, jo mere målrettet bliver outputtet. Men der er grænser for, hvor meget kontekst der kan være i en prompt, og modellen kan kun arbejde med det, du eksplicit giver den.
Vær opmærksom på: AI-anbefalinger, der er teknisk korrekte, men ignorerer de organisatoriske, politiske eller relationelle begrænsninger, der gør den "indlysende" løsning uanvendelig i din specifikke organisation.
Grænse 4 — Dømmekraft, Værdier og Beslutninger, der Påvirker Mennesker
AI kan hjælpe dig med at overveje en beslutning. Den kan ikke træffe beslutningen for dig — og bør heller ikke.
Opgaver hvor menneskelig dømmekraft skal være afgørende:
- Ansættelse, performance og lønbeslutninger;
- Strategiske valg med væsentlige organisatoriske konsekvenser;
- Kommunikation med juridisk, etisk eller omdømmemæssig betydning;
- Enhver situation hvor nuancer i relationer, kultur eller individuelle omstændigheder afgør det rigtige resultat.
Hvad promptning ikke kan løse: AI har ingen interesse i resultatet, ingen viden om de involverede personer og intet ansvar for konsekvenserne. Det er netop disse ting, der gør dømmekraft mulig.
Hvad AI kan gøre: fremhæve muligheder, strukturere dine tanker, forudse indvendinger og udkast til kommunikation. Den faktiske beslutning — og ansvaret for den — er dit.
En praktisk test før du stoler på et output
Før du handler på et AI-output, der involverer fakta, anbefalinger eller beslutninger, gennemgå disse fire spørgsmål:
- Kan denne information være forældet? Hvis ja — verificér med en aktuel kilde;
- Indeholder dette specifikke påstande, jeg ikke har verificeret? Hvis ja — tjek hver enkelt, før du bruger dem;
- Tager denne anbefaling højde for min faktiske kontekst? Hvis nej — brug det som et udgangspunkt, ikke en konklusion;
- Bruger jeg dette output til at træffe en beslutning, der påvirker mennesker? Hvis ja — det bør være din vurdering, ikke AI'ens output, der er afgørende.
Disse spørgsmål tager tredive sekunder. De er forskellen mellem at bruge AI som et værktøj og at lade sig styre af det.
1. Hvilket af følgende er en grund til, at AI kan give upålidelige outputs ifølge kapitlet?
2. Hvad bør du gøre, før du stoler på AI-outputs, der involverer vigtige beslutninger eller fakta?
Tak for dine kommentarer!
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat