Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hvordan Store Sprogmodeller Forstår Prompts | Grundlæggende Principper for Prompt Engineering
Grundlæggende Prompt Engineering

bookHvordan Store Sprogmodeller Forstår Prompts

Store sprogmodeller (LLM'er) behandler prompts ved at opdele inputteksten i mindre enheder kaldet tokens. Modellen anvender disse tokens til at forstå betydningen og konteksten af dine instruktioner og genererer derefter et svar baseret på mønstre, den har lært fra store mængder data.

Note
Definition

Token er et tekststykke, såsom et ord eller en del af et ord, som modellen behandler individuelt.

LLM'er "tænker" ikke som mennesker. De forudsiger det næste ord eller udtryk baseret på inputprompten og deres træningsdata.

Hvis din prompt er for lang, kan modellen ignorere tidligere dele af inputtet. Denne størrelse af input kaldes kontekstvindue.

Note
Definition

Konstekstvindue er det maksimale antal tokens, som en LLM kan tage i betragtning på én gang, når den genererer et svar.

Eksempel

Hvis du beder: Write a poem about the ocean, fortolker modellen hvert ord som et token og bruger konteksten til at generere et relevant digt. Hvis du tilføjer flere detaljer, såsom Write a four-line poem about the ocean using vivid imagery, bruger modellen den ekstra kontekst til at tilpasse sit svar.

Note
Hurtig påmindelse

At være opmærksom på kontekstvinduet hjælper dig med at undgå at miste vigtig information i lange prompts.

question mark

Hvad er et token i forbindelse med LLM'er?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Awesome!

Completion rate improved to 11.11

bookHvordan Store Sprogmodeller Forstår Prompts

Stryg for at vise menuen

Store sprogmodeller (LLM'er) behandler prompts ved at opdele inputteksten i mindre enheder kaldet tokens. Modellen anvender disse tokens til at forstå betydningen og konteksten af dine instruktioner og genererer derefter et svar baseret på mønstre, den har lært fra store mængder data.

Note
Definition

Token er et tekststykke, såsom et ord eller en del af et ord, som modellen behandler individuelt.

LLM'er "tænker" ikke som mennesker. De forudsiger det næste ord eller udtryk baseret på inputprompten og deres træningsdata.

Hvis din prompt er for lang, kan modellen ignorere tidligere dele af inputtet. Denne størrelse af input kaldes kontekstvindue.

Note
Definition

Konstekstvindue er det maksimale antal tokens, som en LLM kan tage i betragtning på én gang, når den genererer et svar.

Eksempel

Hvis du beder: Write a poem about the ocean, fortolker modellen hvert ord som et token og bruger konteksten til at generere et relevant digt. Hvis du tilføjer flere detaljer, såsom Write a four-line poem about the ocean using vivid imagery, bruger modellen den ekstra kontekst til at tilpasse sit svar.

Note
Hurtig påmindelse

At være opmærksom på kontekstvinduet hjælper dig med at undgå at miste vigtig information i lange prompts.

question mark

Hvad er et token i forbindelse med LLM'er?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 2
some-alt