Hvordan Store Sprogmodeller Forstår Prompts
Store sprogmodeller (LLM'er) behandler prompts ved at opdele inputteksten i mindre enheder kaldet tokens. Modellen anvender disse tokens til at forstå betydningen og konteksten af dine instruktioner og genererer derefter et svar baseret på mønstre, den har lært fra store mængder data.
Token er et tekststykke, såsom et ord eller en del af et ord, som modellen behandler individuelt.
LLM'er "tænker" ikke som mennesker. De forudsiger det næste ord eller udtryk baseret på inputprompten og deres træningsdata.
Hvis din prompt er for lang, kan modellen ignorere tidligere dele af inputtet. Denne størrelse af input kaldes kontekstvindue.
Konstekstvindue er det maksimale antal tokens, som en LLM kan tage i betragtning på én gang, når den genererer et svar.
Eksempel
Hvis du beder: Write a poem about the ocean, fortolker modellen hvert ord som et token og bruger konteksten til at generere et relevant digt. Hvis du tilføjer flere detaljer, såsom Write a four-line poem about the ocean using vivid imagery, bruger modellen den ekstra kontekst til at tilpasse sit svar.
At være opmærksom på kontekstvinduet hjælper dig med at undgå at miste vigtig information i lange prompts.
Tak for dine kommentarer!
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Awesome!
Completion rate improved to 11.11
Hvordan Store Sprogmodeller Forstår Prompts
Stryg for at vise menuen
Store sprogmodeller (LLM'er) behandler prompts ved at opdele inputteksten i mindre enheder kaldet tokens. Modellen anvender disse tokens til at forstå betydningen og konteksten af dine instruktioner og genererer derefter et svar baseret på mønstre, den har lært fra store mængder data.
Token er et tekststykke, såsom et ord eller en del af et ord, som modellen behandler individuelt.
LLM'er "tænker" ikke som mennesker. De forudsiger det næste ord eller udtryk baseret på inputprompten og deres træningsdata.
Hvis din prompt er for lang, kan modellen ignorere tidligere dele af inputtet. Denne størrelse af input kaldes kontekstvindue.
Konstekstvindue er det maksimale antal tokens, som en LLM kan tage i betragtning på én gang, når den genererer et svar.
Eksempel
Hvis du beder: Write a poem about the ocean, fortolker modellen hvert ord som et token og bruger konteksten til at generere et relevant digt. Hvis du tilføjer flere detaljer, såsom Write a four-line poem about the ocean using vivid imagery, bruger modellen den ekstra kontekst til at tilpasse sit svar.
At være opmærksom på kontekstvinduet hjælper dig med at undgå at miste vigtig information i lange prompts.
Tak for dine kommentarer!