Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hvordan Store Språkmodeller Forstår Prompt | Grunnleggende Prinsipper for Prompt Engineering
Grunnleggende Prompt Engineering

bookHvordan Store Språkmodeller Forstår Prompt

Store språkmodeller (LLM-er) behandler forespørsler ved å dele opp inndata-teksten i mindre enheter kalt token. Modellen bruker disse tokenene for å forstå betydningen og konteksten av instruksjonene dine, og genererer deretter et svar basert på mønstre den har lært fra store mengder data.

Note
Definisjon

Token er et tekststykke, for eksempel et ord eller en del av et ord, som modellen behandler individuelt.

LLM-er "tenker" ikke som mennesker. De forutsier neste ord eller uttrykk basert på inndata og treningsdata.

Hvis forespørselen din er for lang, kan modellen overse tidligere deler av inndataen. Denne størrelsen på inndataen kalles kontekstvindu.

Note
Definisjon

Kontekstvindu er det maksimale antallet tokens en LLM kan ta hensyn til samtidig når den genererer et svar.

Eksempel

Hvis du spør, Write a poem about the ocean, tolker modellen hvert ord som en token og bruker konteksten til å generere et relevant dikt. Hvis du legger til flere detaljer, som Write a four-line poem about the ocean using vivid imagery, bruker modellen den ekstra konteksten til å tilpasse svaret sitt.

Note
Rask påminnelse

Å være oppmerksom på kontekstvinduet hjelper deg å unngå å miste viktig informasjon i lange prompt.

question mark

Hva er et token i sammenheng med LLM-er?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 2

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Awesome!

Completion rate improved to 11.11

bookHvordan Store Språkmodeller Forstår Prompt

Sveip for å vise menyen

Store språkmodeller (LLM-er) behandler forespørsler ved å dele opp inndata-teksten i mindre enheter kalt token. Modellen bruker disse tokenene for å forstå betydningen og konteksten av instruksjonene dine, og genererer deretter et svar basert på mønstre den har lært fra store mengder data.

Note
Definisjon

Token er et tekststykke, for eksempel et ord eller en del av et ord, som modellen behandler individuelt.

LLM-er "tenker" ikke som mennesker. De forutsier neste ord eller uttrykk basert på inndata og treningsdata.

Hvis forespørselen din er for lang, kan modellen overse tidligere deler av inndataen. Denne størrelsen på inndataen kalles kontekstvindu.

Note
Definisjon

Kontekstvindu er det maksimale antallet tokens en LLM kan ta hensyn til samtidig når den genererer et svar.

Eksempel

Hvis du spør, Write a poem about the ocean, tolker modellen hvert ord som en token og bruker konteksten til å generere et relevant dikt. Hvis du legger til flere detaljer, som Write a four-line poem about the ocean using vivid imagery, bruker modellen den ekstra konteksten til å tilpasse svaret sitt.

Note
Rask påminnelse

Å være oppmerksom på kontekstvinduet hjelper deg å unngå å miste viktig informasjon i lange prompt.

question mark

Hva er et token i sammenheng med LLM-er?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 2
some-alt