Hvordan Store Språkmodeller Forstår Prompt
Store språkmodeller (LLM-er) behandler forespørsler ved å dele opp inndata-teksten i mindre enheter kalt token. Modellen bruker disse tokenene for å forstå betydningen og konteksten av instruksjonene dine, og genererer deretter et svar basert på mønstre den har lært fra store mengder data.
Token er et tekststykke, for eksempel et ord eller en del av et ord, som modellen behandler individuelt.
LLM-er "tenker" ikke som mennesker. De forutsier neste ord eller uttrykk basert på inndata og treningsdata.
Hvis forespørselen din er for lang, kan modellen overse tidligere deler av inndataen. Denne størrelsen på inndataen kalles kontekstvindu.
Kontekstvindu er det maksimale antallet tokens en LLM kan ta hensyn til samtidig når den genererer et svar.
Eksempel
Hvis du spør, Write a poem about the ocean, tolker modellen hvert ord som en token og bruker konteksten til å generere et relevant dikt. Hvis du legger til flere detaljer, som Write a four-line poem about the ocean using vivid imagery, bruker modellen den ekstra konteksten til å tilpasse svaret sitt.
Å være oppmerksom på kontekstvinduet hjelper deg å unngå å miste viktig informasjon i lange prompt.
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Awesome!
Completion rate improved to 11.11
Hvordan Store Språkmodeller Forstår Prompt
Sveip for å vise menyen
Store språkmodeller (LLM-er) behandler forespørsler ved å dele opp inndata-teksten i mindre enheter kalt token. Modellen bruker disse tokenene for å forstå betydningen og konteksten av instruksjonene dine, og genererer deretter et svar basert på mønstre den har lært fra store mengder data.
Token er et tekststykke, for eksempel et ord eller en del av et ord, som modellen behandler individuelt.
LLM-er "tenker" ikke som mennesker. De forutsier neste ord eller uttrykk basert på inndata og treningsdata.
Hvis forespørselen din er for lang, kan modellen overse tidligere deler av inndataen. Denne størrelsen på inndataen kalles kontekstvindu.
Kontekstvindu er det maksimale antallet tokens en LLM kan ta hensyn til samtidig når den genererer et svar.
Eksempel
Hvis du spør, Write a poem about the ocean, tolker modellen hvert ord som en token og bruker konteksten til å generere et relevant dikt. Hvis du legger til flere detaljer, som Write a four-line poem about the ocean using vivid imagery, bruker modellen den ekstra konteksten til å tilpasse svaret sitt.
Å være oppmerksom på kontekstvinduet hjelper deg å unngå å miste viktig informasjon i lange prompt.
Takk for tilbakemeldingene dine!