Hur Stora Språkmodeller Tolkar Promptar
Stora språkmodeller (LLM:er) bearbetar promptar genom att dela upp indatat i mindre enheter som kallas token. Modellen använder dessa token för att förstå betydelsen och sammanhanget i dina instruktioner och genererar sedan ett svar baserat på mönster den lärt sig från stora mängder data.
Token är en textdel, såsom ett ord eller en del av ett ord, som modellen behandlar individuellt.
LLM:er "tänker" inte som människor. De förutspår nästa ord eller fras baserat på inmatad prompt och sin träningsdata.
Om din prompt är för lång kan modellen ignorera tidigare delar av inmatningen. Denna storlek på inmatningen kallas context window.
Kontextfönster är det maximala antalet token som en LLM kan beakta samtidigt när den genererar ett svar.
Exempel
Om du frågar, Write a poem about the ocean, tolkar modellen varje ord som en token och använder kontexten för att generera en relevant dikt. Om du lägger till fler detaljer, såsom Write a four-line poem about the ocean using vivid imagery, använder modellen den extra kontexten för att anpassa sitt svar.
Att vara medveten om kontextfönstret hjälper dig att undvika att förlora viktig information i långa promptar.
Tack för dina kommentarer!
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal
What are tokens and how are they different from words?
Can you explain what a context window is in more detail?
How does adding more details to a prompt affect the model's response?
Awesome!
Completion rate improved to 11.11
Hur Stora Språkmodeller Tolkar Promptar
Svep för att visa menyn
Stora språkmodeller (LLM:er) bearbetar promptar genom att dela upp indatat i mindre enheter som kallas token. Modellen använder dessa token för att förstå betydelsen och sammanhanget i dina instruktioner och genererar sedan ett svar baserat på mönster den lärt sig från stora mängder data.
Token är en textdel, såsom ett ord eller en del av ett ord, som modellen behandlar individuellt.
LLM:er "tänker" inte som människor. De förutspår nästa ord eller fras baserat på inmatad prompt och sin träningsdata.
Om din prompt är för lång kan modellen ignorera tidigare delar av inmatningen. Denna storlek på inmatningen kallas context window.
Kontextfönster är det maximala antalet token som en LLM kan beakta samtidigt när den genererar ett svar.
Exempel
Om du frågar, Write a poem about the ocean, tolkar modellen varje ord som en token och använder kontexten för att generera en relevant dikt. Om du lägger till fler detaljer, såsom Write a four-line poem about the ocean using vivid imagery, använder modellen den extra kontexten för att anpassa sitt svar.
Att vara medveten om kontextfönstret hjälper dig att undvika att förlora viktig information i långa promptar.
Tack för dina kommentarer!