Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Hur Stora Språkmodeller Tolkar Promptar | Grunderna i Prompt Engineering
Grunder i Prompt Engineering

bookHur Stora Språkmodeller Tolkar Promptar

Stora språkmodeller (LLM:er) bearbetar promptar genom att dela upp indatat i mindre enheter som kallas token. Modellen använder dessa token för att förstå betydelsen och sammanhanget i dina instruktioner och genererar sedan ett svar baserat på mönster den lärt sig från stora mängder data.

Note
Definition

Token är en textdel, såsom ett ord eller en del av ett ord, som modellen behandlar individuellt.

LLM:er "tänker" inte som människor. De förutspår nästa ord eller fras baserat på inmatad prompt och sin träningsdata.

Om din prompt är för lång kan modellen ignorera tidigare delar av inmatningen. Denna storlek på inmatningen kallas context window.

Note
Definition

Kontextfönster är det maximala antalet token som en LLM kan beakta samtidigt när den genererar ett svar.

Exempel

Om du frågar, Write a poem about the ocean, tolkar modellen varje ord som en token och använder kontexten för att generera en relevant dikt. Om du lägger till fler detaljer, såsom Write a four-line poem about the ocean using vivid imagery, använder modellen den extra kontexten för att anpassa sitt svar.

Note
Snabb Påminnelse

Att vara medveten om kontextfönstret hjälper dig att undvika att förlora viktig information i långa promptar.

question mark

Vad är en token i sammanhanget av LLM:er?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 2

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Suggested prompts:

What are tokens and how are they different from words?

Can you explain what a context window is in more detail?

How does adding more details to a prompt affect the model's response?

Awesome!

Completion rate improved to 11.11

bookHur Stora Språkmodeller Tolkar Promptar

Svep för att visa menyn

Stora språkmodeller (LLM:er) bearbetar promptar genom att dela upp indatat i mindre enheter som kallas token. Modellen använder dessa token för att förstå betydelsen och sammanhanget i dina instruktioner och genererar sedan ett svar baserat på mönster den lärt sig från stora mängder data.

Note
Definition

Token är en textdel, såsom ett ord eller en del av ett ord, som modellen behandlar individuellt.

LLM:er "tänker" inte som människor. De förutspår nästa ord eller fras baserat på inmatad prompt och sin träningsdata.

Om din prompt är för lång kan modellen ignorera tidigare delar av inmatningen. Denna storlek på inmatningen kallas context window.

Note
Definition

Kontextfönster är det maximala antalet token som en LLM kan beakta samtidigt när den genererar ett svar.

Exempel

Om du frågar, Write a poem about the ocean, tolkar modellen varje ord som en token och använder kontexten för att generera en relevant dikt. Om du lägger till fler detaljer, såsom Write a four-line poem about the ocean using vivid imagery, använder modellen den extra kontexten för att anpassa sitt svar.

Note
Snabb Påminnelse

Att vara medveten om kontextfönstret hjälper dig att undvika att förlora viktig information i långa promptar.

question mark

Vad är en token i sammanhanget av LLM:er?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 2
some-alt