Como Grandes Modelos de Linguagem Compreendem Prompts
Modelos de linguagem de grande porte (LLMs) processam prompts dividindo o texto de entrada em unidades menores chamadas tokens. O modelo utiliza esses tokens para compreender o significado e o contexto das instruções, gerando uma resposta com base em padrões aprendidos a partir de grandes volumes de dados.
Token é um trecho de texto, como uma palavra ou parte de uma palavra, que o modelo processa individualmente.
LLMs não "pensam" como humanos. Eles predizem a próxima palavra ou frase com base no prompt de entrada e nos dados de treinamento.
Se o prompt for muito longo, o modelo pode ignorar partes anteriores da entrada. Esse tamanho da entrada é chamado de context window.
Janela de Contexto é o número máximo de tokens que um LLM pode considerar de uma só vez ao gerar uma resposta.
Exemplo
Se você pedir, Write a poem about the ocean, o modelo interpreta cada palavra como um token e utiliza o contexto para gerar um poema relevante. Se você adicionar mais detalhes, como Write a four-line poem about the ocean using vivid imagery, o modelo utiliza o contexto extra para adaptar sua resposta.
Estar ciente da janela de contexto ajuda a evitar a perda de informações importantes em prompts longos.
Obrigado pelo seu feedback!
Pergunte à IA
Pergunte à IA
Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo
What are tokens and how are they different from words?
Can you explain what a context window is in more detail?
How does adding more details to a prompt affect the model's response?
Awesome!
Completion rate improved to 11.11
Como Grandes Modelos de Linguagem Compreendem Prompts
Deslize para mostrar o menu
Modelos de linguagem de grande porte (LLMs) processam prompts dividindo o texto de entrada em unidades menores chamadas tokens. O modelo utiliza esses tokens para compreender o significado e o contexto das instruções, gerando uma resposta com base em padrões aprendidos a partir de grandes volumes de dados.
Token é um trecho de texto, como uma palavra ou parte de uma palavra, que o modelo processa individualmente.
LLMs não "pensam" como humanos. Eles predizem a próxima palavra ou frase com base no prompt de entrada e nos dados de treinamento.
Se o prompt for muito longo, o modelo pode ignorar partes anteriores da entrada. Esse tamanho da entrada é chamado de context window.
Janela de Contexto é o número máximo de tokens que um LLM pode considerar de uma só vez ao gerar uma resposta.
Exemplo
Se você pedir, Write a poem about the ocean, o modelo interpreta cada palavra como um token e utiliza o contexto para gerar um poema relevante. Se você adicionar mais detalhes, como Write a four-line poem about the ocean using vivid imagery, o modelo utiliza o contexto extra para adaptar sua resposta.
Estar ciente da janela de contexto ajuda a evitar a perda de informações importantes em prompts longos.
Obrigado pelo seu feedback!