Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Como Grandes Modelos de Linguagem Compreendem Prompts | Fundamentos da Engenharia de Prompts
Noções Básicas de Engenharia de Prompts

bookComo Grandes Modelos de Linguagem Compreendem Prompts

Modelos de linguagem de grande porte (LLMs) processam prompts dividindo o texto de entrada em unidades menores chamadas tokens. O modelo utiliza esses tokens para compreender o significado e o contexto das instruções, gerando uma resposta com base em padrões aprendidos a partir de grandes volumes de dados.

Note
Definição

Token é um trecho de texto, como uma palavra ou parte de uma palavra, que o modelo processa individualmente.

LLMs não "pensam" como humanos. Eles predizem a próxima palavra ou frase com base no prompt de entrada e nos dados de treinamento.

Se o prompt for muito longo, o modelo pode ignorar partes anteriores da entrada. Esse tamanho da entrada é chamado de context window.

Note
Definição

Janela de Contexto é o número máximo de tokens que um LLM pode considerar de uma só vez ao gerar uma resposta.

Exemplo

Se você pedir, Write a poem about the ocean, o modelo interpreta cada palavra como um token e utiliza o contexto para gerar um poema relevante. Se você adicionar mais detalhes, como Write a four-line poem about the ocean using vivid imagery, o modelo utiliza o contexto extra para adaptar sua resposta.

Note
Lembrete Rápido

Estar ciente da janela de contexto ajuda a evitar a perda de informações importantes em prompts longos.

question mark

O que é um token no contexto de LLMs?

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 1. Capítulo 2

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

Suggested prompts:

What are tokens and how are they different from words?

Can you explain what a context window is in more detail?

How does adding more details to a prompt affect the model's response?

Awesome!

Completion rate improved to 11.11

bookComo Grandes Modelos de Linguagem Compreendem Prompts

Deslize para mostrar o menu

Modelos de linguagem de grande porte (LLMs) processam prompts dividindo o texto de entrada em unidades menores chamadas tokens. O modelo utiliza esses tokens para compreender o significado e o contexto das instruções, gerando uma resposta com base em padrões aprendidos a partir de grandes volumes de dados.

Note
Definição

Token é um trecho de texto, como uma palavra ou parte de uma palavra, que o modelo processa individualmente.

LLMs não "pensam" como humanos. Eles predizem a próxima palavra ou frase com base no prompt de entrada e nos dados de treinamento.

Se o prompt for muito longo, o modelo pode ignorar partes anteriores da entrada. Esse tamanho da entrada é chamado de context window.

Note
Definição

Janela de Contexto é o número máximo de tokens que um LLM pode considerar de uma só vez ao gerar uma resposta.

Exemplo

Se você pedir, Write a poem about the ocean, o modelo interpreta cada palavra como um token e utiliza o contexto para gerar um poema relevante. Se você adicionar mais detalhes, como Write a four-line poem about the ocean using vivid imagery, o modelo utiliza o contexto extra para adaptar sua resposta.

Note
Lembrete Rápido

Estar ciente da janela de contexto ajuda a evitar a perda de informações importantes em prompts longos.

question mark

O que é um token no contexto de LLMs?

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 1. Capítulo 2
some-alt