Como os Modelos de Linguagem "Pensam"
Deslize para mostrar o menu
Você não precisa entender como funciona o motor de um carro para dirigir — mas saber que ele funciona com combustível ajuda a evitar ficar sem gasolina. A mesma lógica se aplica à IA. Não é necessário ter um diploma em ciência da computação, mas compreender uma ideia central fará com que todo o restante deste curso faça sentido.
Predição, a Ideia Central
Grandes modelos de linguagem (LLMs) — a tecnologia por trás do ChatGPT, Claude, Gemini e outros — funcionam prevendo o que vem a seguir.
Diante de uma sequência de palavras, o modelo calcula qual palavra (ou frase) tem maior probabilidade de aparecer em seguida, com base em padrões aprendidos a partir de enormes quantidades de texto: livros, artigos, sites, códigos e muito mais.
É semelhante ao recurso de autocompletar do seu celular — só que treinado com praticamente toda a internet, com muito mais sofisticação.
O que são tokens?
A IA não lê palavras da mesma forma que você. Ela divide o texto em pequenos pedaços chamados tokens — que correspondem aproximadamente a palavras ou partes de palavras.
Por exemplo:
- "running" pode ser um token;
- "unbelievable" pode ser dividido em "un" + "believ" + "able";
- Até mesmo espaços e pontuações são tokens.
Por isso, a IA às vezes lida de forma estranha com palavras incomuns ou entradas muito longas podem deixar o processamento mais lento — cada token exige poder de processamento.
Para uso prático, o principal a saber é: quanto mais tokens na sua conversa, mais contexto o modelo possui — e maior o custo para executar (por isso planos gratuitos têm limites).
Por que a IA às vezes inventa coisas
O modelo prevê o que soa correto, mas nem sempre produz o que é factualmente correto. Quando encontra um tema fora do seu conjunto de treinamento, ou uma pergunta que não pode responder com confiança, ele não diz "não sei" — gera uma resposta que parece plausível mesmo assim.
Isso é chamado de alucinação.
Não é um erro, e não significa que a IA está mentindo para você. É uma característica fundamental de como a previsão funciona. Saber disso é o primeiro passo para usar a IA com segurança. Vamos abordar isso em detalhes na Seção 3.
A IA prevê — ela não realmente sabe. Esse entendimento explica por que bons prompts são importantes, por que é necessário verificar fatos relevantes e por que o julgamento humano nunca é dispensável ao trabalhar com IA.
1. Qual é a ideia central de como funcionam grandes modelos de linguagem como o ChatGPT?
2. Por que a IA às vezes gera respostas que não são factualmente corretas?
Obrigado pelo seu feedback!
Pergunte à IA
Pergunte à IA
Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo