Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Como os Modelos de Linguagem "Pensam" | Como a IA Moderna Funciona
Compreendendo IA para o Trabalho

bookComo os Modelos de Linguagem "Pensam"

Deslize para mostrar o menu

Você não precisa entender como funciona o motor de um carro para dirigir — mas saber que ele funciona com combustível ajuda a evitar ficar sem gasolina. A mesma lógica se aplica à IA. Não é necessário ter um diploma em ciência da computação, mas compreender uma ideia central fará com que todo o restante deste curso faça sentido.

Predição, a Ideia Central

Grandes modelos de linguagem (LLMs) — a tecnologia por trás do ChatGPT, Claude, Gemini e outros — funcionam prevendo o que vem a seguir.

Diante de uma sequência de palavras, o modelo calcula qual palavra (ou frase) tem maior probabilidade de aparecer em seguida, com base em padrões aprendidos a partir de enormes quantidades de texto: livros, artigos, sites, códigos e muito mais.

É semelhante ao recurso de autocompletar do seu celular — só que treinado com praticamente toda a internet, com muito mais sofisticação.

Descrição da captura de tela: Um diagrama limpo e horizontal com três etapas conectadas por setas. Etapa 1 — uma caixa de texto rotulada "Sua entrada" contendo: "O clima hoje está…". Etapa 2 — uma caixa rotulada "O modelo prevê a próxima palavra mais provável" mostrando três opções com probabilidades: "ensolarado" 42%, "frio" 31%, "imprevisível" 27%. Etapa 3 — uma caixa rotulada "A saída é construída palavra por palavra". Design simples e plano, sem jargão técnico em qualquer parte do diagrama.

O que são tokens?

A IA não lê palavras da mesma forma que você. Ela divide o texto em pequenos pedaços chamados tokens — que correspondem aproximadamente a palavras ou partes de palavras.

Por exemplo:

  • "running" pode ser um token;
  • "unbelievable" pode ser dividido em "un" + "believ" + "able";
  • Até mesmo espaços e pontuações são tokens.

Por isso, a IA às vezes lida de forma estranha com palavras incomuns ou entradas muito longas podem deixar o processamento mais lento — cada token exige poder de processamento.

Para uso prático, o principal a saber é: quanto mais tokens na sua conversa, mais contexto o modelo possui — e maior o custo para executar (por isso planos gratuitos têm limites).

Por que a IA às vezes inventa coisas

O modelo prevê o que soa correto, mas nem sempre produz o que é factualmente correto. Quando encontra um tema fora do seu conjunto de treinamento, ou uma pergunta que não pode responder com confiança, ele não diz "não sei" — gera uma resposta que parece plausível mesmo assim.

Isso é chamado de alucinação.

Não é um erro, e não significa que a IA está mentindo para você. É uma característica fundamental de como a previsão funciona. Saber disso é o primeiro passo para usar a IA com segurança. Vamos abordar isso em detalhes na Seção 3.

A IA prevê — ela não realmente sabe. Esse entendimento explica por que bons prompts são importantes, por que é necessário verificar fatos relevantes e por que o julgamento humano nunca é dispensável ao trabalhar com IA.

1. Qual é a ideia central de como funcionam grandes modelos de linguagem como o ChatGPT?

2. Por que a IA às vezes gera respostas que não são factualmente corretas?

question mark

Qual é a ideia central de como funcionam grandes modelos de linguagem como o ChatGPT?

Selecione a resposta correta

question mark

Por que a IA às vezes gera respostas que não são factualmente corretas?

Selecione a resposta correta

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 1. Capítulo 2

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

Seção 1. Capítulo 2
some-alt