Alucinações: Por Que a IA Erra com Confiança
Deslize para mostrar o menu
Você aprendeu como obter resultados úteis da IA. Agora é hora de aprender quando não confiar neles.
As ferramentas de IA são fluentes, confiantes e rápidas. Elas também são capazes de produzir informações que parecem totalmente plausíveis — e estão completamente erradas. Compreender por que isso acontece é uma das coisas mais importantes que você pode levar deste curso.
O que é uma Alucinação?
Em IA, uma "alucinação" ocorre quando o modelo gera conteúdo que é factualmente incorreto, fabricado ou não fundamentado na realidade — mas apresenta isso com o mesmo tom confiante de informações precisas.
Exemplos de alucinações em ambientes reais:
- Um advogado apresenta uma petição citando seis casos judiciais. Todos os seis foram inventados pelo ChatGPT. Nenhum deles existia;
- Uma descrição de produto gerada por IA inclui uma especificação técnica que soa plausível, mas é completamente inventada;
- Um resumo de artigo científico contém uma estatística que nunca apareceu no documento original;
- Uma IA recomenda uma regulamentação ou lei específica que não existe na jurisdição mencionada.
A IA não sabe que está errada. Ela não está mentindo. Está fazendo exatamente o que foi projetada para fazer — gerar a continuação estatisticamente mais provável do texto — e, nesses casos, esse processo produz uma saída falsa.
Por que isso acontece?
Relembre da Seção 1: a IA prevê o próximo token com base em padrões. Ela não possui um verificador de fatos interno. Não tem consciência do que sabe em relação ao que não sabe.
Quando o modelo se depara com uma pergunta que não pode responder com confiança, ele não interrompe — gera uma resposta que se encaixa no padrão do que seria uma resposta correta. O resultado é um conteúdo fluente, estruturado e incorreto.
Alucinações são mais prováveis quando:
- Você pergunta sobre fatos, estatísticas ou citações muito específicas;
- Você pergunta sobre eventos recentes após a data de corte do treinamento do modelo;
- Você pergunta sobre tópicos de nicho com poucos dados de treinamento;
- A pergunta tem uma estrutura de "preencher a lacuna" que incentiva a fabricação.
O que não são alucinações
Vale a pena ser preciso sobre isso:
- Alucinações não são a IA sendo enganosa ou mal-intencionada;
- Não são um sinal de que a IA está quebrada ou inutilizável;
- Não são erros aleatórios — seguem padrões previsíveis;
- Não são exclusivas de uma ferramenta — todos os principais sistemas de IA alucinam.
Elas são uma característica estrutural de como os modelos de linguagem funcionam. A resposta correta não é evitar a IA — é saber quando verificar.
A regra de ouro: fluência não é precisão
O ponto mais importante a internalizar sobre a saída da IA:
Uma resposta pode ser muito bem escrita, logicamente estruturada e completamente errada.
A qualidade da linguagem não diz nada sobre a qualidade da informação. A IA escreve com confiança consistente, independentemente de estar correta ou não. Sempre trate fatos, estatísticas, nomes, datas e citações como não verificados até que sejam checados.
1. Qual das alternativas a seguir melhor descreve uma alucinação de IA?
2. Por que modelos de IA como o ChatGPT às vezes produzem informações que parecem corretas, mas na verdade são falsas, e o que isso significa para os usuários?
Obrigado pelo seu feedback!
Pergunte à IA
Pergunte à IA
Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo