Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Alucinações: Por Que a IA Erra com Confiança | Riscos, Limitações e Uso Responsável
Compreendendo IA para o Trabalho

bookAlucinações: Por Que a IA Erra com Confiança

Deslize para mostrar o menu

Você aprendeu como obter resultados úteis da IA. Agora é hora de aprender quando não confiar neles.

As ferramentas de IA são fluentes, confiantes e rápidas. Elas também são capazes de produzir informações que parecem totalmente plausíveis — e estão completamente erradas. Compreender por que isso acontece é uma das coisas mais importantes que você pode levar deste curso.

O que é uma Alucinação?

Note
Definição

Em IA, uma "alucinação" ocorre quando o modelo gera conteúdo que é factualmente incorreto, fabricado ou não fundamentado na realidade — mas apresenta isso com o mesmo tom confiante de informações precisas.

Exemplos de alucinações em ambientes reais:

  • Um advogado apresenta uma petição citando seis casos judiciais. Todos os seis foram inventados pelo ChatGPT. Nenhum deles existia;
  • Uma descrição de produto gerada por IA inclui uma especificação técnica que soa plausível, mas é completamente inventada;
  • Um resumo de artigo científico contém uma estatística que nunca apareceu no documento original;
  • Uma IA recomenda uma regulamentação ou lei específica que não existe na jurisdição mencionada.

A IA não sabe que está errada. Ela não está mentindo. Está fazendo exatamente o que foi projetada para fazer — gerar a continuação estatisticamente mais provável do texto — e, nesses casos, esse processo produz uma saída falsa.

Descrição da captura de tela: Uma janela de chat mostrando um usuário perguntando: "Quais foram as principais conclusões do relatório Nielsen de 2021 sobre produtividade no trabalho remoto?" A IA responde com um resumo detalhado e com tom confiante — porcentagens específicas, autores nomeados, conclusões principais — tudo apresentado como fato. Abaixo da resposta, uma caixa de anotação vermelha sobrepõe a saída com o rótulo: "Este relatório não existe. Todos os detalhes foram fabricados pelo modelo." A resposta da IA não apresenta linguagem de ressalva — soa autoritária. O contraste entre o tom confiante e o conteúdo fabricado é o ponto central. Nenhuma citação falsa real deve parecer convincente o suficiente para ser copiada — use nomes claramente fictícios como "Nielsen 2021 Remote Work Insights Report, authored by J. Harlow and S. Müller."

Por que isso acontece?

Relembre da Seção 1: a IA prevê o próximo token com base em padrões. Ela não possui um verificador de fatos interno. Não tem consciência do que sabe em relação ao que não sabe.

Quando o modelo se depara com uma pergunta que não pode responder com confiança, ele não interrompe — gera uma resposta que se encaixa no padrão do que seria uma resposta correta. O resultado é um conteúdo fluente, estruturado e incorreto.

Alucinações são mais prováveis quando:

  • Você pergunta sobre fatos, estatísticas ou citações muito específicas;
  • Você pergunta sobre eventos recentes após a data de corte do treinamento do modelo;
  • Você pergunta sobre tópicos de nicho com poucos dados de treinamento;
  • A pergunta tem uma estrutura de "preencher a lacuna" que incentiva a fabricação.

O que não são alucinações

Vale a pena ser preciso sobre isso:

  • Alucinações não são a IA sendo enganosa ou mal-intencionada;
  • Não são um sinal de que a IA está quebrada ou inutilizável;
  • Não são erros aleatórios — seguem padrões previsíveis;
  • Não são exclusivas de uma ferramenta — todos os principais sistemas de IA alucinam.

Elas são uma característica estrutural de como os modelos de linguagem funcionam. A resposta correta não é evitar a IA — é saber quando verificar.

A regra de ouro: fluência não é precisão

O ponto mais importante a internalizar sobre a saída da IA:

Uma resposta pode ser muito bem escrita, logicamente estruturada e completamente errada.

A qualidade da linguagem não diz nada sobre a qualidade da informação. A IA escreve com confiança consistente, independentemente de estar correta ou não. Sempre trate fatos, estatísticas, nomes, datas e citações como não verificados até que sejam checados.

1. Qual das alternativas a seguir melhor descreve uma alucinação de IA?

2. Por que modelos de IA como o ChatGPT às vezes produzem informações que parecem corretas, mas na verdade são falsas, e o que isso significa para os usuários?

question mark

Qual das alternativas a seguir melhor descreve uma alucinação de IA?

Selecione a resposta correta

question mark

Por que modelos de IA como o ChatGPT às vezes produzem informações que parecem corretas, mas na verdade são falsas, e o que isso significa para os usuários?

Selecione a resposta correta

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 3. Capítulo 1

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

Seção 3. Capítulo 1
some-alt