Privacidade de Dados. O Que Nunca Compartilhar com IA
Deslize para mostrar o menu
A engenharia de prompts torna a IA mais útil. Mas saber o que não colocar em um prompt é tão importante quanto saber como escrever um bom.
Ao digitar algo em uma ferramenta de IA, você está enviando esse texto para um servidor externo operado por uma empresa terceirizada. Compreender o que isso significa — e quais riscos isso cria — é essencial para quem utiliza IA no trabalho.
Como as Ferramentas de IA Lidam com Seu Input
A maioria das ferramentas de IA voltadas ao consumidor — incluindo as versões gratuitas do ChatGPT, Claude e Gemini — pode usar suas conversas para aprimorar seus modelos, a menos que você opte explicitamente por não participar.
Isso significa que o texto inserido pode, em princípio, ser revisado por humanos da empresa, utilizado em dados de treinamento ou armazenado por períodos prolongados.
Versões empresariais dessas ferramentas (como Microsoft Copilot para Microsoft 365 ou Claude for Enterprise) normalmente oferecem garantias mais robustas de privacidade de dados — incluindo compromissos de não usar seus dados para treinamento. No entanto, essas opções exigem uma assinatura organizacional paga e configuração específica.
Se você não tiver certeza de qual versão sua organização utiliza — consulte sua equipe de TI ou segurança antes de inserir informações sensíveis em qualquer ferramenta de IA.
O Que Nunca Deve Ser Inserido em uma Ferramenta de IA para Consumidor
Como regra geral, trate as interfaces de chat de IA da mesma forma que trataria um fórum público — suponha que o conteúdo pode ser visto por outras pessoas.
Nunca insira:
- Dados pessoais de clientes, consumidores ou funcionários — nomes, e-mails, números de telefone, números de identificação, endereços;
- Dados financeiros — números de contas, detalhes de transações, informações salariais, valores orçamentários que não sejam públicos;
- Informações de saúde ou médicas de qualquer indivíduo;
- Senhas, chaves de API ou credenciais de autenticação de qualquer tipo;
- Informações confidenciais de negócios — detalhes de produtos não lançados, discussões de fusões e aquisições, planos estratégicos, pesquisas proprietárias;
- Documentos jurídicos contendo conteúdo privilegiado ou confidencial.
Alternativas Seguras: Como Obter Ajuda Sem Risco
A necessidade de proteger dados sensíveis não impede o uso de IA para essas tarefas. Veja soluções práticas:
- Anonimização antes do envio — substituir nomes reais por marcadores genéricos ("Cliente A", "Funcionário X") antes de inserir o conteúdo na IA;
- Descrição da situação sem os dados — em vez de colar um documento confidencial, descrever o tipo de problema e solicitar um modelo ou abordagem;
- Uso de ferramentas corporativas — se sua organização possui licença do Microsoft 365 Copilot ou similar, essas ferramentas geralmente operam sob termos mais rigorosos de proteção de dados;
- Manter conteúdo sensível local — utilizar a IA para estruturar e redigir, preenchendo os detalhes confidenciais offline.
Conheça a Política da Sua Organização
Muitas organizações estão desenvolvendo ou já publicaram políticas internas de uso de IA. Normalmente, essas políticas especificam:
- Quais ferramentas de IA são aprovadas para uso no trabalho;
- Quais categorias de dados podem ou não ser inseridas;
- Se existe um ambiente de IA específico da empresa disponível;
- Como relatar preocupações ou incidentes relacionados ao uso de IA.
Se sua organização possui tal política — siga-a. Caso não possua — adote as recomendações conservadoras acima até que haja orientação formal.
Obrigado pelo seu feedback!
Pergunte à IA
Pergunte à IA
Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo