Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Privacidade de Dados. O Que Nunca Compartilhar com IA | Riscos, Limitações e Uso Responsável
Compreendendo IA para o Trabalho

bookPrivacidade de Dados. O Que Nunca Compartilhar com IA

Deslize para mostrar o menu

A engenharia de prompts torna a IA mais útil. Mas saber o que não colocar em um prompt é tão importante quanto saber como escrever um bom.

Ao digitar algo em uma ferramenta de IA, você está enviando esse texto para um servidor externo operado por uma empresa terceirizada. Compreender o que isso significa — e quais riscos isso cria — é essencial para quem utiliza IA no trabalho.

Como as Ferramentas de IA Lidam com Seu Input

A maioria das ferramentas de IA voltadas ao consumidor — incluindo as versões gratuitas do ChatGPT, Claude e Gemini — pode usar suas conversas para aprimorar seus modelos, a menos que você opte explicitamente por não participar.

Isso significa que o texto inserido pode, em princípio, ser revisado por humanos da empresa, utilizado em dados de treinamento ou armazenado por períodos prolongados.

Versões empresariais dessas ferramentas (como Microsoft Copilot para Microsoft 365 ou Claude for Enterprise) normalmente oferecem garantias mais robustas de privacidade de dados — incluindo compromissos de não usar seus dados para treinamento. No entanto, essas opções exigem uma assinatura organizacional paga e configuração específica.

Se você não tiver certeza de qual versão sua organização utiliza — consulte sua equipe de TI ou segurança antes de inserir informações sensíveis em qualquer ferramenta de IA.

O Que Nunca Deve Ser Inserido em uma Ferramenta de IA para Consumidor

Como regra geral, trate as interfaces de chat de IA da mesma forma que trataria um fórum público — suponha que o conteúdo pode ser visto por outras pessoas.

Nunca insira:

  • Dados pessoais de clientes, consumidores ou funcionários — nomes, e-mails, números de telefone, números de identificação, endereços;
  • Dados financeiros — números de contas, detalhes de transações, informações salariais, valores orçamentários que não sejam públicos;
  • Informações de saúde ou médicas de qualquer indivíduo;
  • Senhas, chaves de API ou credenciais de autenticação de qualquer tipo;
  • Informações confidenciais de negócios — detalhes de produtos não lançados, discussões de fusões e aquisições, planos estratégicos, pesquisas proprietárias;
  • Documentos jurídicos contendo conteúdo privilegiado ou confidencial.
Descrição da captura de tela: Um visual de dois painéis. Painel esquerdo rotulado como "O que você digitou" — uma caixa de prompt de chat contendo um exemplo realista, porém fictício, de uma prática inadequada: "Aqui estão os números de vendas do terceiro trimestre para nossos 10 principais clientes: [uma tabela curta com nomes de empresas fictícias e valores de receita]. Resuma as principais tendências." Painel direito rotulado como "Para onde vai" — um diagrama simples mostrando o texto saindo do navegador do usuário, indo para um ícone de servidor em nuvem rotulado como "Servidores do provedor de IA", com uma linha pontilhada ramificando-se rotulada como "Pode ser usado para treinamento do modelo ou revisado por funcionários." Um aviso em vermelho na parte inferior: "Dados confidenciais de negócios nunca devem ser inseridos em uma ferramenta de IA para consumidores." Todos os nomes de empresas e números no exemplo são claramente fictícios.

Alternativas Seguras: Como Obter Ajuda Sem Risco

A necessidade de proteger dados sensíveis não impede o uso de IA para essas tarefas. Veja soluções práticas:

  • Anonimização antes do envio — substituir nomes reais por marcadores genéricos ("Cliente A", "Funcionário X") antes de inserir o conteúdo na IA;
  • Descrição da situação sem os dados — em vez de colar um documento confidencial, descrever o tipo de problema e solicitar um modelo ou abordagem;
  • Uso de ferramentas corporativas — se sua organização possui licença do Microsoft 365 Copilot ou similar, essas ferramentas geralmente operam sob termos mais rigorosos de proteção de dados;
  • Manter conteúdo sensível local — utilizar a IA para estruturar e redigir, preenchendo os detalhes confidenciais offline.

Conheça a Política da Sua Organização

Muitas organizações estão desenvolvendo ou já publicaram políticas internas de uso de IA. Normalmente, essas políticas especificam:

  • Quais ferramentas de IA são aprovadas para uso no trabalho;
  • Quais categorias de dados podem ou não ser inseridas;
  • Se existe um ambiente de IA específico da empresa disponível;
  • Como relatar preocupações ou incidentes relacionados ao uso de IA.

Se sua organização possui tal política — siga-a. Caso não possua — adote as recomendações conservadoras acima até que haja orientação formal.

question mark

Quais dos seguintes tipos de informação você deve evitar inserir em uma ferramenta de IA voltada para o consumidor, como o ChatGPT, no trabalho?

Selecione a resposta correta

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 3. Capítulo 3

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

Seção 3. Capítulo 3
some-alt