Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Privacidad de Datos. Lo Que Nunca Debes Compartir con la IA | Riesgos, Limitaciones y Uso Responsable
Comprensión de la IA para el Trabajo

bookPrivacidad de Datos. Lo Que Nunca Debes Compartir con la IA

Desliza para mostrar el menú

La ingeniería de prompts hace que la IA sea más útil. Pero saber qué no incluir en un prompt es tan importante como saber cómo redactar uno bueno.

Cuando escribes algo en una herramienta de IA, estás enviando ese texto a un servidor externo operado por una empresa de terceros. Comprender lo que esto significa —y los riesgos que implica— es esencial para cualquier persona que utilice IA en el trabajo.

Cómo gestionan las herramientas de IA tu entrada de datos

La mayoría de las herramientas de IA orientadas al consumidor —incluyendo las versiones gratuitas de ChatGPT, Claude y Gemini— pueden utilizar tus conversaciones para mejorar sus modelos, a menos que optes explícitamente por no participar.

Esto significa que el texto que introduces podría, en principio, ser revisado por personas de la empresa, utilizado como datos de entrenamiento o almacenado durante períodos prolongados.

Las versiones empresariales de estas herramientas (como Microsoft Copilot para Microsoft 365 o Claude for Enterprise) suelen ofrecer garantías más sólidas de privacidad de datos —incluyendo compromisos de no utilizar tus datos para entrenamiento. Sin embargo, esto requiere una suscripción organizacional de pago y una configuración específica.

Si no tienes claro qué versión utiliza tu organización, consulta con tu equipo de TI o de seguridad antes de introducir información sensible en cualquier herramienta de IA.

Qué nunca deberías ingresar en una herramienta de IA para consumidores

Como regla general, trata las interfaces de chat de IA de la misma manera que tratarías un foro público —asume que el contenido podría ser visto por otros.

Nunca ingreses:

  • Datos personales de clientes, usuarios o empleados — nombres, correos electrónicos, números de teléfono, números de identificación, direcciones;
  • Datos financieros — números de cuenta, detalles de transacciones, información salarial, cifras presupuestarias que no sean públicas;
  • Información de salud o médica sobre cualquier individuo;
  • Contraseñas, claves API o credenciales de autenticación de cualquier tipo;
  • Información confidencial de la empresa — detalles de productos no lanzados, discusiones de fusiones y adquisiciones, planes estratégicos, investigaciones propietarias;
  • Documentos legales que contengan contenido privilegiado o confidencial.
Descripción de la captura de pantalla: Un visual de dos paneles. Panel izquierdo etiquetado como "Lo que escribiste" — un cuadro de chat con un ejemplo realista pero ficticio de una mala práctica: "Aquí están las cifras de ventas del tercer trimestre para nuestros 10 principales clientes: [una tabla corta con nombres de empresas ficticias y cifras de ingresos]. Resume las tendencias clave." Panel derecho etiquetado como "A dónde va" — un diagrama simple que muestra el texto saliendo del navegador del usuario, viajando a un icono de servidor en la nube etiquetado como "Servidores del proveedor de IA", con una línea discontinua ramificada etiquetada como "Puede ser utilizado para entrenamiento del modelo o revisado por el personal." Una etiqueta de advertencia roja en la parte inferior: "Los datos empresariales confidenciales nunca deben ingresarse en una herramienta de IA para consumidores." Todos los nombres de empresas y cifras en el ejemplo son claramente ficticios.

Alternativas seguras: cómo obtener ayuda sin correr riesgos

La necesidad de proteger datos sensibles no significa que no puedas usar IA para esas tareas. Aquí tienes soluciones prácticas:

  • Anonimizar antes de solicitar — reemplazar nombres reales por identificadores genéricos ("Cliente A", "Empleado X") antes de pegar el contenido en la IA;
  • Describir la situación sin los datos — en lugar de pegar un documento confidencial, describir el tipo de problema y pedir un marco de trabajo o enfoque;
  • Usar herramientas de nivel empresarial — si tu organización tiene licencia de Microsoft 365 Copilot o similar, esas herramientas suelen operar bajo términos de protección de datos más estrictos;
  • Mantener el contenido sensible local — usar la IA para redactar la estructura y el lenguaje, y luego completar los datos sensibles tú mismo sin conexión.

Conocer la política de tu organización

Muchas organizaciones están desarrollando o ya han publicado políticas internas de uso de IA. Estas suelen especificar:

  • Qué herramientas de IA están aprobadas para uso laboral;
  • Qué categorías de datos se pueden y no se pueden ingresar;
  • Si existe un entorno de IA específico para la empresa;
  • Cómo reportar inquietudes o incidentes relacionados con el uso de IA.

Si tu organización tiene una política así — síguela. Si no la tiene — aplica las recomendaciones conservadoras anteriores hasta que se proporcione una guía.

question mark

¿Cuál de los siguientes tipos de información deberías evitar ingresar en una herramienta de IA orientada al consumidor como ChatGPT en el trabajo?

Selecciona la respuesta correcta

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 3. Capítulo 3

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Sección 3. Capítulo 3
some-alt