Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Confidentialité des Données. Informations à Ne Jamais Partager Avec l'IA | Risques, Limites et Utilisation Responsable
Comprendre l'IA pour le Travail

bookConfidentialité des Données. Informations à Ne Jamais Partager Avec l'IA

Glissez pour afficher le menu

L'ingénierie des prompts rend l'IA plus utile. Mais savoir ce qu'il ne faut pas inclure dans un prompt est tout aussi important que de savoir en rédiger un bon.

Lorsque vous saisissez quelque chose dans un outil d'IA, vous envoyez ce texte à un serveur externe exploité par une entreprise tierce. Comprendre ce que cela implique — et les risques que cela engendre — est essentiel pour toute personne utilisant l'IA au travail.

Comment les outils d'IA traitent vos saisies

La plupart des outils d'IA destinés aux consommateurs — y compris les versions gratuites de ChatGPT, Claude et Gemini — peuvent utiliser vos conversations pour améliorer leurs modèles, sauf si vous choisissez explicitement de vous y opposer.

Cela signifie que le texte que vous saisissez pourrait, en principe, être examiné par des employés de l'entreprise, utilisé dans les données d'entraînement ou stocké pendant de longues périodes.

Les versions professionnelles de ces outils (telles que Microsoft Copilot pour Microsoft 365 ou Claude for Enterprise) offrent généralement de meilleures garanties en matière de confidentialité des données — y compris des engagements à ne pas utiliser vos données pour l'entraînement. Cependant, cela nécessite un abonnement organisationnel payant et une configuration spécifique.

Si vous ne savez pas quelle version votre organisation utilise — contactez votre équipe informatique ou de sécurité avant de saisir des informations sensibles dans un outil d'IA.

Ce qu'il ne faut jamais saisir dans un outil d'IA destiné aux consommateurs

De manière générale, traitez les interfaces de chat d'IA comme vous traiteriez un forum public — supposez que le contenu pourrait être vu par d'autres personnes.

Ne saisissez jamais :

  • Données personnelles de clients, de clients ou d'employés — noms, adresses e-mail, numéros de téléphone, numéros d'identification, adresses ;
  • Données financières — numéros de compte, détails de transaction, informations sur les salaires, chiffres budgétaires non publics ;
  • Informations de santé ou médicales concernant toute personne ;
  • Mots de passe, clés API ou identifiants d'authentification de toute sorte ;
  • Informations commerciales confidentielles — détails de produits non publiés, discussions de fusions et acquisitions, plans stratégiques, recherches propriétaires ;
  • Documents juridiques contenant des informations privilégiées ou confidentielles.
Description de la capture d'écran : Un visuel en deux panneaux. Panneau de gauche intitulé « Ce que vous avez tapé » — une zone de saisie de chat contenant un exemple réaliste mais fictif de mauvaise pratique : « Voici les chiffres de ventes du T3 pour nos 10 principaux clients : [un tableau court avec des noms d'entreprises fictifs et des chiffres de revenus]. Résumez les tendances clés. » Panneau de droite intitulé « Où cela va » — un schéma simple montrant le texte quittant le navigateur de l'utilisateur, se dirigeant vers une icône de serveur cloud intitulée « Serveurs du fournisseur d'IA », avec une ligne pointillée indiquant « Peut être utilisé pour l'entraînement du modèle ou examiné par le personnel. » Un avertissement en rouge en bas : « Les données commerciales confidentielles ne doivent jamais être saisies dans un outil d'IA grand public. » Tous les noms d'entreprises et chiffres de l'exemple sont clairement fictifs.

Alternatives sûres : obtenir de l'aide sans prendre de risques

La nécessité de protéger les données sensibles n'empêche pas d'utiliser l'IA pour ces tâches. Voici des solutions pratiques :

  • Anonymisation avant la saisie — remplacer les vrais noms par des espaces réservés (« Client A », « Employé X ») avant de coller le contenu dans l'IA ;
  • Décrire la situation sans les données — au lieu de coller un document confidentiel, décrire le type de problème et demander un cadre ou une approche ;
  • Utiliser des outils de niveau entreprise — si votre organisation dispose d'une licence Microsoft 365 Copilot ou équivalent, ces outils fonctionnent généralement selon des conditions de protection des données plus strictes ;
  • Garder le contenu sensible en local — utiliser l'IA pour rédiger la structure et le langage, puis compléter soi-même les informations sensibles hors ligne.

Connaître la politique de votre organisation

De nombreuses organisations élaborent ou ont déjà publié des politiques internes d'utilisation de l'IA. Celles-ci précisent généralement :

  • Quels outils d'IA sont approuvés pour une utilisation professionnelle ;
  • Quelles catégories de données peuvent ou non être saisies ;
  • Si un environnement d'IA spécifique à l'entreprise est disponible ;
  • Comment signaler les préoccupations ou incidents liés à l'utilisation de l'IA.

Si votre organisation dispose d'une telle politique — respectez-la. Sinon — appliquez les recommandations prudentes ci-dessus jusqu'à ce qu'une directive soit fournie.

question mark

Lequel des types d'informations suivants devez-vous éviter de saisir dans un outil d'IA destiné aux consommateurs, comme ChatGPT, au travail ?

Sélectionnez la réponse correcte

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 3. Chapitre 3

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Section 3. Chapitre 3
some-alt