Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Comment l’IA Génère une Réponse | Fonctionnement des Prompts
Ingénierie de Prompt pour le Travail

bookComment l’IA Génère une Réponse

Glissez pour afficher le menu

Pour rédiger de meilleurs prompts, il est utile d’avoir un modèle mental de base de ce qui se passe après l’envoi. Il n’est pas nécessaire de comprendre les mathématiques derrière les modèles de langage — mais saisir le processus au niveau conceptuel explique pourquoi les prompts fonctionnent ainsi, et pourquoi les résultats peuvent varier de manière parfois imprévisible.

De l’entrée à la sortie : ce qui se passe réellement

Lorsque vous envoyez un prompt, le modèle ne recherche pas une réponse dans une base de données. Il ne récupère pas une réponse pré-écrite. Il génère une réponse — jeton par jeton — en prédisant ce qui doit venir ensuite, en fonction de tout ce qui se trouve dans l’entrée.

Le processus fonctionne globalement ainsi :

  1. Votre prompt est découpé en jetons — petites unités de texte (environ des mots ou parties de mots) ;
  2. Le modèle traite ces jetons à travers des milliards de paramètres appris pour construire une représentation du sens et de l’intention ;
  3. Il génère ensuite la sortie un jeton à la fois, chaque nouveau jeton étant influencé par tout ce qui précède ;
  4. Cela continue jusqu’à ce que le modèle atteigne un point d’arrêt naturel ou la limite de sortie.

Le résultat n’est pas récupéré — il est construit, mot par mot, à partir des schémas appris lors de l’entraînement.

Description de la capture d’écran : Un schéma de flux horizontal épuré avec quatre étapes étiquetées reliées par des flèches. Étape 1 — boîte intitulée « Votre prompt » contenant le texte : « Summarize this in 3 bullet points for a non-technical audience. » Étape 2 — boîte intitulée « Tokenization » montrant la même phrase découpée en segments colorés : Summarize / this / in / 3 / bullet / points / for / a / non-technical / audience. Étape 3 — boîte intitulée « Model predicts next token » avec un petit affichage de probabilités montrant trois options : « The » 38 %, « Here » 31 %, « This » 19 %. Étape 4 — boîte intitulée « Output builds token by token » affichant une réponse partiellement complétée. Design plat et minimaliste sans jargon technique dans le schéma lui-même.

Pourquoi le même prompt peut donner des réponses différentes

Si vous envoyez exactement le même prompt deux fois, vous pouvez obtenir deux réponses différentes. Ce n'est pas un bug — c'est le résultat d'un paramètre appelé température, qui contrôle la quantité d'aléatoire introduite dans le processus de sélection des tokens.

  • Température basse — le modèle choisit systématiquement le token suivant le plus probable. Les sorties sont plus prévisibles et répétitives ;
  • Température élevée — le modèle choisit parfois des tokens moins probables. Les sorties sont plus variées et créatives, mais moins cohérentes.

La plupart des outils d'IA règlent automatiquement la température et ne proposent pas ce paramètre aux utilisateurs. Ce qui importe en pratique, c'est de savoir que la variation est attendue et normale — surtout pour les tâches créatives ou ouvertes.

Pour les tâches nécessitant de la cohérence (résumés standards, rapports structurés, communications avec modèle), il est conseillé d'être plus explicite dans votre prompt concernant le format et le résultat attendu.

Ce à quoi le modèle n'a pas accès

Comprendre ce que le modèle ne peut pas voir est tout aussi important que de comprendre comment il génère :

  • Il ne peut pas accéder à Internet par défaut — sauf si l'outil propose spécifiquement la recherche web comme fonctionnalité ;
  • Il a une date de coupure des connaissances — les événements postérieurs à l'entraînement sont inconnus du modèle sauf s'ils sont fournis dans le prompt ;
  • Il n'a pas de mémoire entre les sessions — chaque nouvelle conversation commence à zéro ;
  • Il ne peut pas voir vos fichiers, écrans ou systèmes — sauf si vous collez explicitement le contenu dans le prompt.

Chacune de ces limitations peut être compensée dans votre prompt — en fournissant les informations qui manqueraient autrement au modèle. C'est précisément à cela que sert le contexte dans un prompt.

question mark

Pourquoi le même prompt peut-il produire des réponses différentes d'un modèle d'IA ?

Sélectionnez la réponse correcte

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Section 1. Chapitre 2
some-alt