Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Comment Les Grands Modèles de Langage Comprennent Les Prompts | Fondations de l'Ingénierie des Prompts
Notions de Base de l’Ingénierie de Prompt

bookComment Les Grands Modèles de Langage Comprennent Les Prompts

Les grands modèles de langage (LLMs) traitent les invites en décomposant le texte d'entrée en unités plus petites appelées jetons. Le modèle utilise ces jetons pour comprendre le sens et le contexte de vos instructions, puis génère une réponse basée sur les schémas qu'il a appris à partir de vastes ensembles de données.

Note
Définition

Un jeton est un morceau de texte, tel qu'un mot ou une partie de mot, que le modèle traite individuellement.

Les LLMs ne « réfléchissent » pas comme les humains. Ils prédisent le mot ou l'expression suivant(e) en fonction de l'invite d'entrée et de leurs données d'entraînement.

Si votre invite est trop longue, le modèle peut ignorer les premières parties de l'entrée. Cette taille d'entrée est appelée fenêtre de contexte.

Note
Définition

Fenêtre de contexte correspond au nombre maximal de jetons qu'un LLM peut prendre en compte simultanément lors de la génération d'une réponse.

Exemple

Si vous demandez : Write a poem about the ocean, le modèle interprète chaque mot comme un jeton et utilise le contexte pour générer un poème pertinent. Si vous ajoutez plus de détails, comme Write a four-line poem about the ocean using vivid imagery, le modèle utilise le contexte supplémentaire pour adapter sa réponse.

Note
Rappel rapide

Connaître la fenêtre de contexte permet d'éviter la perte d'informations importantes dans des prompts longs.

question mark

Qu’est-ce qu’un jeton dans le contexte des LLM ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Awesome!

Completion rate improved to 11.11

bookComment Les Grands Modèles de Langage Comprennent Les Prompts

Glissez pour afficher le menu

Les grands modèles de langage (LLMs) traitent les invites en décomposant le texte d'entrée en unités plus petites appelées jetons. Le modèle utilise ces jetons pour comprendre le sens et le contexte de vos instructions, puis génère une réponse basée sur les schémas qu'il a appris à partir de vastes ensembles de données.

Note
Définition

Un jeton est un morceau de texte, tel qu'un mot ou une partie de mot, que le modèle traite individuellement.

Les LLMs ne « réfléchissent » pas comme les humains. Ils prédisent le mot ou l'expression suivant(e) en fonction de l'invite d'entrée et de leurs données d'entraînement.

Si votre invite est trop longue, le modèle peut ignorer les premières parties de l'entrée. Cette taille d'entrée est appelée fenêtre de contexte.

Note
Définition

Fenêtre de contexte correspond au nombre maximal de jetons qu'un LLM peut prendre en compte simultanément lors de la génération d'une réponse.

Exemple

Si vous demandez : Write a poem about the ocean, le modèle interprète chaque mot comme un jeton et utilise le contexte pour générer un poème pertinent. Si vous ajoutez plus de détails, comme Write a four-line poem about the ocean using vivid imagery, le modèle utilise le contexte supplémentaire pour adapter sa réponse.

Note
Rappel rapide

Connaître la fenêtre de contexte permet d'éviter la perte d'informations importantes dans des prompts longs.

question mark

Qu’est-ce qu’un jeton dans le contexte des LLM ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 2
some-alt