Comment Les Grands Modèles de Langage Comprennent Les Prompts
Les grands modèles de langage (LLMs) traitent les invites en décomposant le texte d'entrée en unités plus petites appelées jetons. Le modèle utilise ces jetons pour comprendre le sens et le contexte de vos instructions, puis génère une réponse basée sur les schémas qu'il a appris à partir de vastes ensembles de données.
Un jeton est un morceau de texte, tel qu'un mot ou une partie de mot, que le modèle traite individuellement.
Les LLMs ne « réfléchissent » pas comme les humains. Ils prédisent le mot ou l'expression suivant(e) en fonction de l'invite d'entrée et de leurs données d'entraînement.
Si votre invite est trop longue, le modèle peut ignorer les premières parties de l'entrée. Cette taille d'entrée est appelée fenêtre de contexte.
Fenêtre de contexte correspond au nombre maximal de jetons qu'un LLM peut prendre en compte simultanément lors de la génération d'une réponse.
Exemple
Si vous demandez : Write a poem about the ocean, le modèle interprète chaque mot comme un jeton et utilise le contexte pour générer un poème pertinent. Si vous ajoutez plus de détails, comme Write a four-line poem about the ocean using vivid imagery, le modèle utilise le contexte supplémentaire pour adapter sa réponse.
Connaître la fenêtre de contexte permet d'éviter la perte d'informations importantes dans des prompts longs.
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Awesome!
Completion rate improved to 11.11
Comment Les Grands Modèles de Langage Comprennent Les Prompts
Glissez pour afficher le menu
Les grands modèles de langage (LLMs) traitent les invites en décomposant le texte d'entrée en unités plus petites appelées jetons. Le modèle utilise ces jetons pour comprendre le sens et le contexte de vos instructions, puis génère une réponse basée sur les schémas qu'il a appris à partir de vastes ensembles de données.
Un jeton est un morceau de texte, tel qu'un mot ou une partie de mot, que le modèle traite individuellement.
Les LLMs ne « réfléchissent » pas comme les humains. Ils prédisent le mot ou l'expression suivant(e) en fonction de l'invite d'entrée et de leurs données d'entraînement.
Si votre invite est trop longue, le modèle peut ignorer les premières parties de l'entrée. Cette taille d'entrée est appelée fenêtre de contexte.
Fenêtre de contexte correspond au nombre maximal de jetons qu'un LLM peut prendre en compte simultanément lors de la génération d'une réponse.
Exemple
Si vous demandez : Write a poem about the ocean, le modèle interprète chaque mot comme un jeton et utilise le contexte pour générer un poème pertinent. Si vous ajoutez plus de détails, comme Write a four-line poem about the ocean using vivid imagery, le modèle utilise le contexte supplémentaire pour adapter sa réponse.
Connaître la fenêtre de contexte permet d'éviter la perte d'informations importantes dans des prompts longs.
Merci pour vos commentaires !