Come i Grandi Modelli Linguistici Comprendono i Prompt
I modelli linguistici di grandi dimensioni (LLM) elaborano i prompt suddividendo il testo di input in unità più piccole chiamate token. Il modello utilizza questi token per comprendere il significato e il contesto delle istruzioni, quindi genera una risposta basata sui modelli appresi da enormi quantità di dati.
Token è una porzione di testo, come una parola o parte di una parola, che il modello elabora singolarmente.
Gli LLM non "pensano" come gli esseri umani. Predicono la parola o la frase successiva in base al prompt di input e ai dati di addestramento.
Se il prompt è troppo lungo, il modello potrebbe ignorare le parti iniziali dell'input. Questa dimensione dell'input è chiamata context window.
Finestra di contesto è il numero massimo di token che un LLM può considerare contemporaneamente durante la generazione di una risposta.
Esempio
Se chiedi, Write a poem about the ocean, il modello interpreta ogni parola come un token e utilizza il contesto per generare una poesia pertinente. Se aggiungi più dettagli, come Write a four-line poem about the ocean using vivid imagery, il modello utilizza il contesto aggiuntivo per adattare la sua risposta.
Essere consapevoli della finestra di contesto aiuta a evitare la perdita di informazioni importanti in prompt lunghi.
Grazie per i tuoi commenti!
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Awesome!
Completion rate improved to 11.11
Come i Grandi Modelli Linguistici Comprendono i Prompt
Scorri per mostrare il menu
I modelli linguistici di grandi dimensioni (LLM) elaborano i prompt suddividendo il testo di input in unità più piccole chiamate token. Il modello utilizza questi token per comprendere il significato e il contesto delle istruzioni, quindi genera una risposta basata sui modelli appresi da enormi quantità di dati.
Token è una porzione di testo, come una parola o parte di una parola, che il modello elabora singolarmente.
Gli LLM non "pensano" come gli esseri umani. Predicono la parola o la frase successiva in base al prompt di input e ai dati di addestramento.
Se il prompt è troppo lungo, il modello potrebbe ignorare le parti iniziali dell'input. Questa dimensione dell'input è chiamata context window.
Finestra di contesto è il numero massimo di token che un LLM può considerare contemporaneamente durante la generazione di una risposta.
Esempio
Se chiedi, Write a poem about the ocean, il modello interpreta ogni parola come un token e utilizza il contesto per generare una poesia pertinente. Se aggiungi più dettagli, come Write a four-line poem about the ocean using vivid imagery, il modello utilizza il contesto aggiuntivo per adattare la sua risposta.
Essere consapevoli della finestra di contesto aiuta a evitare la perdita di informazioni importanti in prompt lunghi.
Grazie per i tuoi commenti!