Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Come i Grandi Modelli Linguistici Comprendono i Prompt | Fondamenti dell'Ingegneria dei Prompt
Basi dell'Ingegneria dei Prompt

bookCome i Grandi Modelli Linguistici Comprendono i Prompt

I modelli linguistici di grandi dimensioni (LLM) elaborano i prompt suddividendo il testo di input in unità più piccole chiamate token. Il modello utilizza questi token per comprendere il significato e il contesto delle istruzioni, quindi genera una risposta basata sui modelli appresi da enormi quantità di dati.

Note
Definizione

Token è una porzione di testo, come una parola o parte di una parola, che il modello elabora singolarmente.

Gli LLM non "pensano" come gli esseri umani. Predicono la parola o la frase successiva in base al prompt di input e ai dati di addestramento.

Se il prompt è troppo lungo, il modello potrebbe ignorare le parti iniziali dell'input. Questa dimensione dell'input è chiamata context window.

Note
Definizione

Finestra di contesto è il numero massimo di token che un LLM può considerare contemporaneamente durante la generazione di una risposta.

Esempio

Se chiedi, Write a poem about the ocean, il modello interpreta ogni parola come un token e utilizza il contesto per generare una poesia pertinente. Se aggiungi più dettagli, come Write a four-line poem about the ocean using vivid imagery, il modello utilizza il contesto aggiuntivo per adattare la sua risposta.

Note
Promemoria veloce

Essere consapevoli della finestra di contesto aiuta a evitare la perdita di informazioni importanti in prompt lunghi.

question mark

Che cos'è un token nel contesto dei LLM?

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 2

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Awesome!

Completion rate improved to 11.11

bookCome i Grandi Modelli Linguistici Comprendono i Prompt

Scorri per mostrare il menu

I modelli linguistici di grandi dimensioni (LLM) elaborano i prompt suddividendo il testo di input in unità più piccole chiamate token. Il modello utilizza questi token per comprendere il significato e il contesto delle istruzioni, quindi genera una risposta basata sui modelli appresi da enormi quantità di dati.

Note
Definizione

Token è una porzione di testo, come una parola o parte di una parola, che il modello elabora singolarmente.

Gli LLM non "pensano" come gli esseri umani. Predicono la parola o la frase successiva in base al prompt di input e ai dati di addestramento.

Se il prompt è troppo lungo, il modello potrebbe ignorare le parti iniziali dell'input. Questa dimensione dell'input è chiamata context window.

Note
Definizione

Finestra di contesto è il numero massimo di token che un LLM può considerare contemporaneamente durante la generazione di una risposta.

Esempio

Se chiedi, Write a poem about the ocean, il modello interpreta ogni parola come un token e utilizza il contesto per generare una poesia pertinente. Se aggiungi più dettagli, come Write a four-line poem about the ocean using vivid imagery, il modello utilizza il contesto aggiuntivo per adattare la sua risposta.

Note
Promemoria veloce

Essere consapevoli della finestra di contesto aiuta a evitare la perdita di informazioni importanti in prompt lunghi.

question mark

Che cos'è un token nel contesto dei LLM?

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 2
some-alt