Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Come l'AI Genera una Risposta | Come Funzionano i Prompt
Prompt Engineering per il Lavoro

bookCome l'AI Genera una Risposta

Scorri per mostrare il menu

Per scrivere prompt migliori, è utile avere un modello mentale di base di ciò che accade dopo aver premuto invio. Non è necessario comprendere la matematica che sta dietro ai modelli linguistici, ma capire il processo a livello concettuale spiega perché i prompt funzionano in un certo modo e perché i risultati possono variare in modi che sembrano imprevedibili.

Da input a output: cosa succede realmente

Quando invii un prompt, il modello non cerca una risposta in un database. Non recupera una risposta pre-scritta. Genera una risposta — token per token — prevedendo cosa dovrebbe venire dopo, dato tutto ciò che è presente nell'input.

Il processo funziona approssimativamente così:

  1. Il tuo prompt viene suddiviso in token — piccole unità di testo (circa parole o parti di parole);
  2. Il modello elabora questi token attraverso miliardi di parametri appresi per costruire una rappresentazione del significato e dell'intento;
  3. Quindi genera l'output un token alla volta, con ogni nuovo token influenzato da tutto ciò che lo precede;
  4. Questo continua fino a quando il modello raggiunge un punto di arresto naturale o il limite di output.

Il risultato non viene recuperato — viene costruito, parola per parola, in base ai modelli appresi durante l'addestramento.

Descrizione screenshot: Un diagramma di flusso orizzontale pulito con quattro passaggi etichettati collegati da frecce. Passaggio 1 — riquadro etichettato "Your prompt" contenente il testo: "Summarize this in 3 bullet points for a non-technical audience." Passaggio 2 — riquadro etichettato "Tokenization" che mostra la stessa frase suddivisa in segmenti colorati: Summarize / this / in / 3 / bullet / points / for / a / non-technical / audience. Passaggio 3 — riquadro etichettato "Model predicts next token" con una piccola visualizzazione delle probabilità che mostra tre opzioni: "The" 38%, "Here" 31%, "This" 19%. Passaggio 4 — riquadro etichettato "Output builds token by token" che mostra una risposta parzialmente completata. Design piatto e minimale senza gergo tecnico nel diagramma stesso.

Perché lo Stesso Prompt Può Dare Risposte Diverse

Se invii esattamente lo stesso prompt due volte, potresti ricevere due risposte diverse. Questo non è un bug — è il risultato di un parametro chiamato temperatura, che controlla quanta casualità viene introdotta nel processo di selezione dei token.

  • Temperatura bassa — il modello sceglie costantemente il token successivo più probabile. Gli output sono più prevedibili e ripetitivi;
  • Temperatura alta — il modello occasionalmente sceglie token meno probabili. Gli output sono più vari e creativi, ma meno coerenti.

La maggior parte degli strumenti di intelligenza artificiale imposta automaticamente la temperatura e non espone questa impostazione agli utenti. Ciò che conta praticamente è sapere che la variazione è prevista e normale — soprattutto per compiti creativi o aperti.

Per attività che richiedono coerenza (riassunti standard, report strutturati, comunicazioni con template), questo è un motivo per essere più espliciti nel prompt riguardo al formato e all'output atteso.

A Cosa Il Modello Non Ha Accesso

Comprendere ciò a cui il modello non può accedere è importante quanto capire come genera:

  • Non può accedere a internet di default — a meno che lo strumento non offra specificamente la ricerca web come funzionalità;
  • Ha una data di cutoff della conoscenza — gli eventi successivi all'addestramento sono sconosciuti al modello a meno che non vengano forniti nel prompt;
  • Non ha memoria tra le sessioni — ogni nuova conversazione inizia da zero;
  • Non può vedere i tuoi file, schermi o sistemi — a meno che tu non incolli esplicitamente il contenuto nel prompt.

Ciascuna di queste limitazioni può essere compensata nel prompt — fornendo le informazioni che altrimenti mancherebbero al modello. Questo è esattamente lo scopo del contesto in un prompt.

question mark

Perché lo stesso prompt può produrre risposte diverse da un modello di intelligenza artificiale?

Seleziona la risposta corretta

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 2

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Sezione 1. Capitolo 2
some-alt