Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Trovare i Parametri | Sezione
Practice
Projects
Quizzes & Challenges
Quiz
Challenges
/
Fondamenti di Apprendimento Supervisionato

bookTrovare i Parametri

Ora sappiamo che la Regressione Lineare è semplicemente una retta che si adatta meglio ai dati. Ma come si può determinare quale sia quella corretta?

È possibile calcolare la differenza tra il valore previsto e il valore target effettivo per ciascun punto dati nel set di addestramento.
Queste differenze sono chiamate residui (o errori). L'obiettivo è rendere i residui il più piccoli possibile.

Minimi Quadrati Ordinari

L'approccio predefinito è il metodo dei Minimi Quadrati Ordinari (OLS):
Si prende ciascun residuo, lo si eleva al quadrato (principalmente per eliminare il segno del residuo) e si sommano tutti.
Questo è chiamato SSR (Somma dei residui quadratici). Il compito è trovare i parametri che minimizzano l'SSR.

Equazione Normale

Fortunatamente, non è necessario provare tutte le rette e calcolare l'SSR per ciascuna di esse. Il compito di minimizzare l'SSR ha una soluzione matematica che non è molto onerosa dal punto di vista computazionale.
Questa soluzione è chiamata Equazione Normale.

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dove:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sono i parametri del modello;
X~=(1XX2Xn);\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix};
  • XX – è un array di valori delle caratteristiche dal set di addestramento;
  • XkX^k – è la potenza elemento per elemento $k$ dell'array $X$;
  • ytruey_{\text{true}} – è un array di valori target dal set di addestramento.

Questa equazione fornisce i parametri di una retta con il minimo SSR.
Non hai capito come funziona? Nessun problema! Si tratta di matematica piuttosto complessa. Tuttavia, non è necessario calcolare i parametri manualmente. Molte librerie hanno già implementato la regressione lineare.

Quiz

1. Considera l'immagine sopra. Quale retta di regressione è migliore?

2. y_true - y_predicted è chiamato

question mark

Considera l'immagine sopra. Quale retta di regressione è migliore?

Select the correct answer

question mark

y_true - y_predicted è chiamato

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 2

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

bookTrovare i Parametri

Scorri per mostrare il menu

Ora sappiamo che la Regressione Lineare è semplicemente una retta che si adatta meglio ai dati. Ma come si può determinare quale sia quella corretta?

È possibile calcolare la differenza tra il valore previsto e il valore target effettivo per ciascun punto dati nel set di addestramento.
Queste differenze sono chiamate residui (o errori). L'obiettivo è rendere i residui il più piccoli possibile.

Minimi Quadrati Ordinari

L'approccio predefinito è il metodo dei Minimi Quadrati Ordinari (OLS):
Si prende ciascun residuo, lo si eleva al quadrato (principalmente per eliminare il segno del residuo) e si sommano tutti.
Questo è chiamato SSR (Somma dei residui quadratici). Il compito è trovare i parametri che minimizzano l'SSR.

Equazione Normale

Fortunatamente, non è necessario provare tutte le rette e calcolare l'SSR per ciascuna di esse. Il compito di minimizzare l'SSR ha una soluzione matematica che non è molto onerosa dal punto di vista computazionale.
Questa soluzione è chiamata Equazione Normale.

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dove:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sono i parametri del modello;
X~=(1XX2Xn);\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix};
  • XX – è un array di valori delle caratteristiche dal set di addestramento;
  • XkX^k – è la potenza elemento per elemento $k$ dell'array $X$;
  • ytruey_{\text{true}} – è un array di valori target dal set di addestramento.

Questa equazione fornisce i parametri di una retta con il minimo SSR.
Non hai capito come funziona? Nessun problema! Si tratta di matematica piuttosto complessa. Tuttavia, non è necessario calcolare i parametri manualmente. Molte librerie hanno già implementato la regressione lineare.

Quiz

1. Considera l'immagine sopra. Quale retta di regressione è migliore?

2. y_true - y_predicted è chiamato

question mark

Considera l'immagine sopra. Quale retta di regressione è migliore?

Select the correct answer

question mark

y_true - y_predicted è chiamato

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 2
some-alt