Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Regressione Lineare con N Variabili | Sezione
Fondamenti di Apprendimento Supervisionato

bookRegressione Lineare con N Variabili

Equazione di Regressione Lineare con N Variabili

Come abbiamo visto, aggiungere una nuova variabile al modello di regressione lineare è semplice quanto aggiungerla insieme al nuovo parametro nell'equazione del modello. In questo modo possiamo aggiungere molti più di due parametri.

Note
Nota

Considerare n come un numero intero maggiore di due.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Dove:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – sono i parametri del modello;
  • ypredy_{\text{pred}} – è la previsione del target;
  • x1x_1 – è il valore della prima variabile;
  • x2x_2 – è il valore della seconda variabile;
  • \dots
  • xnx_n – è il valore della n-esima variabile.

Equazione Normale

L'unico problema è la visualizzazione. Se abbiamo due parametri, dobbiamo costruire un grafico 3D. Ma se abbiamo più di due parametri, il grafico sarà in più di tre dimensioni. Tuttavia, viviamo in un mondo tridimensionale e non possiamo immaginare grafici in dimensioni superiori. Tuttavia, non è necessario visualizzare il risultato. Occorre solo trovare i parametri affinché il modello funzioni. Fortunatamente, è relativamente semplice trovarli. La classica Equazione Normale ci viene in aiuto:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dove:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sono i parametri del modello;
  • X~\tilde{X} – è una matrice che contiene 1 come prima colonna e X1XnX_1 - X_n come altre colonne:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – è un array dei valori della k-esima variabile dal set di addestramento;
  • ytruey_{\text{true}} – è un array dei valori target dal set di addestramento.

Matrice X̃

Si noti che solo la matrice è cambiata. È possibile considerare le colonne di questa matrice come ciascuna responsabile del proprio parametro β. Il video seguente spiega cosa intendo.

La prima colonna di 1 è necessaria per trovare il parametro β₀.

question mark

Scegli l'affermazione ERRATA.

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 6

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

bookRegressione Lineare con N Variabili

Scorri per mostrare il menu

Equazione di Regressione Lineare con N Variabili

Come abbiamo visto, aggiungere una nuova variabile al modello di regressione lineare è semplice quanto aggiungerla insieme al nuovo parametro nell'equazione del modello. In questo modo possiamo aggiungere molti più di due parametri.

Note
Nota

Considerare n come un numero intero maggiore di due.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Dove:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – sono i parametri del modello;
  • ypredy_{\text{pred}} – è la previsione del target;
  • x1x_1 – è il valore della prima variabile;
  • x2x_2 – è il valore della seconda variabile;
  • \dots
  • xnx_n – è il valore della n-esima variabile.

Equazione Normale

L'unico problema è la visualizzazione. Se abbiamo due parametri, dobbiamo costruire un grafico 3D. Ma se abbiamo più di due parametri, il grafico sarà in più di tre dimensioni. Tuttavia, viviamo in un mondo tridimensionale e non possiamo immaginare grafici in dimensioni superiori. Tuttavia, non è necessario visualizzare il risultato. Occorre solo trovare i parametri affinché il modello funzioni. Fortunatamente, è relativamente semplice trovarli. La classica Equazione Normale ci viene in aiuto:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dove:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sono i parametri del modello;
  • X~\tilde{X} – è una matrice che contiene 1 come prima colonna e X1XnX_1 - X_n come altre colonne:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – è un array dei valori della k-esima variabile dal set di addestramento;
  • ytruey_{\text{true}} – è un array dei valori target dal set di addestramento.

Matrice X̃

Si noti che solo la matrice è cambiata. È possibile considerare le colonne di questa matrice come ciascuna responsabile del proprio parametro β. Il video seguente spiega cosa intendo.

La prima colonna di 1 è necessaria per trovare il parametro β₀.

question mark

Scegli l'affermazione ERRATA.

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 6
some-alt