Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Regressione Polinomiale | Sezione
Practice
Projects
Quizzes & Challenges
Quiz
Challenges
/
Fondamenti di Apprendimento Supervisionato

bookRegressione Polinomiale

Nel capitolo precedente, abbiamo analizzato la regressione quadratica, caratterizzata dal grafico di una parabola. Allo stesso modo, è possibile aggiungere all'equazione per ottenere la Regressione Cubica, che presenta un grafico più complesso. Si può anche aggiungere x⁴ e così via.

Grado di una Regressione Polinomiale

In generale, si parla di equazione polinomiale ed è l'equazione della Regressione Polinomiale. La massima potenza di x definisce il grado di una Regressione Polinomiale nell'equazione. Ecco un esempio

Regressione Polinomiale di Grado N

Considerando n come un numero intero maggiore di due, è possibile scrivere l'equazione di una Regressione Polinomiale di grado n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Dove:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – sono i parametri del modello;
  • ypredy_{\text{pred}} – è la previsione del target;
  • xx – è il valore della caratteristica;
  • nn – è il grado della Regressione Polinomiale.

Equazione Normale

Come sempre, i parametri vengono trovati utilizzando l'Equazione Normale:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dove:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sono i parametri del modello;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – è un array di valori delle feature dal set di addestramento;
  • XkX^k – è la potenza elemento per elemento di kk dell'array XX;
  • ytruey_{\text{true}} – è un array di valori target dal set di addestramento.

Regressione Polinomiale con Più Variabili

Per creare forme ancora più complesse, è possibile utilizzare la Regressione Polinomiale con più di una variabile. Tuttavia, anche con due variabili, la regressione polinomiale di secondo grado presenta un'equazione piuttosto lunga.

Nella maggior parte dei casi, non sarà necessario un modello così complesso. Modelli più semplici (come la Regressione Lineare Multipla) solitamente descrivono i dati in modo sufficientemente accurato, sono molto più facili da interpretare, visualizzare e meno costosi dal punto di vista computazionale.

question mark

Scegli l'affermazione ERRATA.

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 11

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

bookRegressione Polinomiale

Scorri per mostrare il menu

Nel capitolo precedente, abbiamo analizzato la regressione quadratica, caratterizzata dal grafico di una parabola. Allo stesso modo, è possibile aggiungere all'equazione per ottenere la Regressione Cubica, che presenta un grafico più complesso. Si può anche aggiungere x⁴ e così via.

Grado di una Regressione Polinomiale

In generale, si parla di equazione polinomiale ed è l'equazione della Regressione Polinomiale. La massima potenza di x definisce il grado di una Regressione Polinomiale nell'equazione. Ecco un esempio

Regressione Polinomiale di Grado N

Considerando n come un numero intero maggiore di due, è possibile scrivere l'equazione di una Regressione Polinomiale di grado n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Dove:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – sono i parametri del modello;
  • ypredy_{\text{pred}} – è la previsione del target;
  • xx – è il valore della caratteristica;
  • nn – è il grado della Regressione Polinomiale.

Equazione Normale

Come sempre, i parametri vengono trovati utilizzando l'Equazione Normale:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dove:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sono i parametri del modello;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – è un array di valori delle feature dal set di addestramento;
  • XkX^k – è la potenza elemento per elemento di kk dell'array XX;
  • ytruey_{\text{true}} – è un array di valori target dal set di addestramento.

Regressione Polinomiale con Più Variabili

Per creare forme ancora più complesse, è possibile utilizzare la Regressione Polinomiale con più di una variabile. Tuttavia, anche con due variabili, la regressione polinomiale di secondo grado presenta un'equazione piuttosto lunga.

Nella maggior parte dei casi, non sarà necessario un modello così complesso. Modelli più semplici (come la Regressione Lineare Multipla) solitamente descrivono i dati in modo sufficientemente accurato, sono molto più facili da interpretare, visualizzare e meno costosi dal punto di vista computazionale.

question mark

Scegli l'affermazione ERRATA.

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 11
some-alt