Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Polynomiale Regressie | Sectie
Essentiële Supervised Learning

bookPolynomiale Regressie

In het vorige hoofdstuk hebben we kwadratische regressie onderzocht, waarvan de grafiek een parabool is. Op dezelfde manier kunnen we aan de vergelijking toevoegen om de Kubieke Regressie te verkrijgen, die een complexere grafiek heeft. We kunnen ook x⁴ toevoegen, enzovoort.

Een graad van een polynomiale regressie

In het algemeen wordt dit de polynomiale vergelijking genoemd en is het de vergelijking van de polynomiale regressie. De hoogste macht van x bepaalt de graad van een polynomiale regressie in de vergelijking. Hier is een voorbeeld

N-de-graads polynomiale regressie

Als we n beschouwen als een geheel getal groter dan twee, kunnen we de vergelijking van een n-de-graads polynomiale regressie opschrijven.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Waarbij:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – de parameters van het model zijn;
  • ypredy_{\text{pred}} – de voorspelling van de doelvariabele is;
  • xx – de waarde van de feature is;
  • nn – de graad van de polynomiale regressie is.

Normale Vergelijking

En zoals altijd worden de parameters gevonden met behulp van de Normale Vergelijking:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Waarbij:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – de parameters van het model zijn;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – een array van kenmerkwaarden uit de trainingsset;
  • XkX^k – de elementgewijze macht van kk van de XX array;
  • ytruey_{\text{true}} – een array van doelwaarden uit de trainingsset.

Polynomiale regressie met meerdere kenmerken

Voor het creëren van nog complexere vormen kan polynomiale regressie met meer dan één kenmerk worden gebruikt. Maar zelfs met twee kenmerken heeft een polynomiale regressie van de tweede graad al een vrij lange vergelijking.

Meestal is zo'n complex model niet nodig. Eenvoudigere modellen (zoals meervoudige lineaire regressie) beschrijven de data doorgaans voldoende goed, zijn eenvoudiger te interpreteren en te visualiseren, en vergen minder rekenkracht.

question mark

Kies de ONJUISTE uitspraak.

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 11

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

bookPolynomiale Regressie

Veeg om het menu te tonen

In het vorige hoofdstuk hebben we kwadratische regressie onderzocht, waarvan de grafiek een parabool is. Op dezelfde manier kunnen we aan de vergelijking toevoegen om de Kubieke Regressie te verkrijgen, die een complexere grafiek heeft. We kunnen ook x⁴ toevoegen, enzovoort.

Een graad van een polynomiale regressie

In het algemeen wordt dit de polynomiale vergelijking genoemd en is het de vergelijking van de polynomiale regressie. De hoogste macht van x bepaalt de graad van een polynomiale regressie in de vergelijking. Hier is een voorbeeld

N-de-graads polynomiale regressie

Als we n beschouwen als een geheel getal groter dan twee, kunnen we de vergelijking van een n-de-graads polynomiale regressie opschrijven.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Waarbij:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – de parameters van het model zijn;
  • ypredy_{\text{pred}} – de voorspelling van de doelvariabele is;
  • xx – de waarde van de feature is;
  • nn – de graad van de polynomiale regressie is.

Normale Vergelijking

En zoals altijd worden de parameters gevonden met behulp van de Normale Vergelijking:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Waarbij:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – de parameters van het model zijn;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – een array van kenmerkwaarden uit de trainingsset;
  • XkX^k – de elementgewijze macht van kk van de XX array;
  • ytruey_{\text{true}} – een array van doelwaarden uit de trainingsset.

Polynomiale regressie met meerdere kenmerken

Voor het creëren van nog complexere vormen kan polynomiale regressie met meer dan één kenmerk worden gebruikt. Maar zelfs met twee kenmerken heeft een polynomiale regressie van de tweede graad al een vrij lange vergelijking.

Meestal is zo'n complex model niet nodig. Eenvoudigere modellen (zoals meervoudige lineaire regressie) beschrijven de data doorgaans voldoende goed, zijn eenvoudiger te interpreteren en te visualiseren, en vergen minder rekenkracht.

question mark

Kies de ONJUISTE uitspraak.

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 11
some-alt