Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Lineaire Regressie met N Kenmerken | Sectie
Practice
Projects
Quizzes & Challenges
Quizzen
Challenges
/
Essentiële Supervised Learning

bookLineaire Regressie met N Kenmerken

N-Feature Lineaire Regressievergelijking

Zoals we hebben gezien, is het toevoegen van een nieuwe feature aan het lineaire regressiemodel net zo eenvoudig als het toevoegen ervan samen met de nieuwe parameter aan de vergelijking van het model. Op deze manier kunnen we veel meer dan twee parameters toevoegen.

Note
Opmerking

Beschouw n als een geheel getal groter dan twee.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Waarbij:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – de parameters van het model zijn;
  • ypredy_{\text{pred}} – de voorspelling van de target is;
  • x1x_1 – de waarde van de eerste feature is;
  • x2x_2 – de waarde van de tweede feature is;
  • \dots
  • xnx_n – de waarde van de n-de feature is.

Normale Vergelijking

Het enige probleem is de visualisatie. Als we twee parameters hebben, moeten we een 3D-plot maken. Maar als we meer dan twee parameters hebben, zal de plot meer dan driedimensionaal zijn. Maar we leven in een driedimensionale wereld en kunnen geen hogere-dimensionale plots voorstellen. Het is echter niet noodzakelijk om het resultaat te visualiseren. We hoeven alleen de parameters te vinden zodat het model werkt. Gelukkig is het relatief eenvoudig om deze te vinden. De vertrouwde Normale Vergelijking helpt ons:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Waarbij:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – de parameters van het model zijn;
  • X~\tilde{X} – een matrix is, met 1-en als eerste kolom, en X1XnX_1 - X_n als andere kolommen:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – een array is van de k-de featurewaarden uit de trainingsset;
  • ytruey_{\text{true}} – een array is van de targetwaarden uit de trainingsset.

X̃-matrix

Let op dat alleen de -matrix is gewijzigd. Je kunt de kolommen van deze matrix zien als elk verantwoordelijk voor hun eigen β-parameter. De volgende video legt uit wat ik bedoel.

De eerste kolom met 1-en is nodig om de β₀-parameter te bepalen.

question mark

Kies de ONJUISTE uitspraak.

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 6

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

bookLineaire Regressie met N Kenmerken

Veeg om het menu te tonen

N-Feature Lineaire Regressievergelijking

Zoals we hebben gezien, is het toevoegen van een nieuwe feature aan het lineaire regressiemodel net zo eenvoudig als het toevoegen ervan samen met de nieuwe parameter aan de vergelijking van het model. Op deze manier kunnen we veel meer dan twee parameters toevoegen.

Note
Opmerking

Beschouw n als een geheel getal groter dan twee.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Waarbij:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – de parameters van het model zijn;
  • ypredy_{\text{pred}} – de voorspelling van de target is;
  • x1x_1 – de waarde van de eerste feature is;
  • x2x_2 – de waarde van de tweede feature is;
  • \dots
  • xnx_n – de waarde van de n-de feature is.

Normale Vergelijking

Het enige probleem is de visualisatie. Als we twee parameters hebben, moeten we een 3D-plot maken. Maar als we meer dan twee parameters hebben, zal de plot meer dan driedimensionaal zijn. Maar we leven in een driedimensionale wereld en kunnen geen hogere-dimensionale plots voorstellen. Het is echter niet noodzakelijk om het resultaat te visualiseren. We hoeven alleen de parameters te vinden zodat het model werkt. Gelukkig is het relatief eenvoudig om deze te vinden. De vertrouwde Normale Vergelijking helpt ons:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Waarbij:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – de parameters van het model zijn;
  • X~\tilde{X} – een matrix is, met 1-en als eerste kolom, en X1XnX_1 - X_n als andere kolommen:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – een array is van de k-de featurewaarden uit de trainingsset;
  • ytruey_{\text{true}} – een array is van de targetwaarden uit de trainingsset.

X̃-matrix

Let op dat alleen de -matrix is gewijzigd. Je kunt de kolommen van deze matrix zien als elk verantwoordelijk voor hun eigen β-parameter. De volgende video legt uit wat ik bedoel.

De eerste kolom met 1-en is nodig om de β₀-parameter te bepalen.

question mark

Kies de ONJUISTE uitspraak.

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 6
some-alt