Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Linjär Regression med N Variabler | Sektion
Practice
Projects
Quizzes & Challenges
Frågesporter
Challenges
/
Grunder i Övervakad Inlärning

bookLinjär Regression med N Variabler

Linjär regressionsekvation med N variabler

Som vi har sett är det lika enkelt att lägga till en ny variabel i den linjära regressionsmodellen som att lägga till den tillsammans med en ny parameter i modellens ekvation. På detta sätt kan vi lägga till betydligt fler än två parametrar.

Note
Notera

Betrakta n som ett heltal större än två.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Där:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – modellens parametrar;
  • ypredy_{\text{pred}} – prediktionen av målet;
  • x1x_1 – det första variabelvärdet;
  • x2x_2 – det andra variabelvärdet;
  • \dots
  • xnx_n – det n:te variabelvärdet.

Normalekvationen

Det enda problemet är visualiseringen. Om vi har två parametrar behöver vi skapa ett 3D-diagram. Men om vi har fler än två parametrar blir diagrammet mer än tredimensionellt. Eftersom vi lever i en tredimensionell värld kan vi inte föreställa oss högre-dimensionella diagram. Det är dock inte nödvändigt att visualisera resultatet. Det enda vi behöver är att hitta parametrarna för att modellen ska fungera. Lyckligtvis är det relativt enkelt att hitta dem. Den klassiska normalekvationen hjälper oss:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Där:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – modellens parametrar;
  • X~\tilde{X} – en matris som innehåller 1:or som första kolumn och X1XnX_1 - X_n som övriga kolumner:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – en array med k:te variabelvärden från träningsmängden;
  • ytruey_{\text{true}} – en array med målvariabelvärden från träningsmängden.

X̃-matrisen

Observera att endast -matrisen har ändrats. Du kan betrakta kolumnerna i denna matris som var och en ansvarig för sin β-parameter. Följande video förklarar vad som menas.

Den första kolumnen med 1:or behövs för att hitta β₀-parametern.

question mark

Välj det FELAKTIGA påståendet.

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 6

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

bookLinjär Regression med N Variabler

Svep för att visa menyn

Linjär regressionsekvation med N variabler

Som vi har sett är det lika enkelt att lägga till en ny variabel i den linjära regressionsmodellen som att lägga till den tillsammans med en ny parameter i modellens ekvation. På detta sätt kan vi lägga till betydligt fler än två parametrar.

Note
Notera

Betrakta n som ett heltal större än två.

ypred=β0+β1x1+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n

Där:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – modellens parametrar;
  • ypredy_{\text{pred}} – prediktionen av målet;
  • x1x_1 – det första variabelvärdet;
  • x2x_2 – det andra variabelvärdet;
  • \dots
  • xnx_n – det n:te variabelvärdet.

Normalekvationen

Det enda problemet är visualiseringen. Om vi har två parametrar behöver vi skapa ett 3D-diagram. Men om vi har fler än två parametrar blir diagrammet mer än tredimensionellt. Eftersom vi lever i en tredimensionell värld kan vi inte föreställa oss högre-dimensionella diagram. Det är dock inte nödvändigt att visualisera resultatet. Det enda vi behöver är att hitta parametrarna för att modellen ska fungera. Lyckligtvis är det relativt enkelt att hitta dem. Den klassiska normalekvationen hjälper oss:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Där:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – modellens parametrar;
  • X~\tilde{X} – en matris som innehåller 1:or som första kolumn och X1XnX_1 - X_n som övriga kolumner:
X~=(1X1Xn)\tilde{X} = \begin{pmatrix} | & | & \dots & | \\ 1 & X_1 & \dots & X_n \\ | & | & \dots & | \end{pmatrix}
  • XkX_k – en array med k:te variabelvärden från träningsmängden;
  • ytruey_{\text{true}} – en array med målvariabelvärden från träningsmängden.

X̃-matrisen

Observera att endast -matrisen har ändrats. Du kan betrakta kolumnerna i denna matris som var och en ansvarig för sin β-parameter. Följande video förklarar vad som menas.

Den första kolumnen med 1:or behövs för att hitta β₀-parametern.

question mark

Välj det FELAKTIGA påståendet.

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 6
some-alt