Linjär Regression med N Variabler
Linjär regressionsekvation med N variabler
Som vi har sett är det lika enkelt att lägga till en ny variabel i den linjära regressionsmodellen som att lägga till den tillsammans med en ny parameter i modellens ekvation. På detta sätt kan vi lägga till betydligt fler än två parametrar.
Betrakta n som ett heltal större än två.
Där:
- β0,β1,β2,…,βn – modellens parametrar;
- ypred – prediktionen av målet;
- x1 – det första variabelvärdet;
- x2 – det andra variabelvärdet;
- …
- xn – det n:te variabelvärdet.
Normalekvationen
Det enda problemet är visualiseringen. Om vi har två parametrar behöver vi skapa ett 3D-diagram. Men om vi har fler än två parametrar blir diagrammet mer än tredimensionellt. Eftersom vi lever i en tredimensionell värld kan vi inte föreställa oss högre-dimensionella diagram. Det är dock inte nödvändigt att visualisera resultatet. Det enda vi behöver är att hitta parametrarna för att modellen ska fungera. Lyckligtvis är det relativt enkelt att hitta dem. Den klassiska normalekvationen hjälper oss:
β=β0β1…βn=(X~TX~)−1X~TytrueDär:
- β0,β1,…,βn – modellens parametrar;
- X~ – en matris som innehåller 1:or som första kolumn och X1−Xn som övriga kolumner:
- Xk – en array med k:te variabelvärden från träningsmängden;
- ytrue – en array med målvariabelvärden från träningsmängden.
X̃-matrisen
Observera att endast X̃-matrisen har ändrats. Du kan betrakta kolumnerna i denna matris som var och en ansvarig för sin β-parameter. Följande video förklarar vad som menas.
Den första kolumnen med 1:or behövs för att hitta β₀-parametern.
Tack för dina kommentarer!
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal
Fantastiskt!
Completion betyg förbättrat till 3.33
Linjär Regression med N Variabler
Svep för att visa menyn
Linjär regressionsekvation med N variabler
Som vi har sett är det lika enkelt att lägga till en ny variabel i den linjära regressionsmodellen som att lägga till den tillsammans med en ny parameter i modellens ekvation. På detta sätt kan vi lägga till betydligt fler än två parametrar.
Betrakta n som ett heltal större än två.
Där:
- β0,β1,β2,…,βn – modellens parametrar;
- ypred – prediktionen av målet;
- x1 – det första variabelvärdet;
- x2 – det andra variabelvärdet;
- …
- xn – det n:te variabelvärdet.
Normalekvationen
Det enda problemet är visualiseringen. Om vi har två parametrar behöver vi skapa ett 3D-diagram. Men om vi har fler än två parametrar blir diagrammet mer än tredimensionellt. Eftersom vi lever i en tredimensionell värld kan vi inte föreställa oss högre-dimensionella diagram. Det är dock inte nödvändigt att visualisera resultatet. Det enda vi behöver är att hitta parametrarna för att modellen ska fungera. Lyckligtvis är det relativt enkelt att hitta dem. Den klassiska normalekvationen hjälper oss:
β=β0β1…βn=(X~TX~)−1X~TytrueDär:
- β0,β1,…,βn – modellens parametrar;
- X~ – en matris som innehåller 1:or som första kolumn och X1−Xn som övriga kolumner:
- Xk – en array med k:te variabelvärden från träningsmängden;
- ytrue – en array med målvariabelvärden från träningsmängden.
X̃-matrisen
Observera att endast X̃-matrisen har ändrats. Du kan betrakta kolumnerna i denna matris som var och en ansvarig för sin β-parameter. Följande video förklarar vad som menas.
Den första kolumnen med 1:or behövs för att hitta β₀-parametern.
Tack för dina kommentarer!