Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Kvadratisk Regresjon | Seksjon
Grunnleggende Overvåket Læring

bookKvadratisk Regresjon

Problemet med lineær regresjon

Før vi definerer polynomregresjon, skal vi se på et tilfelle hvor den lineære regresjonen vi har lært tidligere ikke fungerer godt.

Her kan du se at vår enkle lineære regresjonsmodell presterer dårlig. Dette skyldes at den forsøker å tilpasse en rett linje til datapunktene. Vi kan imidlertid merke oss at det å tilpasse en parabel ville vært et langt bedre valg for våre punkter.

Kvadratisk regresjonslikning

For å bygge en modell med rett linje brukte vi en linjes ligning (y=ax+b). For å bygge en parabolsk modell trenger vi ligningen for en parabel. Det er den kvadratiske ligningen: y=ax2+bx+cy=ax²+bx+c. Ved å endre aa, bb og cc til ββ får vi kvadratisk regresjonslikning:

ypred=β0+β1x+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2

Hvor:

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – er modellens parametere;
  • ypredy_{\text{pred}} – er prediksjonen av målet;
  • xx – er egenskapsverdien.

Modellen denne ligningen beskriver kalles kvadratisk regresjon. Som tidligere trenger vi kun å finne de beste parameterne for våre datapunkter.

Normal likning og X̃

Som alltid håndterer den normale likningen å finne de beste parameterne. Men vi må definere korrekt.

Vi vet allerede hvordan vi bygger -matrisen for multippel lineær regresjon. Det viser seg at -matrisen for polynomregresjon konstrueres på lignende måte. Vi kan betrakte som en andre egenskap. Dermed må vi legge til en tilsvarende ny kolonne i . Den vil inneholde de samme verdiene som forrige kolonne, men opphøyd i andre.

Videoen under viser hvordan man bygger .

question mark

Hva er hovedbegrensningen til lineær regresjon når man modellerer data?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 10

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

bookKvadratisk Regresjon

Sveip for å vise menyen

Problemet med lineær regresjon

Før vi definerer polynomregresjon, skal vi se på et tilfelle hvor den lineære regresjonen vi har lært tidligere ikke fungerer godt.

Her kan du se at vår enkle lineære regresjonsmodell presterer dårlig. Dette skyldes at den forsøker å tilpasse en rett linje til datapunktene. Vi kan imidlertid merke oss at det å tilpasse en parabel ville vært et langt bedre valg for våre punkter.

Kvadratisk regresjonslikning

For å bygge en modell med rett linje brukte vi en linjes ligning (y=ax+b). For å bygge en parabolsk modell trenger vi ligningen for en parabel. Det er den kvadratiske ligningen: y=ax2+bx+cy=ax²+bx+c. Ved å endre aa, bb og cc til ββ får vi kvadratisk regresjonslikning:

ypred=β0+β1x+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2

Hvor:

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – er modellens parametere;
  • ypredy_{\text{pred}} – er prediksjonen av målet;
  • xx – er egenskapsverdien.

Modellen denne ligningen beskriver kalles kvadratisk regresjon. Som tidligere trenger vi kun å finne de beste parameterne for våre datapunkter.

Normal likning og X̃

Som alltid håndterer den normale likningen å finne de beste parameterne. Men vi må definere korrekt.

Vi vet allerede hvordan vi bygger -matrisen for multippel lineær regresjon. Det viser seg at -matrisen for polynomregresjon konstrueres på lignende måte. Vi kan betrakte som en andre egenskap. Dermed må vi legge til en tilsvarende ny kolonne i . Den vil inneholde de samme verdiene som forrige kolonne, men opphøyd i andre.

Videoen under viser hvordan man bygger .

question mark

Hva er hovedbegrensningen til lineær regresjon når man modellerer data?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 10
some-alt