Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Kvadratisk Regression | Sektion
Supervised Learning Essentials

bookKvadratisk Regression

Problemet med lineær regression

Før vi definerer polynomiel regression, ser vi på et tilfælde, hvor den lineære regression, vi tidligere har lært, ikke håndterer situationen tilfredsstillende.

Her kan du se, at vores simple lineære regressionsmodel klarer sig dårligt. Det skyldes, at modellen forsøger at tilpasse en ret linje til datapunkterne. Vi kan dog bemærke, at det ville være en langt bedre løsning at tilpasse en parabel til vores punkter.

Kvadratisk regressionsligning

For at opbygge en model med en ret linje brugte vi en linjes ligning (y=ax+b). For at opbygge en parabolsk model har vi brug for en parabels ligning. Det er den kvadratiske ligning: y=ax2+bx+cy=ax²+bx+c. Hvis vi ændrer aa, bb og cc til ββ, får vi kvadratisk regressionsligning:

ypred=β0+β1x+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2

Hvor:

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – modellens parametre;
  • ypredy_{\text{pred}} – forudsigelse af målvariablen;
  • xx – feature-værdi.

Modellen, som denne ligning beskriver, kaldes Kvadratisk Regression. Som tidligere skal vi blot finde de bedste parametre for vores datapunkter.

Normal Ligning og X̃

Som altid håndterer den normale ligning at finde de bedste parametre. Men vi skal definere korrekt.

Vi ved allerede, hvordan vi opbygger -matricen til multipel lineær regression. Det viser sig, at -matricen til polynomiel regression konstrueres på lignende måde. Vi kan betragte som en anden feature. På denne måde skal vi tilføje en tilsvarende ny kolonne til . Den vil indeholde de samme værdier som den forrige kolonne, men opløftet i anden potens.

Videoen nedenfor viser, hvordan man opbygger .

question mark

Hvad er den største begrænsning ved lineær regression, når man modellerer data?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 10

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

bookKvadratisk Regression

Stryg for at vise menuen

Problemet med lineær regression

Før vi definerer polynomiel regression, ser vi på et tilfælde, hvor den lineære regression, vi tidligere har lært, ikke håndterer situationen tilfredsstillende.

Her kan du se, at vores simple lineære regressionsmodel klarer sig dårligt. Det skyldes, at modellen forsøger at tilpasse en ret linje til datapunkterne. Vi kan dog bemærke, at det ville være en langt bedre løsning at tilpasse en parabel til vores punkter.

Kvadratisk regressionsligning

For at opbygge en model med en ret linje brugte vi en linjes ligning (y=ax+b). For at opbygge en parabolsk model har vi brug for en parabels ligning. Det er den kvadratiske ligning: y=ax2+bx+cy=ax²+bx+c. Hvis vi ændrer aa, bb og cc til ββ, får vi kvadratisk regressionsligning:

ypred=β0+β1x+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2

Hvor:

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – modellens parametre;
  • ypredy_{\text{pred}} – forudsigelse af målvariablen;
  • xx – feature-værdi.

Modellen, som denne ligning beskriver, kaldes Kvadratisk Regression. Som tidligere skal vi blot finde de bedste parametre for vores datapunkter.

Normal Ligning og X̃

Som altid håndterer den normale ligning at finde de bedste parametre. Men vi skal definere korrekt.

Vi ved allerede, hvordan vi opbygger -matricen til multipel lineær regression. Det viser sig, at -matricen til polynomiel regression konstrueres på lignende måde. Vi kan betragte som en anden feature. På denne måde skal vi tilføje en tilsvarende ny kolonne til . Den vil indeholde de samme værdier som den forrige kolonne, men opløftet i anden potens.

Videoen nedenfor viser, hvordan man opbygger .

question mark

Hvad er den største begrænsning ved lineær regression, når man modellerer data?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 10
some-alt