Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Polynomisk Regresjon | Seksjon
Grunnleggende Overvåket Læring

bookPolynomisk Regresjon

I forrige kapittel utforsket vi kvadratisk regresjon, som har grafen til en parabel. På samme måte kan vi legge til i ligningen for å få kubisk regresjon, som har en mer kompleks graf. Vi kan også legge til x⁴ og så videre.

Grad av polynomregresjon

Generelt kalles det polynomligning og er ligningen for polynomregresjon. Den høyeste potensen av x definerer graden til en polynomregresjon i ligningen. Her er et eksempel

N-grad polynomregresjon

Hvis vi lar n være et heltall større enn to, kan vi skrive ligningen for en polynomregresjon av grad n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Hvor:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – modellens parametere;
  • ypredy_{\text{pred}} – prediksjon av målvariabelen;
  • xx – egenskapsverdi;
  • nn – graden til polynomregresjonen.

Normal likning

Og som alltid, finnes parameterne ved hjelp av den normale likningen:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Hvor:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – er modellens parametere;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – er en matrise med egenskapsverdier fra treningssettet;
  • XkX^k – er elementvis opphøyd i kk for XX-matrisen;
  • ytruey_{\text{true}} – er en matrise med målverdier fra treningssettet.

Polynomisk regresjon med flere egenskaper

For å lage enda mer komplekse former, kan du bruke polynomisk regresjon med mer enn én egenskap. Men selv med to egenskaper, har polynomisk regresjon av grad 2 en ganske lang likning.

Som oftest vil du ikke trenge en så kompleks modell. Enklere modeller (som multippel lineær regresjon) beskriver vanligvis dataene godt nok, og de er mye enklere å tolke, visualisere og mindre ressurskrevende.

question mark

Velg den FEILAKTIGE påstanden.

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 11

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

bookPolynomisk Regresjon

Sveip for å vise menyen

I forrige kapittel utforsket vi kvadratisk regresjon, som har grafen til en parabel. På samme måte kan vi legge til i ligningen for å få kubisk regresjon, som har en mer kompleks graf. Vi kan også legge til x⁴ og så videre.

Grad av polynomregresjon

Generelt kalles det polynomligning og er ligningen for polynomregresjon. Den høyeste potensen av x definerer graden til en polynomregresjon i ligningen. Her er et eksempel

N-grad polynomregresjon

Hvis vi lar n være et heltall større enn to, kan vi skrive ligningen for en polynomregresjon av grad n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Hvor:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – modellens parametere;
  • ypredy_{\text{pred}} – prediksjon av målvariabelen;
  • xx – egenskapsverdi;
  • nn – graden til polynomregresjonen.

Normal likning

Og som alltid, finnes parameterne ved hjelp av den normale likningen:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Hvor:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – er modellens parametere;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – er en matrise med egenskapsverdier fra treningssettet;
  • XkX^k – er elementvis opphøyd i kk for XX-matrisen;
  • ytruey_{\text{true}} – er en matrise med målverdier fra treningssettet.

Polynomisk regresjon med flere egenskaper

For å lage enda mer komplekse former, kan du bruke polynomisk regresjon med mer enn én egenskap. Men selv med to egenskaper, har polynomisk regresjon av grad 2 en ganske lang likning.

Som oftest vil du ikke trenge en så kompleks modell. Enklere modeller (som multippel lineær regresjon) beskriver vanligvis dataene godt nok, og de er mye enklere å tolke, visualisere og mindre ressurskrevende.

question mark

Velg den FEILAKTIGE påstanden.

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 11
some-alt