Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Polynominen Regressio | Osio
Ohjatun Oppimisen Perusteet

bookPolynominen Regressio

Edellisessä luvussa tarkastelimme toisen asteen regressiota, jonka kuvaaja on paraabeli. Samalla tavalla voimme lisätä yhtälöön ja saada kolmannen asteen regression, jonka kuvaaja on monimutkaisempi. Voimme myös lisätä x⁴ ja niin edelleen.

Polynomiregression aste

Yleisesti tätä kutsutaan polynomiyhtälöksi, ja se on polynomiregression yhtälö. Suurin x:n eksponentti määrittää polynomiregression asteen yhtälössä. Tässä on esimerkki

N-asteen polynomiregressio

Kun n on kokonaisluku, joka on suurempi kuin kaksi, voimme kirjoittaa n-asteen polynomiregression yhtälön.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Missä:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – ovat mallin parametreja;
  • ypredy_{\text{pred}} – on kohteen ennuste;
  • xx – on piirteen arvo;
  • nn – on polynomiregression aste.

Normaaliyhtälö

Kuten aina, parametrit määritetään normaaliyhtälön avulla:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Missä:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – ovat mallin parametrit;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – on opetusdatan piirrearvojen taulukko;
  • XkX^k – on taulukon XX alkioittainen potenssi kk;
  • ytruey_{\text{true}} – on opetusdatan tavoitearvojen taulukko.

Polynomiregressio useilla piirteillä

Monimutkaisempien muotojen luomiseksi voidaan käyttää polynomiregressiota, jossa on useampi kuin yksi piirre. Jo kahdella piirteellä toisen asteen polynomiregressiolla on melko pitkä yhtälö.

Useimmiten näin monimutkaista mallia ei tarvita. Yksinkertaisemmat mallit (kuten monimuuttujainen lineaarinen regressio) kuvaavat dataa yleensä riittävän hyvin, ja ne ovat helpompia tulkita, visualisoida sekä vähemmän laskennallisesti raskaita.

question mark

Valitse VÄÄRÄ väittämä.

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 11

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

bookPolynominen Regressio

Pyyhkäise näyttääksesi valikon

Edellisessä luvussa tarkastelimme toisen asteen regressiota, jonka kuvaaja on paraabeli. Samalla tavalla voimme lisätä yhtälöön ja saada kolmannen asteen regression, jonka kuvaaja on monimutkaisempi. Voimme myös lisätä x⁴ ja niin edelleen.

Polynomiregression aste

Yleisesti tätä kutsutaan polynomiyhtälöksi, ja se on polynomiregression yhtälö. Suurin x:n eksponentti määrittää polynomiregression asteen yhtälössä. Tässä on esimerkki

N-asteen polynomiregressio

Kun n on kokonaisluku, joka on suurempi kuin kaksi, voimme kirjoittaa n-asteen polynomiregression yhtälön.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Missä:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – ovat mallin parametreja;
  • ypredy_{\text{pred}} – on kohteen ennuste;
  • xx – on piirteen arvo;
  • nn – on polynomiregression aste.

Normaaliyhtälö

Kuten aina, parametrit määritetään normaaliyhtälön avulla:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Missä:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – ovat mallin parametrit;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – on opetusdatan piirrearvojen taulukko;
  • XkX^k – on taulukon XX alkioittainen potenssi kk;
  • ytruey_{\text{true}} – on opetusdatan tavoitearvojen taulukko.

Polynomiregressio useilla piirteillä

Monimutkaisempien muotojen luomiseksi voidaan käyttää polynomiregressiota, jossa on useampi kuin yksi piirre. Jo kahdella piirteellä toisen asteen polynomiregressiolla on melko pitkä yhtälö.

Useimmiten näin monimutkaista mallia ei tarvita. Yksinkertaisemmat mallit (kuten monimuuttujainen lineaarinen regressio) kuvaavat dataa yleensä riittävän hyvin, ja ne ovat helpompia tulkita, visualisoida sekä vähemmän laskennallisesti raskaita.

question mark

Valitse VÄÄRÄ väittämä.

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 11
some-alt