Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Lineaarinen Regressio Kahdella Muuttujalla | Osio
Practice
Projects
Quizzes & Challenges
Visat
Challenges
/
Ohjatun Oppimisen Perusteet

bookLineaarinen Regressio Kahdella Muuttujalla

Tähän asti olemme tarkastelleet lineaarista regressiota, jossa on vain yksi ominaisuus. Tätä kutsutaan yksinkertaiseksi lineaariseksi regressioksi. Todellisuudessa kohde kuitenkin useimmiten riippuu useista ominaisuuksista. Lineaarista regressiota, jossa on useampi kuin yksi ominaisuus, kutsutaan moninkertaiseksi lineaariseksi regressioksi.

Kaksiominaisuuksinen lineaarisen regression yhtälö

Esimerkissämme pituuksista mallin tarkkuus todennäköisesti paranee, jos lisäämme äidin pituuden ominaisuutena. Mutta miten uusi ominaisuus lisätään malliin? Lineaarinen regressio määritellään yhtälöllä, joten meidän tarvitsee vain lisätä uusi ominaisuus yhtälöön:

ypred=β0+β1x1+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2

Missä:

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – ovat mallin parametreja;
  • ypredy_{\text{pred}} – on kohteen ennuste;
  • x1x_1 – on ensimmäisen ominaisuuden arvo;
  • x2x_2 – on toisen ominaisuuden arvo.

Visualisointi

Kun käsittelimme yksinkertaista regressiomallia, rakensimme 2D-kuvaajan, jossa toinen akseli oli ominaisuus ja toinen kohde. Nyt kun meillä on kaksi ominaisuutta, tarvitsemme kaksi akselia ominaisuuksille ja kolmannen kohteelle. Siirrymme siis 2D-avaruudesta 3D-avaruuteen, jonka hahmottaminen on huomattavasti vaikeampaa. Videolla esitetään esimerkkiaineiston 3D-hajontakuvio.

Nyt yhtälömme ei kuitenkaan ole enää suoran yhtälö, vaan tason yhtälö. Tässä on hajontakuvio sekä ennustettu taso.

Olet ehkä huomannut, että matemaattisesti yhtälömme ei ole juurikaan monimutkaistunut. Valitettavasti visualisointi on kuitenkin vaikeutunut.

question mark

Mikä kuvaa parhaiten monimuuttujaista lineaarista regressiota?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 5

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

bookLineaarinen Regressio Kahdella Muuttujalla

Pyyhkäise näyttääksesi valikon

Tähän asti olemme tarkastelleet lineaarista regressiota, jossa on vain yksi ominaisuus. Tätä kutsutaan yksinkertaiseksi lineaariseksi regressioksi. Todellisuudessa kohde kuitenkin useimmiten riippuu useista ominaisuuksista. Lineaarista regressiota, jossa on useampi kuin yksi ominaisuus, kutsutaan moninkertaiseksi lineaariseksi regressioksi.

Kaksiominaisuuksinen lineaarisen regression yhtälö

Esimerkissämme pituuksista mallin tarkkuus todennäköisesti paranee, jos lisäämme äidin pituuden ominaisuutena. Mutta miten uusi ominaisuus lisätään malliin? Lineaarinen regressio määritellään yhtälöllä, joten meidän tarvitsee vain lisätä uusi ominaisuus yhtälöön:

ypred=β0+β1x1+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2

Missä:

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – ovat mallin parametreja;
  • ypredy_{\text{pred}} – on kohteen ennuste;
  • x1x_1 – on ensimmäisen ominaisuuden arvo;
  • x2x_2 – on toisen ominaisuuden arvo.

Visualisointi

Kun käsittelimme yksinkertaista regressiomallia, rakensimme 2D-kuvaajan, jossa toinen akseli oli ominaisuus ja toinen kohde. Nyt kun meillä on kaksi ominaisuutta, tarvitsemme kaksi akselia ominaisuuksille ja kolmannen kohteelle. Siirrymme siis 2D-avaruudesta 3D-avaruuteen, jonka hahmottaminen on huomattavasti vaikeampaa. Videolla esitetään esimerkkiaineiston 3D-hajontakuvio.

Nyt yhtälömme ei kuitenkaan ole enää suoran yhtälö, vaan tason yhtälö. Tässä on hajontakuvio sekä ennustettu taso.

Olet ehkä huomannut, että matemaattisesti yhtälömme ei ole juurikaan monimutkaistunut. Valitettavasti visualisointi on kuitenkin vaikeutunut.

question mark

Mikä kuvaa parhaiten monimuuttujaista lineaarista regressiota?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 5
some-alt