Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Ylisovittaminen ja Regularisointi | Osio
Practice
Projects
Quizzes & Challenges
Visat
Challenges
/
Ohjatun Oppimisen Perusteet

bookYlisovittaminen ja Regularisointi

Kuten edellisessä luvussa osoitettiin, käyttämällä PolynomialFeatures-toimintoa voit luoda monimutkaisen päätösrajan. Toisen asteen polynomiset piirteet voivat tuottaa alla olevan kuvan mukaisia rajoja:

Ja kyseessä on vain toinen aste. Korkeampi aste voi tuottaa vielä monimutkaisempia muotoja. Tässä piilee kuitenkin ongelma. Logistisen regressiomallin rakentama päätösraja voi muodostua liian monimutkaiseksi, mikä johtaa mallin ylisovittamiseen.

Ylisovittaminen tarkoittaa, että malli rakentaa hyvin monimutkaisen päätösrajan käsitelläkseen jokaisen harjoitusaineiston tapauksen erikseen sen sijaan, että oppisi yleisiä piirteitä datasta. Tällöin malli ei suoriudu yhtä hyvin aiemmin näkemättömällä datalla, vaikka koneoppimismallin ensisijainen tehtävä on toimia hyvin uudella datalla.

Regularisointi ratkaisee ylisovittamisen ongelman. Itse asiassa l2-regularisointia käytetään oletuksena LogisticRegression-luokassa. Sinun täytyy kuitenkin määrittää, kuinka voimakkaasti mallia regularisoidaan. Tätä säädetään C-parametrilla:

carousel-imgcarousel-imgcarousel-img
  • suurempi C – heikompi regularisointi, enemmän ylioppimista;
  • pienempi C – vahvempi regularisointi, vähemmän ylioppimista (mutta mahdollisesti alioppimista).

Millaiset C:n arvot tuottavat hyvän mallin riippuu aineistosta, joten on parempi valita se käyttämällä GridSearchCV-menetelmää.

Note
Huomio

Kun käytät logistista regressiota regularisoinnin kanssa, on tärkeää skaalata datasi. Regularisointi rankaisee suuria kertoimia, ja ilman skaalausta suuremmat piirteet voivat vääristää tuloksia. Itse asiassa skaalaus on lähes aina tarpeellista – jopa silloin, kun regularisointia ei käytetä.

LogisticRegression-luokka sisältää oletuksena regularisoinnin, joten sinun tulisi joko poistaa regularisointi (asettamalla penalty=None) tai skaalaa data (esim. käyttämällä StandardScaler).

Note
Huomio

Jos käytät sekä PolynomialFeatures että StandardScaler, varmista että käytät StandardScaler-skaalausta polynomisten piirteiden luonnin jälkeen. Datan skaalaaminen ennen polynomista laajennusta voi vääristää syntyviä piirteitä, koska esimerkiksi neliöinti tai kertolasku jo standardoiduilla arvoilla voi johtaa epäluonnollisiin jakaumiin.

1. Valitse VÄÄRÄ väittämä.

2. Mikä on oikea järjestys datan esikäsittelyyn

question mark

Valitse VÄÄRÄ väittämä.

Select the correct answer

question mark

Mikä on oikea järjestys datan esikäsittelyyn

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 25

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

bookYlisovittaminen ja Regularisointi

Pyyhkäise näyttääksesi valikon

Kuten edellisessä luvussa osoitettiin, käyttämällä PolynomialFeatures-toimintoa voit luoda monimutkaisen päätösrajan. Toisen asteen polynomiset piirteet voivat tuottaa alla olevan kuvan mukaisia rajoja:

Ja kyseessä on vain toinen aste. Korkeampi aste voi tuottaa vielä monimutkaisempia muotoja. Tässä piilee kuitenkin ongelma. Logistisen regressiomallin rakentama päätösraja voi muodostua liian monimutkaiseksi, mikä johtaa mallin ylisovittamiseen.

Ylisovittaminen tarkoittaa, että malli rakentaa hyvin monimutkaisen päätösrajan käsitelläkseen jokaisen harjoitusaineiston tapauksen erikseen sen sijaan, että oppisi yleisiä piirteitä datasta. Tällöin malli ei suoriudu yhtä hyvin aiemmin näkemättömällä datalla, vaikka koneoppimismallin ensisijainen tehtävä on toimia hyvin uudella datalla.

Regularisointi ratkaisee ylisovittamisen ongelman. Itse asiassa l2-regularisointia käytetään oletuksena LogisticRegression-luokassa. Sinun täytyy kuitenkin määrittää, kuinka voimakkaasti mallia regularisoidaan. Tätä säädetään C-parametrilla:

carousel-imgcarousel-imgcarousel-img
  • suurempi C – heikompi regularisointi, enemmän ylioppimista;
  • pienempi C – vahvempi regularisointi, vähemmän ylioppimista (mutta mahdollisesti alioppimista).

Millaiset C:n arvot tuottavat hyvän mallin riippuu aineistosta, joten on parempi valita se käyttämällä GridSearchCV-menetelmää.

Note
Huomio

Kun käytät logistista regressiota regularisoinnin kanssa, on tärkeää skaalata datasi. Regularisointi rankaisee suuria kertoimia, ja ilman skaalausta suuremmat piirteet voivat vääristää tuloksia. Itse asiassa skaalaus on lähes aina tarpeellista – jopa silloin, kun regularisointia ei käytetä.

LogisticRegression-luokka sisältää oletuksena regularisoinnin, joten sinun tulisi joko poistaa regularisointi (asettamalla penalty=None) tai skaalaa data (esim. käyttämällä StandardScaler).

Note
Huomio

Jos käytät sekä PolynomialFeatures että StandardScaler, varmista että käytät StandardScaler-skaalausta polynomisten piirteiden luonnin jälkeen. Datan skaalaaminen ennen polynomista laajennusta voi vääristää syntyviä piirteitä, koska esimerkiksi neliöinti tai kertolasku jo standardoiduilla arvoilla voi johtaa epäluonnollisiin jakaumiin.

1. Valitse VÄÄRÄ väittämä.

2. Mikä on oikea järjestys datan esikäsittelyyn

question mark

Valitse VÄÄRÄ väittämä.

Select the correct answer

question mark

Mikä on oikea järjestys datan esikäsittelyyn

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 25
some-alt