Päätösraja
Visualisoidaan logistisen regressiomallin tulokset. Tarkastellaan seuraavaa kahden ominaisuuden esimerkkiä:
Kun logistinen regressiomalli on rakennettu, voidaan piirtää päätösraja. Se osoittaa kunkin luokan alueen, jossa uudet havainnot luokitellaan kyseiseen luokkaan. Esimerkiksi alla on logistisen regressiomallin päätösraja yllä olevalle aineistolle:
Tässä nähdään, että viiva erottaa kaksi luokkaa täydellisesti. Tällöin aineistoa kutsutaan lineaarisesti erotettavaksi. Tämä ei kuitenkaan aina toteudu. Entä jos aineisto näyttäisi tältä:
Yllä on päätösraja hieman erilaiselle aineistolle. Tässä aineistossa data ei ole lineaarisesti eroteltavissa; siksi logistisen regressiomallin tekemät ennusteet ovat epätäydellisiä. Valitettavasti oletuksena logistinen regressio ei pysty ennustamaan monimutkaisempia päätösrajoja, joten tämä on paras mahdollinen ennuste.
Muista kuitenkin, että logistinen regressio pohjautuu lineaariseen regressioon, jolla on ratkaisu liian yksinkertaisen mallin ongelmaan. Tämä ratkaisu on polynomiregressio, ja voimme käyttää sen yhtälöä laskettaessa z saadaksemme monimutkaisemman päätösrajan muodon:
z=β0+β1x1+β2x2+β3x12+β4x1x2+β5x22Aivan kuten polynomiregressiossa, voimme käyttää PolynomialFeatures-muunninta lisätäksemme polynomisia termejä piirteisiin – tämä auttaa mallia oppimaan monimutkaisempia rakenteita.
from sklearn.preprocessing import PolynomialFeatures
X_poly = PolynomialFeatures(2, include_bias=False).fit_transform(X)
Tämä rivi muuntaa alkuperäiset syötepiirteet X lisäämällä:
- Neliötermit (esim. x2);
- Yhdistermit (esim. x1⋅x2, jos piirteitä on useampi).
Esimerkiksi, jos X:ssä on alun perin kaksi piirrettä: [x1,x2], niin PolynomialFeatures(2, include_bias=False)-muunnoksen jälkeen saat: [x1,x2,x12,x1x2,x22]
Tämä mahdollistaa esimerkiksi logistisen regression mallien oppia epälineaarisia riippuvuuksia ja tuottaa joustavampia, kaarevia päätösrajoja. Kuitenkin asteen kasvattaminen liikaa voi johtaa malliin, joka sopii liiaksi harjoitusaineistoon – ilmiö tunnetaan nimellä ylisovittaminen. Siksi yleensä kokeillaan ensin pienempiä asteita ja arvioidaan mallia huolellisesti.
Kiitos palautteestasi!
Kysy tekoälyä
Kysy tekoälyä
Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme
Mahtavaa!
Completion arvosana parantunut arvoon 3.33
Päätösraja
Pyyhkäise näyttääksesi valikon
Visualisoidaan logistisen regressiomallin tulokset. Tarkastellaan seuraavaa kahden ominaisuuden esimerkkiä:
Kun logistinen regressiomalli on rakennettu, voidaan piirtää päätösraja. Se osoittaa kunkin luokan alueen, jossa uudet havainnot luokitellaan kyseiseen luokkaan. Esimerkiksi alla on logistisen regressiomallin päätösraja yllä olevalle aineistolle:
Tässä nähdään, että viiva erottaa kaksi luokkaa täydellisesti. Tällöin aineistoa kutsutaan lineaarisesti erotettavaksi. Tämä ei kuitenkaan aina toteudu. Entä jos aineisto näyttäisi tältä:
Yllä on päätösraja hieman erilaiselle aineistolle. Tässä aineistossa data ei ole lineaarisesti eroteltavissa; siksi logistisen regressiomallin tekemät ennusteet ovat epätäydellisiä. Valitettavasti oletuksena logistinen regressio ei pysty ennustamaan monimutkaisempia päätösrajoja, joten tämä on paras mahdollinen ennuste.
Muista kuitenkin, että logistinen regressio pohjautuu lineaariseen regressioon, jolla on ratkaisu liian yksinkertaisen mallin ongelmaan. Tämä ratkaisu on polynomiregressio, ja voimme käyttää sen yhtälöä laskettaessa z saadaksemme monimutkaisemman päätösrajan muodon:
z=β0+β1x1+β2x2+β3x12+β4x1x2+β5x22Aivan kuten polynomiregressiossa, voimme käyttää PolynomialFeatures-muunninta lisätäksemme polynomisia termejä piirteisiin – tämä auttaa mallia oppimaan monimutkaisempia rakenteita.
from sklearn.preprocessing import PolynomialFeatures
X_poly = PolynomialFeatures(2, include_bias=False).fit_transform(X)
Tämä rivi muuntaa alkuperäiset syötepiirteet X lisäämällä:
- Neliötermit (esim. x2);
- Yhdistermit (esim. x1⋅x2, jos piirteitä on useampi).
Esimerkiksi, jos X:ssä on alun perin kaksi piirrettä: [x1,x2], niin PolynomialFeatures(2, include_bias=False)-muunnoksen jälkeen saat: [x1,x2,x12,x1x2,x22]
Tämä mahdollistaa esimerkiksi logistisen regression mallien oppia epälineaarisia riippuvuuksia ja tuottaa joustavampia, kaarevia päätösrajoja. Kuitenkin asteen kasvattaminen liikaa voi johtaa malliin, joka sopii liiaksi harjoitusaineistoon – ilmiö tunnetaan nimellä ylisovittaminen. Siksi yleensä kokeillaan ensin pienempiä asteita ja arvioidaan mallia huolellisesti.
Kiitos palautteestasi!