Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Parametrien Löytäminen | Osio
Ohjatun Oppimisen Perusteet

bookParametrien Löytäminen

Logistinen regressio vaatii tietokoneelta ainoastaan parhaiden parametrien ββ oppimista. Tätä varten meidän täytyy määritellä, mitä "parhaat parametrit" tarkoittaa. Palataanpa siihen, miten malli toimii: se ennustaa pp - todennäköisyyden kuulua luokkaan 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Missä

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) pp arvon tapauksille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) pp arvon tapauksille, joiden todellinen luokka on 0.

Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:

Tässä pp edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas yy tarkoittaa todellista tavoitearvoa.

Tämä funktio ei ainoastaan rankaise virheellisistä ennusteista, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun pp on lähellä yy:tä (todellista tavoitetta), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärässä luokassa.

Binääriluokittelun yhteydessä, jossa käytetään sigmoidifunktiota, käytettyä kustannusfunktiota kutsutaan erityisesti binääriseksi ristientropiahäviöksi (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleinen muoto, nimeltään ristientropiahäviö (cross-entropy loss) tai kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.

Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Missä

  • CC on luokkien määrä;
  • yiy_i on todellinen tavoitearvo (1 jos luokka on oikea, muuten 0);
  • pip_i on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan ii.

Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β\beta, jotka minimoivat kustannusfunktion.

question mark

Mitä seuraavista käytetään häviöfunktiona luokittelutehtävissä?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 22

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

bookParametrien Löytäminen

Pyyhkäise näyttääksesi valikon

Logistinen regressio vaatii tietokoneelta ainoastaan parhaiden parametrien ββ oppimista. Tätä varten meidän täytyy määritellä, mitä "parhaat parametrit" tarkoittaa. Palataanpa siihen, miten malli toimii: se ennustaa pp - todennäköisyyden kuulua luokkaan 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Missä

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) pp arvon tapauksille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) pp arvon tapauksille, joiden todellinen luokka on 0.

Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:

Tässä pp edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas yy tarkoittaa todellista tavoitearvoa.

Tämä funktio ei ainoastaan rankaise virheellisistä ennusteista, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun pp on lähellä yy:tä (todellista tavoitetta), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärässä luokassa.

Binääriluokittelun yhteydessä, jossa käytetään sigmoidifunktiota, käytettyä kustannusfunktiota kutsutaan erityisesti binääriseksi ristientropiahäviöksi (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleinen muoto, nimeltään ristientropiahäviö (cross-entropy loss) tai kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.

Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Missä

  • CC on luokkien määrä;
  • yiy_i on todellinen tavoitearvo (1 jos luokka on oikea, muuten 0);
  • pip_i on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan ii.

Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β\beta, jotka minimoivat kustannusfunktion.

question mark

Mitä seuraavista käytetään häviöfunktiona luokittelutehtävissä?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 22
some-alt