Parametrien Löytäminen
Logistinen regressio vaatii tietokoneelta ainoastaan parhaiden parametrien β oppimista. Tätä varten meidän täytyy määritellä, mitä "parhaat parametrit" tarkoittaa. Palataanpa siihen, miten malli toimii: se ennustaa p - todennäköisyyden kuulua luokkaan 1:
p=σ(z)=σ(β0+β1x1+...)Missä
σ(z)=1+e−z1On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) p arvon tapauksille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) p arvon tapauksille, joiden todellinen luokka on 0.
Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:
Tässä p edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas y tarkoittaa todellista tavoitearvoa.
Tämä funktio ei ainoastaan rankaise virheellisistä ennusteista, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun p on lähellä y:tä (todellista tavoitetta), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärässä luokassa.
Binääriluokittelun yhteydessä, jossa käytetään sigmoidifunktiota, käytettyä kustannusfunktiota kutsutaan erityisesti binääriseksi ristientropiahäviöksi (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleinen muoto, nimeltään ristientropiahäviö (cross-entropy loss) tai kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.
Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:
Categorical Cross-Entropy Loss=−i=1∑Cyilog(pi)Missä
- C on luokkien määrä;
- yi on todellinen tavoitearvo (1 jos luokka on oikea, muuten 0);
- pi on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan i.
Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β, jotka minimoivat kustannusfunktion.
Kiitos palautteestasi!
Kysy tekoälyä
Kysy tekoälyä
Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme
Mahtavaa!
Completion arvosana parantunut arvoon 3.33
Parametrien Löytäminen
Pyyhkäise näyttääksesi valikon
Logistinen regressio vaatii tietokoneelta ainoastaan parhaiden parametrien β oppimista. Tätä varten meidän täytyy määritellä, mitä "parhaat parametrit" tarkoittaa. Palataanpa siihen, miten malli toimii: se ennustaa p - todennäköisyyden kuulua luokkaan 1:
p=σ(z)=σ(β0+β1x1+...)Missä
σ(z)=1+e−z1On selvää, että malli, jolla on hyvät parametrit, ennustaa korkean (lähellä 1) p arvon tapauksille, jotka todella kuuluvat luokkaan 1, ja matalan (lähellä 0) p arvon tapauksille, joiden todellinen luokka on 0.
Mallin hyvyyden tai huonouden mittaamiseen käytetään kustannusfunktiota. Lineaarisessa regressiossa käytettiin MSE:tä (keskineliövirhe) kustannusfunktiona. Tällä kertaa käytetään eri funktiota:
Tässä p edustaa mallin ennustamaa todennäköisyyttä kuulua luokkaan 1, kun taas y tarkoittaa todellista tavoitearvoa.
Tämä funktio ei ainoastaan rankaise virheellisistä ennusteista, vaan ottaa huomioon myös mallin varmuuden ennusteissaan. Kuten yllä olevassa kuvassa on esitetty, kun p on lähellä y:tä (todellista tavoitetta), kustannusfunktio pysyy melko pienenä, mikä osoittaa, että malli valitsi oikean luokan luottavaisesti. Jos ennuste on väärä, kustannusfunktio kasvaa eksponentiaalisesti mallin varmuuden kasvaessa väärässä luokassa.
Binääriluokittelun yhteydessä, jossa käytetään sigmoidifunktiota, käytettyä kustannusfunktiota kutsutaan erityisesti binääriseksi ristientropiahäviöksi (binary cross-entropy loss), joka esitettiin yllä. On tärkeää huomata, että on olemassa myös yleinen muoto, nimeltään ristientropiahäviö (cross-entropy loss) tai kategorinen ristientropiahäviö, jota käytetään moniluokkaisissa luokitteluongelmissa.
Kategorinen ristientropiahäviö yhdelle koulutusesimerkille lasketaan seuraavasti:
Categorical Cross-Entropy Loss=−i=1∑Cyilog(pi)Missä
- C on luokkien määrä;
- yi on todellinen tavoitearvo (1 jos luokka on oikea, muuten 0);
- pi on ennustettu todennäköisyys, että esimerkki kuuluu luokkaan i.
Häviöfunktio lasketaan jokaiselle koulutusesimerkille ja otetaan keskiarvo. Tätä keskiarvoa kutsutaan kustannusfunktioksi. Logistinen regressio etsii parametrit β, jotka minimoivat kustannusfunktion.
Kiitos palautteestasi!