Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Finde Parametrene | Sektion
Supervised Learning Essentials

bookFinde Parametrene

Logistisk regression kræver kun, at computeren lærer de bedste parametre ββ. For at gøre dette skal vi definere, hvad "bedste parametre" betyder. Lad os genkalde, hvordan modellen fungerer; den forudsiger pp – sandsynligheden for at tilhøre klasse 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Hvor

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Det er åbenlyst, at en model med gode parametre er den, der forudsiger en høj (tæt på 1) pp for observationer, der faktisk tilhører klasse 1, og en lav (tæt på 0) pp for observationer med den faktiske klasse 0.

For at måle hvor dårlig eller god modellen er, anvender vi en omkostningsfunktion. I lineær regression brugte vi MSE (mean squared error) som omkostningsfunktion. Denne gang anvendes en anden funktion:

Her repræsenterer pp sandsynligheden for at tilhøre klasse 1, som forudsagt af modellen, mens yy angiver den faktiske målte værdi.

Denne funktion straffer ikke kun forkerte forudsigelser, men tager også højde for modellens selvtillid i dens forudsigelser. Som illustreret i billedet ovenfor, når værdien af pp ligger tæt på yy (det faktiske mål), forbliver omkostningsfunktionen relativt lille, hvilket indikerer, at modellen med stor sikkerhed har valgt den korrekte klasse. Omvendt, hvis forudsigelsen er forkert, stiger omkostningsfunktionen eksponentielt, efterhånden som modellens selvtillid i den forkerte klasse vokser.

I forbindelse med binær klassifikation med en sigmoidfunktion anvendes en omkostningsfunktion, der specifikt kaldes binær krydsentropitab (binary cross-entropy loss), som vist ovenfor. Det er vigtigt at bemærke, at der også findes en generel form kendt som krydsentropitab (eller kategorisk krydsentropi), der bruges til multiklasse klassifikationsproblemer.

Den kategoriske krydsentropitab for en enkelt træningsinstans beregnes som følger:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Hvor

  • CC er antallet af klasser;
  • yiy_i er den faktiske målte værdi (1 hvis klassen er den korrekte klasse, 0 ellers);
  • pip_i er den forudsagte sandsynlighed for, at instansen tilhører klasse ii.

Vi beregner tabfunktionen for hver træningsinstans og tager gennemsnittet. Dette gennemsnit kaldes omkostningsfunktionen. Logistisk regression finder de parametre β\beta, der minimerer omkostningsfunktionen.

question mark

Hvilken af disse anvendes som tab i klassifikationsopgaver?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 22

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

bookFinde Parametrene

Stryg for at vise menuen

Logistisk regression kræver kun, at computeren lærer de bedste parametre ββ. For at gøre dette skal vi definere, hvad "bedste parametre" betyder. Lad os genkalde, hvordan modellen fungerer; den forudsiger pp – sandsynligheden for at tilhøre klasse 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Hvor

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Det er åbenlyst, at en model med gode parametre er den, der forudsiger en høj (tæt på 1) pp for observationer, der faktisk tilhører klasse 1, og en lav (tæt på 0) pp for observationer med den faktiske klasse 0.

For at måle hvor dårlig eller god modellen er, anvender vi en omkostningsfunktion. I lineær regression brugte vi MSE (mean squared error) som omkostningsfunktion. Denne gang anvendes en anden funktion:

Her repræsenterer pp sandsynligheden for at tilhøre klasse 1, som forudsagt af modellen, mens yy angiver den faktiske målte værdi.

Denne funktion straffer ikke kun forkerte forudsigelser, men tager også højde for modellens selvtillid i dens forudsigelser. Som illustreret i billedet ovenfor, når værdien af pp ligger tæt på yy (det faktiske mål), forbliver omkostningsfunktionen relativt lille, hvilket indikerer, at modellen med stor sikkerhed har valgt den korrekte klasse. Omvendt, hvis forudsigelsen er forkert, stiger omkostningsfunktionen eksponentielt, efterhånden som modellens selvtillid i den forkerte klasse vokser.

I forbindelse med binær klassifikation med en sigmoidfunktion anvendes en omkostningsfunktion, der specifikt kaldes binær krydsentropitab (binary cross-entropy loss), som vist ovenfor. Det er vigtigt at bemærke, at der også findes en generel form kendt som krydsentropitab (eller kategorisk krydsentropi), der bruges til multiklasse klassifikationsproblemer.

Den kategoriske krydsentropitab for en enkelt træningsinstans beregnes som følger:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Hvor

  • CC er antallet af klasser;
  • yiy_i er den faktiske målte værdi (1 hvis klassen er den korrekte klasse, 0 ellers);
  • pip_i er den forudsagte sandsynlighed for, at instansen tilhører klasse ii.

Vi beregner tabfunktionen for hver træningsinstans og tager gennemsnittet. Dette gennemsnit kaldes omkostningsfunktionen. Logistisk regression finder de parametre β\beta, der minimerer omkostningsfunktionen.

question mark

Hvilken af disse anvendes som tab i klassifikationsopgaver?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 22
some-alt