Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Finde Parametrene | Logistisk Regression
Klassifikation med Python

bookFinde Parametrene

Logistisk regression kræver kun, at computeren lærer de bedste parametre ββ. For at gøre dette skal vi definere, hvad "bedste parametre" betyder. Lad os genkalde, hvordan modellen fungerer; den forudsiger pp - sandsynligheden for at tilhøre klasse 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Hvor

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Det er klart, at en model med gode parametre er den, der forudsiger en høj (tæt på 1) pp for observationer, der faktisk tilhører klasse 1, og en lav (tæt på 0) pp for observationer med den faktiske klasse 0.

For at måle hvor dårlig eller god modellen er, anvendes en omkostningsfunktion. Ved lineær regression brugte vi MSE (middel kvadreret fejl) som omkostningsfunktion. Denne gang anvendes en anden funktion:

Her repræsenterer pp sandsynligheden for at tilhøre klasse 1, som forudsagt af modellen, mens yy angiver den faktiske målværdi.

Denne funktion straffer ikke kun forkerte forudsigelser, men tager også højde for modellens selvsikkerhed i dens forudsigelser. Som illustreret i billedet ovenfor, når værdien af pp ligger tæt på yy (den faktiske målværdi), forbliver omkostningsfunktionen relativt lille, hvilket indikerer, at modellen med stor sikkerhed har valgt den korrekte klasse. Omvendt, hvis forudsigelsen er forkert, stiger omkostningsfunktionen eksponentielt, efterhånden som modellens selvsikkerhed i den forkerte klasse vokser.

I forbindelse med binær klassifikation med en sigmoidfunktion kaldes den anvendte omkostningsfunktion specifikt for binær krydstabstab (binary cross-entropy loss), som vist ovenfor. Det er vigtigt at bemærke, at der også findes en generel form kaldet krydstabstab (eller kategorisk krydstabstab), som bruges til multiklasse klassifikationsproblemer.

Den kategoriske krydstabstab for en enkelt træningsinstans beregnes som følger:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Hvor

  • CC er antallet af klasser;
  • yiy_i er den faktiske målværdi (1 hvis klassen er den korrekte klasse, 0 ellers);
  • pip_i er den forudsagte sandsynlighed for, at instansen tilhører klasse ii.

Vi beregner tabfunktionen for hver træningsinstans og tager gennemsnittet. Dette gennemsnit kaldes omkostningsfunktionen. Logistisk regression finder de parametre β\beta, der minimerer omkostningsfunktionen.

question mark

Hvilken af disse anvendes som tab i klassifikationsopgaver?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Awesome!

Completion rate improved to 4.17

bookFinde Parametrene

Stryg for at vise menuen

Logistisk regression kræver kun, at computeren lærer de bedste parametre ββ. For at gøre dette skal vi definere, hvad "bedste parametre" betyder. Lad os genkalde, hvordan modellen fungerer; den forudsiger pp - sandsynligheden for at tilhøre klasse 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Hvor

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Det er klart, at en model med gode parametre er den, der forudsiger en høj (tæt på 1) pp for observationer, der faktisk tilhører klasse 1, og en lav (tæt på 0) pp for observationer med den faktiske klasse 0.

For at måle hvor dårlig eller god modellen er, anvendes en omkostningsfunktion. Ved lineær regression brugte vi MSE (middel kvadreret fejl) som omkostningsfunktion. Denne gang anvendes en anden funktion:

Her repræsenterer pp sandsynligheden for at tilhøre klasse 1, som forudsagt af modellen, mens yy angiver den faktiske målværdi.

Denne funktion straffer ikke kun forkerte forudsigelser, men tager også højde for modellens selvsikkerhed i dens forudsigelser. Som illustreret i billedet ovenfor, når værdien af pp ligger tæt på yy (den faktiske målværdi), forbliver omkostningsfunktionen relativt lille, hvilket indikerer, at modellen med stor sikkerhed har valgt den korrekte klasse. Omvendt, hvis forudsigelsen er forkert, stiger omkostningsfunktionen eksponentielt, efterhånden som modellens selvsikkerhed i den forkerte klasse vokser.

I forbindelse med binær klassifikation med en sigmoidfunktion kaldes den anvendte omkostningsfunktion specifikt for binær krydstabstab (binary cross-entropy loss), som vist ovenfor. Det er vigtigt at bemærke, at der også findes en generel form kaldet krydstabstab (eller kategorisk krydstabstab), som bruges til multiklasse klassifikationsproblemer.

Den kategoriske krydstabstab for en enkelt træningsinstans beregnes som følger:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Hvor

  • CC er antallet af klasser;
  • yiy_i er den faktiske målværdi (1 hvis klassen er den korrekte klasse, 0 ellers);
  • pip_i er den forudsagte sandsynlighed for, at instansen tilhører klasse ii.

Vi beregner tabfunktionen for hver træningsinstans og tager gennemsnittet. Dette gennemsnit kaldes omkostningsfunktionen. Logistisk regression finder de parametre β\beta, der minimerer omkostningsfunktionen.

question mark

Hvilken af disse anvendes som tab i klassifikationsopgaver?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 2
some-alt