Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Bestimmung der Parameter | Abschnitt
Practice
Projects
Quizzes & Challenges
Quizze
Challenges
/
Grundlagen des Überwachten Lernens

bookBestimmung der Parameter

Bei der logistischen Regression muss der Computer lediglich die optimalen Parameter ββ erlernen. Dafür muss zunächst definiert werden, was unter „optimalen Parametern“ zu verstehen ist. Erinnern wir uns an die Funktionsweise des Modells: Es sagt die Wahrscheinlichkeit pp für die Zugehörigkeit zur Klasse 1 voraus:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Dabei gilt:

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Offensichtlich ist ein Modell mit guten Parametern eines, das für Instanzen der tatsächlichen Klasse 1 eine hohe (nahe 1) Wahrscheinlichkeit pp vorhersagt und für Instanzen der tatsächlichen Klasse 0 eine niedrige (nahe 0) Wahrscheinlichkeit pp.

Um zu messen, wie gut oder schlecht das Modell ist, wird eine Kostenfunktion verwendet. In der linearen Regression wurde als Kostenfunktion der MSE (mittlere quadratische Abweichung) genutzt. In diesem Fall wird jedoch eine andere Funktion verwendet:

Hier steht pp für die vom Modell vorhergesagte Wahrscheinlichkeit, zur Klasse 1 zu gehören, während yy den tatsächlichen Zielwert bezeichnet.

Diese Funktion bestraft nicht nur falsche Vorhersagen, sondern berücksichtigt auch die Sicherheit des Modells in seinen Vorhersagen. Wie in der obigen Abbildung dargestellt, bleibt die Kostenfunktion relativ klein, wenn der Wert von pp nahe bei yy (dem tatsächlichen Ziel) liegt, was darauf hinweist, dass das Modell die richtige Klasse mit hoher Sicherheit ausgewählt hat. Im Gegensatz dazu steigt die Kostenfunktion exponentiell an, wenn die Vorhersage falsch ist und das Modell mit hoher Sicherheit die falsche Klasse auswählt.

Im Kontext der binären Klassifikation mit einer Sigmoid-Funktion wird speziell die binäre Kreuzentropie-Verlustfunktion verwendet, wie oben gezeigt. Es ist wichtig zu beachten, dass es auch eine allgemeine Form gibt, die als Kreuzentropie-Verlust (oder kategorische Kreuzentropie) für Mehrklassenklassifikationsprobleme verwendet wird.

Die kategorische Kreuzentropie für eine einzelne Trainingsinstanz wird wie folgt berechnet:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Dabei gilt:

  • CC ist die Anzahl der Klassen;
  • yiy_i ist der tatsächliche Zielwert (1, wenn die Klasse die korrekte Klasse ist, sonst 0);
  • pip_i ist die vorhergesagte Wahrscheinlichkeit, dass die Instanz zur Klasse ii gehört.

Die Verlustfunktion wird für jede Trainingsinstanz berechnet und der Durchschnitt genommen. Dieser Durchschnitt wird als Kostenfunktion bezeichnet. Die logistische Regression findet die Parameter β\beta, die die Kostenfunktion minimieren.

question mark

Welche dieser Funktionen wird als Verlustfunktion bei Klassifikationsaufgaben verwendet?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 22

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

bookBestimmung der Parameter

Swipe um das Menü anzuzeigen

Bei der logistischen Regression muss der Computer lediglich die optimalen Parameter ββ erlernen. Dafür muss zunächst definiert werden, was unter „optimalen Parametern“ zu verstehen ist. Erinnern wir uns an die Funktionsweise des Modells: Es sagt die Wahrscheinlichkeit pp für die Zugehörigkeit zur Klasse 1 voraus:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Dabei gilt:

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Offensichtlich ist ein Modell mit guten Parametern eines, das für Instanzen der tatsächlichen Klasse 1 eine hohe (nahe 1) Wahrscheinlichkeit pp vorhersagt und für Instanzen der tatsächlichen Klasse 0 eine niedrige (nahe 0) Wahrscheinlichkeit pp.

Um zu messen, wie gut oder schlecht das Modell ist, wird eine Kostenfunktion verwendet. In der linearen Regression wurde als Kostenfunktion der MSE (mittlere quadratische Abweichung) genutzt. In diesem Fall wird jedoch eine andere Funktion verwendet:

Hier steht pp für die vom Modell vorhergesagte Wahrscheinlichkeit, zur Klasse 1 zu gehören, während yy den tatsächlichen Zielwert bezeichnet.

Diese Funktion bestraft nicht nur falsche Vorhersagen, sondern berücksichtigt auch die Sicherheit des Modells in seinen Vorhersagen. Wie in der obigen Abbildung dargestellt, bleibt die Kostenfunktion relativ klein, wenn der Wert von pp nahe bei yy (dem tatsächlichen Ziel) liegt, was darauf hinweist, dass das Modell die richtige Klasse mit hoher Sicherheit ausgewählt hat. Im Gegensatz dazu steigt die Kostenfunktion exponentiell an, wenn die Vorhersage falsch ist und das Modell mit hoher Sicherheit die falsche Klasse auswählt.

Im Kontext der binären Klassifikation mit einer Sigmoid-Funktion wird speziell die binäre Kreuzentropie-Verlustfunktion verwendet, wie oben gezeigt. Es ist wichtig zu beachten, dass es auch eine allgemeine Form gibt, die als Kreuzentropie-Verlust (oder kategorische Kreuzentropie) für Mehrklassenklassifikationsprobleme verwendet wird.

Die kategorische Kreuzentropie für eine einzelne Trainingsinstanz wird wie folgt berechnet:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Dabei gilt:

  • CC ist die Anzahl der Klassen;
  • yiy_i ist der tatsächliche Zielwert (1, wenn die Klasse die korrekte Klasse ist, sonst 0);
  • pip_i ist die vorhergesagte Wahrscheinlichkeit, dass die Instanz zur Klasse ii gehört.

Die Verlustfunktion wird für jede Trainingsinstanz berechnet und der Durchschnitt genommen. Dieser Durchschnitt wird als Kostenfunktion bezeichnet. Die logistische Regression findet die Parameter β\beta, die die Kostenfunktion minimieren.

question mark

Welche dieser Funktionen wird als Verlustfunktion bei Klassifikationsaufgaben verwendet?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 22
some-alt