Aufteilen der Knoten
Während des Trainings muss die beste Aufteilung an jedem Entscheidungsnoten gefunden werden. Beim Aufteilen der Daten in zwei Knoten wird angestrebt, dass unterschiedliche Klassen in getrennten Knoten liegen.
- Bestes Szenario: Alle Datenpunkte in einem Knoten gehören zur gleichen Klasse;
- Schlechtestes Szenario: Eine gleiche Anzahl von Datenpunkten für jede Klasse.
Gini-Impurität
Zur Bewertung der Qualität einer Aufteilung kann die Gini-Impurität berechnet werden. Sie beschreibt die Wahrscheinlichkeit, dass bei zufälliger Auswahl von zwei Punkten aus einem Knoten (mit Zurücklegen) diese verschiedenen Klassen angehören. Je niedriger diese Wahrscheinlichkeit (Impurität), desto besser die Aufteilung.
Die Gini-Unreinheit für die binäre Klassifikation lässt sich mit folgender Formel berechnen:
gini=1−p02−p12=1−(mm0)2−(mm1)2Dabei gilt:
- mi – Anzahl der Instanzen der Klasse i in einem Knoten;
- m – Anzahl der Instanzen in einem Knoten;
- pi=mmi – Wahrscheinlichkeit, die Klasse i auszuwählen.
Für die Multiklassen-Klassifikation lautet die Formel:
gini=1−i=0∑Cpi2=1−i=0∑C(mmi)2Dabei gilt:
- C – Anzahl der Klassen.
Die Qualität der Aufteilung kann durch die gewichtete Summe der Gini-Werte für beide durch die Aufteilung entstandenen Knoten gemessen werden. Dieser Wert soll minimiert werden.
Um einen Entscheidungs-Knoten zu teilen, müssen ein Merkmal für die Aufteilung und der Schwellenwert gefunden werden:
An einem Entscheidungs-Knoten findet der Algorithmus gierig den besten Schwellenwert für jedes Merkmal. Anschließend wählt er die Aufteilung mit der geringsten Gini-Unreinheit unter allen Merkmalen (bei Gleichstand erfolgt die Auswahl zufällig).
Entropie
Die Entropie ist ein weiteres Maß für die Unreinheit. Für ein binäres Klassifikationsproblem wird die Entropie H eines Knotens mit folgender Formel berechnet:
H(p)=−plog2(p)−(1−p)log2(1−p)wobei:
- p der Anteil der positiven Beispiele (Klasse 1) ist;
- 1−p der Anteil der negativen Beispiele (Klasse 0) ist.
Für ein multiklassiges Klassifikationsproblem wird die Entropie H eines Knotens mit folgender Formel berechnet:
H(p1,p2,…,pk)=−i=1∑kpilog2(pi)wobei:
- k die Anzahl der Klassen ist;
- pi der Anteil der Beispiele ist, die zur Klasse i im Knoten gehören.
Ähnlich wie bei der Gini-Unreinheit kann die Qualität einer Aufteilung gemessen werden, indem die gewichtete Summe der Entropiewerte für die durch die Aufteilung entstandenen Kindknoten berechnet wird. Dieser Wert soll minimiert werden, um den Informationsgewinn zu maximieren.
Die Entropie ist maximal, wenn alle Klassen gleichmäßig vertreten sind. Sie ist minimal (0), wenn alle Beispiele zu einer Klasse gehören (reiner Knoten).
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen
Awesome!
Completion rate improved to 4.17
Aufteilen der Knoten
Swipe um das Menü anzuzeigen
Während des Trainings muss die beste Aufteilung an jedem Entscheidungsnoten gefunden werden. Beim Aufteilen der Daten in zwei Knoten wird angestrebt, dass unterschiedliche Klassen in getrennten Knoten liegen.
- Bestes Szenario: Alle Datenpunkte in einem Knoten gehören zur gleichen Klasse;
- Schlechtestes Szenario: Eine gleiche Anzahl von Datenpunkten für jede Klasse.
Gini-Impurität
Zur Bewertung der Qualität einer Aufteilung kann die Gini-Impurität berechnet werden. Sie beschreibt die Wahrscheinlichkeit, dass bei zufälliger Auswahl von zwei Punkten aus einem Knoten (mit Zurücklegen) diese verschiedenen Klassen angehören. Je niedriger diese Wahrscheinlichkeit (Impurität), desto besser die Aufteilung.
Die Gini-Unreinheit für die binäre Klassifikation lässt sich mit folgender Formel berechnen:
gini=1−p02−p12=1−(mm0)2−(mm1)2Dabei gilt:
- mi – Anzahl der Instanzen der Klasse i in einem Knoten;
- m – Anzahl der Instanzen in einem Knoten;
- pi=mmi – Wahrscheinlichkeit, die Klasse i auszuwählen.
Für die Multiklassen-Klassifikation lautet die Formel:
gini=1−i=0∑Cpi2=1−i=0∑C(mmi)2Dabei gilt:
- C – Anzahl der Klassen.
Die Qualität der Aufteilung kann durch die gewichtete Summe der Gini-Werte für beide durch die Aufteilung entstandenen Knoten gemessen werden. Dieser Wert soll minimiert werden.
Um einen Entscheidungs-Knoten zu teilen, müssen ein Merkmal für die Aufteilung und der Schwellenwert gefunden werden:
An einem Entscheidungs-Knoten findet der Algorithmus gierig den besten Schwellenwert für jedes Merkmal. Anschließend wählt er die Aufteilung mit der geringsten Gini-Unreinheit unter allen Merkmalen (bei Gleichstand erfolgt die Auswahl zufällig).
Entropie
Die Entropie ist ein weiteres Maß für die Unreinheit. Für ein binäres Klassifikationsproblem wird die Entropie H eines Knotens mit folgender Formel berechnet:
H(p)=−plog2(p)−(1−p)log2(1−p)wobei:
- p der Anteil der positiven Beispiele (Klasse 1) ist;
- 1−p der Anteil der negativen Beispiele (Klasse 0) ist.
Für ein multiklassiges Klassifikationsproblem wird die Entropie H eines Knotens mit folgender Formel berechnet:
H(p1,p2,…,pk)=−i=1∑kpilog2(pi)wobei:
- k die Anzahl der Klassen ist;
- pi der Anteil der Beispiele ist, die zur Klasse i im Knoten gehören.
Ähnlich wie bei der Gini-Unreinheit kann die Qualität einer Aufteilung gemessen werden, indem die gewichtete Summe der Entropiewerte für die durch die Aufteilung entstandenen Kindknoten berechnet wird. Dieser Wert soll minimiert werden, um den Informationsgewinn zu maximieren.
Die Entropie ist maximal, wenn alle Klassen gleichmäßig vertreten sind. Sie ist minimal (0), wenn alle Beispiele zu einer Klasse gehören (reiner Knoten).
Danke für Ihr Feedback!