Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Boosting-Modelle | Grundprinzipien des Aufbaus von Ensemble-Modellen
Ensemble-Lernen
course content

Kursinhalt

Ensemble-Lernen

Ensemble-Lernen

1. Grundprinzipien des Aufbaus von Ensemble-Modellen
2. Häufig Verwendete Bagging-Modelle
3. Häufig Verwendete Boosting-Modelle
4. Häufig Verwendete Stacking-Modelle

book
Boosting-Modelle

Boosting-Modelle sind Ensemble-Lerntechniken, die mehrere schwache Lerner (in der Regel einfache Modelle) kombinieren, um einen starken Lerner mit verbesserter Vorhersageleistung zu schaffen. Im Gegensatz zum Bagging, bei dem Basismodelle unabhängig voneinander trainiert und ihre Vorhersagen durch Abstimmung kombiniert werden, baut Boosting Basismodelle sequenziell auf, wobei sich jedes nachfolgende Modell darauf konzentriert, die Fehler der vorherigen zu korrigieren.

Wie funktionieren Boosting-Modelle?

Die allgemeine Idee, wie Boosting funktioniert, ist wie folgt:

  1. Gewichtete Daten: Zunächst wird jedem Datenpunkt im Trainingssatz ein gleiches Gewicht zugewiesen. Das erste Basismodell wird auf diesen gewichteten Trainingsdaten trainiert.
  2. Sequenzielles Lernen: Nachdem das erste Modell trainiert wurde, macht es Vorhersagen über die Trainingsdaten. Die Gewichte der falsch klassifizierten Datenpunkte werden erhöht, um ihnen in dem nachfolgenden Modell eine höhere Bedeutung zu geben.
  3. Iterativer Prozess: Das nächste Modell wird dann auf den aktualisierten, neu gewichteten Trainingsdaten trainiert. Dieser Prozess wird für eine vordefinierte Anzahl von Iterationen wiederholt (oder bis ein Abbruchkriterium erreicht ist).
  4. Ensemble-Vorhersage: Die endgültige Vorhersage wird durch die Kombination der Vorhersagen aller Basismodelle getroffen.

Was sind die beliebtesten Boosting-Modelle?

Die beliebtesten Boosting-Modelle sind Adaptive Boosting (AdaBoost), Gradient Boosting Machines (GBM) und Extreme Gradient Boosting (XGBoost). Lassen Sie uns eine kurze Beschreibung jedes Modells geben:

  1. Adaptive Boosting (AdaBoost): AdaBoost funktioniert, indem es iterativ eine Reihe von schwachen Lernern (typischerweise Entscheidungsbäume) auf neu gewichteten Versionen der Trainingsdaten trainiert. In jeder Iteration weist der Algorithmus falsch klassifizierten Proben aus der vorherigen Iteration höhere Gewichte zu, um sich effektiv auf die schwerer vorherzusagenden Datenpunkte zu konzentrieren.
  2. Gradient Boosting Machines (GBM): GBM ist ein leistungsstarker Boosting-Algorithmus, der Basismodelle sequenziell aufbaut, wobei jedes versucht, die Fehler des vorherigen zu korrigieren. Die Schlüsselidee hinter GBM ist es, die Fehler (Residuen) der vorherigen Modelliterationen zu minimieren, indem neue schwache Lerner an diese Residuen angepasst werden.
  3. Extreme Gradient Boosting (XGBoost): XGBoost ist eine optimierte und hocheffiziente Implementierung des Gradient Boosting. Es verbessert den ursprünglichen GBM-Algorithmus durch die Einbeziehung von Regularisierungstechniken, die Handhabung fehlender Daten und die Nutzung von verteiltem Rechnen für schnelleres Training.

Boosting vs Bagging

Lassen Sie uns eine vergleichende Analyse der Boosting- und Bagging-Methoden durchführen:

AspektBoostingBagging
TechnikSequenzielles Ensemble-LernenParalleles Ensemble-Lernen
BasismodelleSequenziell aufgebaut, jedes korrigiert das vorherigeUnabhängig aufgebaut, jedes auf zufälligen Teilmengen von Daten trainiert
GewichtszuteilungHöhere Gewichte für falsch klassifizierte ProbenGleiche Gewichte für alle Basismodelle
HauptfokusKorrektur von Fehlern und schwer vorherzusagenden DatenpunktenReduzierung der Varianz der Vorhersage
Bias-Varianz-AbwägungTendenziell geringerer Bias, kann aber anfällig für Overfitting seinTendenziell geringere Varianz und weniger Overfitting
Paralleles TrainingNeinJa

Wir müssen uns daran erinnern, dass die Wahl zwischen Boosting und Bagging von dem spezifischen Problem, den Eigenschaften der Daten und dem Trade-off zwischen Bias und Varianz abhängt, der am besten zur Situation passt. Sowohl Boosting als auch Bagging sind leistungsstarke Techniken im Ensemble-Lernen, und ihre Effektivität kann durch Faktoren wie die verwendeten Basismodelle und die Abstimmung der Hyperparameter beeinflusst werden.

Welcher der folgenden ist ein beliebter Boosting-Algorithmus, der falsch klassifizierten Proben höhere Gewichte zuweist?

Welcher der folgenden ist ein beliebter Boosting-Algorithmus, der falsch klassifizierten Proben höhere Gewichte zuweist?

Wählen Sie die richtige Antwort aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 3
We're sorry to hear that something went wrong. What happened?
some-alt