Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Zusammenfassung des Random Forest | Random Forest
Klassifikation mit Python
course content

Kursinhalt

Klassifikation mit Python

Klassifikation mit Python

1. K-NN Klassifikator
2. Logistische Regression
3. Entscheidungsbaum
4. Random Forest
5. Modelle Vergleichen

book
Zusammenfassung des Random Forest

Schauen wir uns die Besonderheiten des Random Forest an:

  1. Keine Datenvorbereitung erforderlich.
    Da Random Forest eine Ansammlung von Entscheidungsbäumen ist, ist die Vorverarbeitung, die für Random Forest benötigt wird, dieselbe wie für Entscheidungsbäume, was sehr wenig ist;
  2. Bietet Feature-Wichtigkeiten.
    Genau wie der Entscheidungsbaum bietet auch Random Forest Feature-Wichtigkeiten, auf die Sie mit dem Attribut .feature_importances_ zugreifen können;
  3. Random Forest ist relativ langsam.
    Da Random Forest während des Trainings viele Entscheidungsbäume (standardmäßig 100) trainiert, kann es bei großen Datensätzen ziemlich langsam werden. Und um eine Vorhersage zu treffen, muss eine neue Instanz auch durch alle Bäume laufen, sodass Vorhersagen auch langsam werden können, wenn viele Bäume verwendet werden;
  4. Bewältigt Datensätze mit vielen Merkmalen gut.
    Dank der Merkmalssampling leidet die Trainingszeit von Random Forest nicht stark unter einer großen Anzahl von Merkmalen. Außerdem kann das Modell nutzlose Merkmale leicht ignorieren, da an jedem Entscheidungsnode ein besseres Merkmal ausgewählt wird. So verschlechtern nutzlose Merkmale das Modell nicht, es sei denn, es gibt zu viele davon;
  5. Geeignet für komplexe Aufgaben.
    Ein Entscheidungsbaum kann komplexe Entscheidungsgrenzen erstellen, aber sie sind nicht glatt und neigen sehr dazu, zu überanpassen. Im Gegensatz dazu produziert Random Forest glattere Entscheidungsgrenzen, die besser generalisieren, sodass Random Forest viel weniger wahrscheinlich überanpasst. Und im Gegensatz zu einem einzelnen Entscheidungsbaum ist Random Forest stabil, was bedeutet, dass es sich nicht drastisch mit geringfügigen Änderungen am Datensatz oder an den Hyperparametern ändert.

Und hier ist eine kleine Zusammenfassung:

VorteileNachteile
Kein ÜberanpassenLangsam
Bewältigt Datensätze mit vielen Merkmalen gutNicht interpretierbar
Stabil
Keine Merkmalsskalierung erforderlich
Bietet Feature-Wichtigkeiten
Normalerweise robust gegenüber Ausreißern
Geeignet für komplexe Aufgaben

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 4. Kapitel 4
We're sorry to hear that something went wrong. What happened?
some-alt