Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Entscheidungsbaum-Zusammenfassung | Entscheidungsbaum
Klassifikation mit Python
course content

Kursinhalt

Klassifikation mit Python

Klassifikation mit Python

1. K-NN Klassifikator
2. Logistische Regression
3. Entscheidungsbaum
4. Random Forest
5. Modelle Vergleichen

book
Entscheidungsbaum-Zusammenfassung

Schauen wir uns nun einige Besonderheiten des Entscheidungsbaums an.

  1. Interpretierbarkeit.
    Im Gegensatz zu den meisten Machine-Learning-Algorithmen sind Entscheidungsbäume leicht zu visualisieren und zu interpretieren;
  2. Keine Datenvorbereitung erforderlich.
    Der Entscheidungsbaum erfordert keine bis sehr wenig Datenvorbereitung. Es ist keine Skalierung/Normalisierung erforderlich. Er kann auch fehlende Werte verarbeiten und leidet nicht stark unter Ausreißern;
  3. Bietet Feature-Wichtigkeiten.
    Während des Trainings berechnet ein Entscheidungsbaum die Feature-Wichtigkeiten, die darstellen, wie einflussreich jedes Feature war, um den Baum zu bilden. Sie können die Feature-Wichtigkeiten mit dem Attribut .feature_importances_ abrufen;
  4. Rechenkomplexität.
    Angenommen, m ist die Anzahl der Merkmale und n ist die Anzahl der Trainingsinstanzen. Die Komplexität des Trainings eines Entscheidungsbaums ist O(n·m·log(m)), daher ist das Training ziemlich schnell, es sei denn, es gibt eine große Anzahl von Merkmalen. Auch die Komplexität der Vorhersage ist O(log(n)), daher sind die Vorhersagen schnell;
  5. Nicht geeignet für große Datensätze.
    Obwohl Entscheidungsbäume für kleine Datensätze gut funktionieren können, funktionieren sie normalerweise nicht gut für große Datensätze. Für große Datensätze ist die Verwendung von Random Forest vorzuziehen;
  6. Entscheidungsbäume sind instabil.
    Kleine Änderungen in den Hyperparametern oder den Daten können zu einem sehr unterschiedlichen Baum führen. Obwohl dies ein Nachteil für einen einzelnen Baum ist, wird es uns in einem Random Forest zugutekommen, wie Sie im nächsten Abschnitt sehen werden.

Und hier ist eine kleine Zusammenfassung:

VorteileNachteile
InterpretierbarÜberanpassung
Schnelles TrainingInstabil
Schnelle VorhersagenNicht geeignet für große Datensätze
Keine Merkmalsskalierung erforderlich
Bietet Merkmalswichtigkeiten
Normalerweise robust gegenüber Ausreißern

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 5
We're sorry to hear that something went wrong. What happened?
some-alt