Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Zusammenfassung der Logistischen Regression | Logistische Regression
Klassifikation mit Python
course content

Kursinhalt

Klassifikation mit Python

Klassifikation mit Python

1. K-NN Klassifikator
2. Logistische Regression
3. Entscheidungsbaum
4. Random Forest
5. Modelle Vergleichen

book
Zusammenfassung der Logistischen Regression

Werfen wir einen genaueren Blick auf die Vor- und Nachteile der logistischen Regression.

  1. Die logistische Regression verwendet einen iterativen Prozess namens Gradient Descent, um die Parameter zu finden.
    Da das Training ein iterativer Prozess ist, können Sie jederzeit problemlos neue Trainingsdaten hinzufügen. Selbst wenn es bereits trainiert ist, können Sie zusätzliche Trainingsdaten bereitstellen und einige weitere Iterationen durchführen, um das Modell zu verbessern;
  2. Die logistische Regression ist schnell.
    Im Vergleich zu anderen Algorithmen ist die Trainingszeit ziemlich kurz.
    Auch die Vorhersagen sind sehr schnell, im Gegensatz zum k-NN-Klassifikator.
    Außerdem ist die Rechenkomplexität linear in Bezug auf die Größe des Datensatzes. Das bedeutet, dass die logistische Regression schnell mit Datensätzen trainiert werden kann, die viele Instanzen enthalten;
  3. Die logistische Regression skaliert schlecht mit der Anzahl der Merkmale.
    Das Modell leidet unter einem Fluch der Dimensionalität. Damit es mit einer respektablen Anzahl von Merkmalen gut funktioniert, benötigen Sie viele Instanzen.
    Außerdem erstellt die PolynomialFeatures-Klasse viele Merkmale, was die Situation noch verschlimmert;
  4. Die logistische Regression sagt Wahrscheinlichkeiten voraus. Einer der Schritte, die die logistische Regression unternimmt, ist die Vorhersage der Wahrscheinlichkeiten. Dies kann in vielen Aufgaben hilfreich sein, wenn wir wissen müssen, wie sicher das Modell in seinen Vorhersagen ist.

Zusammenfassend finden Sie hier eine Tabelle mit den Vor- und Nachteilen der logistischen Regression.

VorteileNachteile
Schnelles TrainingMit Regularisierung erfordert Merkmals-Skalierung
Skaliert gut mit einer großen Anzahl von TrainingsinstanzenLineare Entscheidungsgrenze ohne PolynomialFeatures
Einfach, neue Trainingsdaten hinzuzufügenFunktioniert nicht gut mit einer großen Anzahl von Merkmalen
Schnelle VorhersagenAnfällig für Overfitting, insbesondere mit PolynomialFeatures
Sagt Wahrscheinlichkeiten voraus

Alles in allem ist die logistische Regression ein guter Algorithmus für einfache Aufgaben mit wenigen Merkmalen. Aber sie verarbeitet Daten mit vielen Merkmalen schlecht.

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 7
We're sorry to hear that something went wrong. What happened?
some-alt