Kursinhalt
Klassifikation mit Python
Klassifikation mit Python
5. Modelle Vergleichen
Zusammenfassung der Logistischen Regression
Werfen wir einen genaueren Blick auf die Vor- und Nachteile der logistischen Regression.
- Die logistische Regression verwendet einen iterativen Prozess namens Gradient Descent, um die Parameter zu finden.
Da das Training ein iterativer Prozess ist, können Sie jederzeit problemlos neue Trainingsdaten hinzufügen. Selbst wenn es bereits trainiert ist, können Sie zusätzliche Trainingsdaten bereitstellen und einige weitere Iterationen durchführen, um das Modell zu verbessern; - Die logistische Regression ist schnell.
Im Vergleich zu anderen Algorithmen ist die Trainingszeit ziemlich kurz.
Auch die Vorhersagen sind sehr schnell, im Gegensatz zum k-NN-Klassifikator.
Außerdem ist die Rechenkomplexität linear in Bezug auf die Größe des Datensatzes. Das bedeutet, dass die logistische Regression schnell mit Datensätzen trainiert werden kann, die viele Instanzen enthalten; - Die logistische Regression skaliert schlecht mit der Anzahl der Merkmale.
Das Modell leidet unter einem Fluch der Dimensionalität. Damit es mit einer respektablen Anzahl von Merkmalen gut funktioniert, benötigen Sie viele Instanzen.
Außerdem erstellt diePolynomialFeatures
-Klasse viele Merkmale, was die Situation noch verschlimmert; - Die logistische Regression sagt Wahrscheinlichkeiten voraus. Einer der Schritte, die die logistische Regression unternimmt, ist die Vorhersage der Wahrscheinlichkeiten. Dies kann in vielen Aufgaben hilfreich sein, wenn wir wissen müssen, wie sicher das Modell in seinen Vorhersagen ist.
Zusammenfassend finden Sie hier eine Tabelle mit den Vor- und Nachteilen der logistischen Regression.
Vorteile | Nachteile |
---|---|
Schnelles Training | Mit Regularisierung erfordert Merkmals-Skalierung |
Skaliert gut mit einer großen Anzahl von Trainingsinstanzen | Lineare Entscheidungsgrenze ohne PolynomialFeatures |
Einfach, neue Trainingsdaten hinzuzufügen | Funktioniert nicht gut mit einer großen Anzahl von Merkmalen |
Schnelle Vorhersagen | Anfällig für Overfitting, insbesondere mit PolynomialFeatures |
Sagt Wahrscheinlichkeiten voraus |
Alles in allem ist die logistische Regression ein guter Algorithmus für einfache Aufgaben mit wenigen Merkmalen. Aber sie verarbeitet Daten mit vielen Merkmalen schlecht.
War alles klar?
Danke für Ihr Feedback!
Abschnitt 2. Kapitel 7