Kursinhalt
Klassifikation mit Python
Klassifikation mit Python
Entscheidungsgrenze
Lassen Sie uns die Ergebnisse der logistischen Regression darstellen. Betrachten Sie das folgende Beispiel mit zwei Merkmalen:
Sobald wir eine logistische Regression erstellt haben, können wir eine Entscheidungsgrenze zeichnen. Sie zeigt die Region jeder Klasse, in der neue Instanzen als diese Klasse vorhergesagt werden. Zum Beispiel ist hier die Entscheidungsgrenze der logistischen Regression, die auf die obigen Daten angewendet wurde.
Wir können sehen, dass die Linie hier zwei Klassen perfekt trennt. Wenn das passiert, wird der Datensatz als linear trennbar bezeichnet. Das ist jedoch nicht immer der Fall. Was wäre, wenn der Datensatz so aussehen würde:
Oben ist eine Entscheidungsgrenze für ein etwas anderes Dataset. Hier sind die Daten nicht linear trennbar; daher sind die Vorhersagen, die durch die logistische Regression gemacht werden, unvollkommen.
Leider kann die logistische Regression standardmäßig keine komplexeren Entscheidungsgrenzen vorhersagen, daher ist dies die beste Vorhersage, die wir erhalten können.
Aber denken Sie daran, dass die logistische Regression von der linearen Regression abgeleitet ist, die eine Lösung für das Problem hat, dass das Modell zu einfach ist. Diese Lösung ist eine polynomiale Regression, und wir können ihre Gleichung zur Berechnung von z verwenden, um eine komplexere Form der Entscheidungsgrenze zu erhalten!
Genau wie bei der Polynomialen Regression müssen wir nur einen PolynomialFeatures
-Transformer auf unser X
anwenden. Hier ist die Syntax:
Es verwendet die Gleichung einer Polynomregression zweiten Grades. Sie können noch komplexere Entscheidungsgrenzen erhalten, indem Sie den Grad erhöhen, aber wie im nächsten Kapitel gezeigt, kann das Modell unter Überanpassung leiden.
Danke für Ihr Feedback!