Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Entscheidungsgrenze | Logistische Regression
Klassifikation mit Python
course content

Kursinhalt

Klassifikation mit Python

Klassifikation mit Python

1. K-NN Klassifikator
2. Logistische Regression
3. Entscheidungsbaum
4. Random Forest
5. Modelle Vergleichen

book
Entscheidungsgrenze

Lassen Sie uns die Ergebnisse der logistischen Regression darstellen. Betrachten Sie das folgende Beispiel mit zwei Merkmalen:

Sobald wir eine logistische Regression erstellt haben, können wir eine Entscheidungsgrenze zeichnen. Sie zeigt die Region jeder Klasse, in der neue Instanzen als diese Klasse vorhergesagt werden. Zum Beispiel ist hier die Entscheidungsgrenze der logistischen Regression, die auf die obigen Daten angewendet wurde.

Wir können sehen, dass die Linie hier zwei Klassen perfekt trennt. Wenn das passiert, wird der Datensatz als linear trennbar bezeichnet. Das ist jedoch nicht immer der Fall. Was wäre, wenn der Datensatz so aussehen würde:

Oben ist eine Entscheidungsgrenze für ein etwas anderes Dataset. Hier sind die Daten nicht linear trennbar; daher sind die Vorhersagen, die durch die logistische Regression gemacht werden, unvollkommen.
Leider kann die logistische Regression standardmäßig keine komplexeren Entscheidungsgrenzen vorhersagen, daher ist dies die beste Vorhersage, die wir erhalten können.
Aber denken Sie daran, dass die logistische Regression von der linearen Regression abgeleitet ist, die eine Lösung für das Problem hat, dass das Modell zu einfach ist. Diese Lösung ist eine polynomiale Regression, und wir können ihre Gleichung zur Berechnung von z verwenden, um eine komplexere Form der Entscheidungsgrenze zu erhalten!

Genau wie bei der Polynomialen Regression müssen wir nur einen PolynomialFeatures-Transformer auf unser X anwenden. Hier ist die Syntax:

Es verwendet die Gleichung einer Polynomregression zweiten Grades. Sie können noch komplexere Entscheidungsgrenzen erhalten, indem Sie den Grad erhöhen, aber wie im nächsten Kapitel gezeigt, kann das Modell unter Überanpassung leiden.

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4
We're sorry to hear that something went wrong. What happened?
some-alt