Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Multiklassklassificering | Sektion
Grunder i Övervakad Inlärning

bookMultiklassklassificering

Flervalsklassificering med k-NN är lika enkel som binär klassificering. Vi väljer helt enkelt den klass som dominerar i grannskapet.

KNeighborsClassifier utför automatiskt en flervalsklassificering om y har fler än två egenskaper, så du behöver inte ändra något. Det enda som ändras är y-variabeln som matas in i .fit()-metoden.

Nu kommer du att utföra en flervalsklassificering med k-NN. Betrakta följande dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Det är samma som i föregående kapitels exempel, men nu kan målet anta tre värden:

  • 0: "Hata den" (betyg är mindre än 3/5);
  • 1: "Meh" (betyg mellan 3/5 och 4/5);
  • 2: "Gillade den" (betyg är 4/5 eller högre).
Uppgift

Swipe to start coding

Du har fått Star Wars-betygsdatasetet lagrat som en DataFrame i variabeln df.

  • Initiera en lämplig skalare och lagra den i variabeln scaler.
  • Beräkna skalningsparametrarna på träningsdatan, skala den och lagra resultatet i variabeln X_train.
  • Skala testdatan och lagra resultatet i variabeln X_test.
  • Skapa en instans av k-NN med 13 grannar, träna den på träningsdatan och lagra den i variabeln knn.
  • Gör prediktioner på testdatan och lagra dem i variabeln y_pred.

Lösning

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 18
single

single

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

close

bookMultiklassklassificering

Svep för att visa menyn

Flervalsklassificering med k-NN är lika enkel som binär klassificering. Vi väljer helt enkelt den klass som dominerar i grannskapet.

KNeighborsClassifier utför automatiskt en flervalsklassificering om y har fler än två egenskaper, så du behöver inte ändra något. Det enda som ändras är y-variabeln som matas in i .fit()-metoden.

Nu kommer du att utföra en flervalsklassificering med k-NN. Betrakta följande dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Det är samma som i föregående kapitels exempel, men nu kan målet anta tre värden:

  • 0: "Hata den" (betyg är mindre än 3/5);
  • 1: "Meh" (betyg mellan 3/5 och 4/5);
  • 2: "Gillade den" (betyg är 4/5 eller högre).
Uppgift

Swipe to start coding

Du har fått Star Wars-betygsdatasetet lagrat som en DataFrame i variabeln df.

  • Initiera en lämplig skalare och lagra den i variabeln scaler.
  • Beräkna skalningsparametrarna på träningsdatan, skala den och lagra resultatet i variabeln X_train.
  • Skala testdatan och lagra resultatet i variabeln X_test.
  • Skapa en instans av k-NN med 13 grannar, träna den på träningsdatan och lagra den i variabeln knn.
  • Gör prediktioner på testdatan och lagra dem i variabeln y_pred.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 18
single

single

some-alt