single
Multiklassklassificering
Svep för att visa menyn
Flervalsklassificering med k-NN är lika enkel som binär klassificering. Vi väljer helt enkelt den klass som dominerar i grannskapet.
KNeighborsClassifier utför automatiskt en flervalsklassificering om y har fler än två egenskaper, så du behöver inte ändra något. Det enda som ändras är y-variabeln som matas in i .fit()-metoden.
Nu kommer du att utföra en flervalsklassificering med k-NN. Betrakta följande dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Det är samma som i föregående kapitels exempel, men nu kan målet anta tre värden:
- 0: "Hata den" (betyg är mindre än 3/5);
- 1: "Meh" (betyg mellan 3/5 och 4/5);
- 2: "Gillade den" (betyg är 4/5 eller högre).
Swipe to start coding
Du har fått Star Wars-betygsdatasetet lagrat som en DataFrame i variabeln df.
- Initiera en lämplig skalare och lagra den i variabeln
scaler. - Beräkna skalningsparametrarna på träningsdatan, skala den och lagra resultatet i variabeln
X_train. - Skala testdatan och lagra resultatet i variabeln
X_test. - Skapa en instans av k-NN med
13grannar, träna den på träningsdatan och lagra den i variabelnknn. - Gör prediktioner på testdatan och lagra dem i variabeln
y_pred.
Lösning
Tack för dina kommentarer!
single
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal