Fantastisk!
Completion rate forbedret til 4.17single
Multiklassifikation
Stryg for at vise menuen
Multiklassifikation med k-NN er lige så let som binær klassifikation. Vi vælger blot den klasse, der dominerer i nabolaget.
KNeighborsClassifier udfører automatisk multiklassifikation, hvis y har mere end to funktioner, så du behøver ikke ændre noget. Det eneste, der ændres, er y-variablen, der gives til .fit()-metoden.
Nu skal du udføre en multiklassifikation med k-NN. Overvej følgende datasæt:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Det er det samme som i eksemplet fra det forrige kapitel, men nu kan målet antage tre værdier:
- 0: "Havde det" (bedømmelse er mindre end 3/5);
- 1: "Meh" (bedømmelse mellem 3/5 og 4/5);
- 2: "Kunne lide det" (bedømmelse er 4/5 eller højere).
Swipe to start coding
Du har fået stillet Star Wars-bedømmelsesdatasættet, som er gemt som en DataFrame i variablen df.
- Initialiser en passende scaler og gem den i variablen
scaler. - Beregn skaleringsparametrene på træningsdataene, skaler dem, og gem resultatet i variablen
X_train. - Skaler testdataene og gem resultatet i variablen
X_test. - Opret en instans af k-NN med
13naboer, træn den på træningssættet, og gem den i variablenknn. - Lav forudsigelser på testdatasættet og gem dem i variablen
y_pred.
Løsning
Tak for dine kommentarer!
single
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat