Multi-Klasse Classificatie
Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. We kiezen gewoon de klasse die overheerst in de buurt.
De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken heeft, dus je hoeft niets te veranderen. Het enige dat verandert is de y-variabele die aan de .fit()-methode wordt doorgegeven.
Nu ga je een multi-class classificatie met k-NN uitvoeren. Bekijk de volgende dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:
- 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
- 1: "Matig" (beoordeling tussen 3/5 en 4/5);
- 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Swipe to start coding
Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.
- Initialiseer een geschikte scaler en sla deze op in de variabele
scaler. - Bereken de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele
X_train. - Schaal de testdata en sla het resultaat op in de variabele
X_test. - Maak een instantie van k-NN met
13buren, train deze op de trainingsset en sla deze op in de variabeleknn. - Voer voorspellingen uit op de testset en sla deze op in de variabele
y_pred.
Oplossing
Bedankt voor je feedback!
single
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Can you explain how to use KNeighborsClassifier for this dataset?
What do the features in the dataset represent?
How do I interpret the output of the classifier?
Awesome!
Completion rate improved to 4.17
Multi-Klasse Classificatie
Veeg om het menu te tonen
Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. We kiezen gewoon de klasse die overheerst in de buurt.
De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken heeft, dus je hoeft niets te veranderen. Het enige dat verandert is de y-variabele die aan de .fit()-methode wordt doorgegeven.
Nu ga je een multi-class classificatie met k-NN uitvoeren. Bekijk de volgende dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:
- 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
- 1: "Matig" (beoordeling tussen 3/5 en 4/5);
- 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Swipe to start coding
Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.
- Initialiseer een geschikte scaler en sla deze op in de variabele
scaler. - Bereken de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele
X_train. - Schaal de testdata en sla het resultaat op in de variabele
X_test. - Maak een instantie van k-NN met
13buren, train deze op de trainingsset en sla deze op in de variabeleknn. - Voer voorspellingen uit op de testset en sla deze op in de variabele
y_pred.
Oplossing
Bedankt voor je feedback!
single