Multi-Klasse Classificatie
Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. We kiezen gewoon de klasse die overheerst in de buurt.
De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken heeft, dus je hoeft niets te veranderen. Het enige dat verandert is de y-variabele die aan de .fit()-methode wordt doorgegeven.
Nu ga je een multi-class classificatie met k-NN uitvoeren. Bekijk de volgende dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:
- 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
- 1: "Matig" (beoordeling tussen 3/5 en 4/5);
- 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Swipe to start coding
Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.
- Initialiseer een geschikte scaler en sla deze op in de variabele
scaler. - Bereken de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele
X_train. - Schaal de testdata en sla het resultaat op in de variabele
X_test. - Maak een instantie van k-NN met
13buren, train deze op de trainingsset en sla deze op in de variabeleknn. - Voer voorspellingen uit op de testset en sla deze op in de variabele
y_pred.
Oplossing
Bedankt voor je feedback!
single
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Geweldig!
Completion tarief verbeterd naar 4.17
Multi-Klasse Classificatie
Veeg om het menu te tonen
Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. We kiezen gewoon de klasse die overheerst in de buurt.
De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken heeft, dus je hoeft niets te veranderen. Het enige dat verandert is de y-variabele die aan de .fit()-methode wordt doorgegeven.
Nu ga je een multi-class classificatie met k-NN uitvoeren. Bekijk de volgende dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:
- 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
- 1: "Matig" (beoordeling tussen 3/5 en 4/5);
- 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Swipe to start coding
Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.
- Initialiseer een geschikte scaler en sla deze op in de variabele
scaler. - Bereken de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele
X_train. - Schaal de testdata en sla het resultaat op in de variabele
X_test. - Maak een instantie van k-NN met
13buren, train deze op de trainingsset en sla deze op in de variabeleknn. - Voer voorspellingen uit op de testset en sla deze op in de variabele
y_pred.
Oplossing
Bedankt voor je feedback!
single