Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Multi-Klasse Classificatie | K-NN-Classificator
Classificatie met Python

bookMulti-Klasse Classificatie

Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. We kiezen gewoon de klasse die overheerst in de buurt.

De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken heeft, dus je hoeft niets te veranderen. Het enige dat verandert is de y-variabele die aan de .fit()-methode wordt doorgegeven.

Nu ga je een multi-class classificatie met k-NN uitvoeren. Bekijk de volgende dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:

  • 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
  • 1: "Matig" (beoordeling tussen 3/5 en 4/5);
  • 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Taak

Swipe to start coding

Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.

  • Initialiseer een geschikte scaler en sla deze op in de variabele scaler.
  • Bereken de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele X_train.
  • Schaal de testdata en sla het resultaat op in de variabele X_test.
  • Maak een instantie van k-NN met 13 buren, train deze op de trainingsset en sla deze op in de variabele knn.
  • Voer voorspellingen uit op de testset en sla deze op in de variabele y_pred.

Oplossing

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 5
single

single

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Suggested prompts:

Can you explain how to use KNeighborsClassifier for this dataset?

What do the features in the dataset represent?

How do I interpret the output of the classifier?

close

Awesome!

Completion rate improved to 4.17

bookMulti-Klasse Classificatie

Veeg om het menu te tonen

Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. We kiezen gewoon de klasse die overheerst in de buurt.

De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken heeft, dus je hoeft niets te veranderen. Het enige dat verandert is de y-variabele die aan de .fit()-methode wordt doorgegeven.

Nu ga je een multi-class classificatie met k-NN uitvoeren. Bekijk de volgende dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:

  • 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
  • 1: "Matig" (beoordeling tussen 3/5 en 4/5);
  • 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Taak

Swipe to start coding

Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.

  • Initialiseer een geschikte scaler en sla deze op in de variabele scaler.
  • Bereken de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele X_train.
  • Schaal de testdata en sla het resultaat op in de variabele X_test.
  • Maak een instantie van k-NN met 13 buren, train deze op de trainingsset en sla deze op in de variabele knn.
  • Voer voorspellingen uit op de testset en sla deze op in de variabele y_pred.

Oplossing

Switch to desktopSchakel over naar desktop voor praktijkervaringGa verder vanaf waar je bent met een van de onderstaande opties
Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 5
single

single

some-alt