Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Multi-Class Classificatie | Sectie
Essentiële Supervised Learning

bookMulti-Class Classificatie

Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. Kies simpelweg de klasse die het meest voorkomt in de buurt.

De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken bevat, dus u hoeft niets aan te passen. Het enige dat verandert, is de y-variabele die aan de .fit()-methode wordt doorgegeven.

Nu voert u een multi-class classificatie met k-NN uit. Bekijk de volgende dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:

  • 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
  • 1: "Ging wel" (beoordeling tussen 3/5 en 4/5);
  • 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Taak

Swipe to start coding

Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.

  • Initialiseer een geschikte scaler en sla deze op in de variabele scaler.
  • Bepaal de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele X_train.
  • Schaal de testdata en sla het resultaat op in de variabele X_test.
  • Maak een instantie van k-NN met 13 buren, train deze op de trainingsset en sla deze op in de variabele knn.
  • Voer voorspellingen uit op de testset en sla deze op in de variabele y_pred.

Oplossing

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 18
single

single

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

close

bookMulti-Class Classificatie

Veeg om het menu te tonen

Multi-class classificatie met k-NN is net zo eenvoudig als binaire classificatie. Kies simpelweg de klasse die het meest voorkomt in de buurt.

De KNeighborsClassifier voert automatisch een multi-class classificatie uit als y meer dan twee kenmerken bevat, dus u hoeft niets aan te passen. Het enige dat verandert, is de y-variabele die aan de .fit()-methode wordt doorgegeven.

Nu voert u een multi-class classificatie met k-NN uit. Bekijk de volgende dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Het is hetzelfde als in het voorbeeld van het vorige hoofdstuk, maar nu kan de target drie waarden aannemen:

  • 0: "Vond het verschrikkelijk" (beoordeling is minder dan 3/5);
  • 1: "Ging wel" (beoordeling tussen 3/5 en 4/5);
  • 2: "Vond het leuk" (beoordeling is 4/5 of hoger).
Taak

Swipe to start coding

Je krijgt de Star Wars-beoordelingsdataset, opgeslagen als een DataFrame in de variabele df.

  • Initialiseer een geschikte scaler en sla deze op in de variabele scaler.
  • Bepaal de schaalparameters op de trainingsdata, schaal deze en sla het resultaat op in de variabele X_train.
  • Schaal de testdata en sla het resultaat op in de variabele X_test.
  • Maak een instantie van k-NN met 13 buren, train deze op de trainingsset en sla deze op in de variabele knn.
  • Voer voorspellingen uit op de testset en sla deze op in de variabele y_pred.

Oplossing

Switch to desktopSchakel over naar desktop voor praktijkervaringGa verder vanaf waar je bent met een van de onderstaande opties
Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 18
single

single

some-alt