Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Flerklassesklassifisering | Seksjon
Grunnleggende Overvåket Læring

bookFlerklassesklassifisering

Flernivåklassifisering med k-NN er like enkelt som binær klassifisering. Vi velger bare klassen som dominerer i nabolaget.

KNeighborsClassifier utfører automatisk flernivåklassifisering hvis y har mer enn to funksjoner, så du trenger ikke å endre noe. Det eneste som endres er y-variabelen som mates inn i .fit()-metoden.

Nå skal du utføre en flernivåklassifisering med k-NN. Se på følgende datasett:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Dette er det samme som i eksempelet fra forrige kapittel, men nå kan målet ha tre verdier:

  • 0: "Hatet det" (vurdering er mindre enn 3/5);
  • 1: "Meh" (vurdering mellom 3/5 og 4/5);
  • 2: "Likte det" (vurdering er 4/5 eller høyere).
Oppgave

Swipe to start coding

Du har fått Star Wars-vurderingsdatasettet lagret som en DataFrame i variabelen df.

  • Initialiser en passende skaleringsmetode og lagre den i variabelen scaler.
  • Beregn skaleringsparametrene på treningsdataene, skaler dem, og lagre resultatet i variabelen X_train.
  • Skaler testdataene og lagre resultatet i variabelen X_test.
  • Opprett en instans av k-NN med 13 naboer, tren den på treningssettet, og lagre den i variabelen knn.
  • Gjør prediksjoner på testsettet og lagre dem i variabelen y_pred.

Løsning

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 18
single

single

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

close

bookFlerklassesklassifisering

Sveip for å vise menyen

Flernivåklassifisering med k-NN er like enkelt som binær klassifisering. Vi velger bare klassen som dominerer i nabolaget.

KNeighborsClassifier utfører automatisk flernivåklassifisering hvis y har mer enn to funksjoner, så du trenger ikke å endre noe. Det eneste som endres er y-variabelen som mates inn i .fit()-metoden.

Nå skal du utføre en flernivåklassifisering med k-NN. Se på følgende datasett:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Dette er det samme som i eksempelet fra forrige kapittel, men nå kan målet ha tre verdier:

  • 0: "Hatet det" (vurdering er mindre enn 3/5);
  • 1: "Meh" (vurdering mellom 3/5 og 4/5);
  • 2: "Likte det" (vurdering er 4/5 eller høyere).
Oppgave

Swipe to start coding

Du har fått Star Wars-vurderingsdatasettet lagret som en DataFrame i variabelen df.

  • Initialiser en passende skaleringsmetode og lagre den i variabelen scaler.
  • Beregn skaleringsparametrene på treningsdataene, skaler dem, og lagre resultatet i variabelen X_train.
  • Skaler testdataene og lagre resultatet i variabelen X_test.
  • Opprett en instans av k-NN med 13 naboer, tren den på treningssettet, og lagre den i variabelen knn.
  • Gjør prediksjoner på testsettet og lagre dem i variabelen y_pred.

Løsning

Switch to desktopBytt til skrivebordet for virkelighetspraksisFortsett der du er med et av alternativene nedenfor
Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 18
single

single

some-alt