Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Multiklassifikation | K-NN-Klassifikator
Klassifikation med Python

bookMultiklassifikation

Multiklassifikation med k-NN er lige så let som binær klassifikation. Vi vælger blot den klasse, der dominerer i nabolaget.

KNeighborsClassifier udfører automatisk multiklassifikation, hvis y har mere end to funktioner, så du behøver ikke ændre noget. Det eneste, der ændres, er y-variablen, der gives til .fit()-metoden.

Nu skal du udføre en multiklassifikation med k-NN. Overvej følgende datasæt:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Det er det samme som i eksemplet fra det forrige kapitel, men nu kan målet antage tre værdier:

  • 0: "Havde det" (bedømmelse er mindre end 3/5);
  • 1: "Meh" (bedømmelse mellem 3/5 og 4/5);
  • 2: "Kunne lide det" (bedømmelse er 4/5 eller højere).
Opgave

Swipe to start coding

Du har fået stillet Star Wars-bedømmelsesdatasættet, som er gemt som en DataFrame i variablen df.

  • Initialiser en passende scaler og gem den i variablen scaler.
  • Beregn skaleringsparametrene på træningsdataene, skaler dem, og gem resultatet i variablen X_train.
  • Skaler testdataene og gem resultatet i variablen X_test.
  • Opret en instans af k-NN med 13 naboer, træn den på træningssættet, og gem den i variablen knn.
  • Lav forudsigelser på testdatasættet og gem dem i variablen y_pred.

Løsning

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 5
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

close

Awesome!

Completion rate improved to 4.17

bookMultiklassifikation

Stryg for at vise menuen

Multiklassifikation med k-NN er lige så let som binær klassifikation. Vi vælger blot den klasse, der dominerer i nabolaget.

KNeighborsClassifier udfører automatisk multiklassifikation, hvis y har mere end to funktioner, så du behøver ikke ændre noget. Det eneste, der ændres, er y-variablen, der gives til .fit()-metoden.

Nu skal du udføre en multiklassifikation med k-NN. Overvej følgende datasæt:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Det er det samme som i eksemplet fra det forrige kapitel, men nu kan målet antage tre værdier:

  • 0: "Havde det" (bedømmelse er mindre end 3/5);
  • 1: "Meh" (bedømmelse mellem 3/5 og 4/5);
  • 2: "Kunne lide det" (bedømmelse er 4/5 eller højere).
Opgave

Swipe to start coding

Du har fået stillet Star Wars-bedømmelsesdatasættet, som er gemt som en DataFrame i variablen df.

  • Initialiser en passende scaler og gem den i variablen scaler.
  • Beregn skaleringsparametrene på træningsdataene, skaler dem, og gem resultatet i variablen X_train.
  • Skaler testdataene og gem resultatet i variablen X_test.
  • Opret en instans af k-NN med 13 naboer, træn den på træningssættet, og gem den i variablen knn.
  • Lav forudsigelser på testdatasættet og gem dem i variablen y_pred.

Løsning

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 5
single

single

some-alt