Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hva er k-NN | K-NN-Klassifikator
Klassifisering med Python

bookHva er k-NN

La oss starte vårt klassifiseringseventyr med den enkleste oppgaven – binær klassifisering. Anta at vi ønsker å klassifisere søtsaker som kjeks/ikke kjeks basert på én egenskap: vekten deres.

En enkel måte å forutsi klassen til en ny forekomst på, er å se på dens nærmeste nabo. I vårt eksempel må vi finne en søtsak som veier mest likt den nye forekomsten.

Dette er ideen bak k-Nearest Neighbors (k-NN) – vi ser bare på naboene. k-NN-algoritmen antar at lignende ting finnes i nærhet. Med andre ord, lignende ting er nær hverandre. k i k-NN står for antall naboer vi vurderer når vi gjør en prediksjon.

I eksemplet ovenfor vurderte vi kun 1 nabo, så det var 1-Nærmeste Nabo. Men vanligvis settes k til et høyere tall, siden det å kun se på én nabo kan være upålitelig:

Hvis k (antall naboer) er større enn én, velges den mest vanlige klassen i nabolaget som prediksjon. Her er et eksempel på å predikere to nye instanser med k=3:

Som du kan se, kan endring av k føre til ulike prediksjoner.

Note
Merk

Av og til oppstår det en uavgjort i k-NN når flere klasser forekommer like ofte blant de nærmeste naboene. De fleste biblioteker, inkludert scikit-learn, løser uavgjort ved å velge den første klassen i sin interne rekkefølge – noe som er viktig å være oppmerksom på, siden det kan påvirke reproduserbarhet og tolkning på en subtil måte.

question mark

I k-Nearest Neighbors-algoritmen, hvordan predikeres klassen til en ny forekomst når k > 1?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 2

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Suggested prompts:

Can you explain how to choose the best value for k in k-NN?

What are the advantages and disadvantages of using k-NN for classification?

Can you give a real-world example where k-NN would be useful?

Awesome!

Completion rate improved to 4.17

bookHva er k-NN

Sveip for å vise menyen

La oss starte vårt klassifiseringseventyr med den enkleste oppgaven – binær klassifisering. Anta at vi ønsker å klassifisere søtsaker som kjeks/ikke kjeks basert på én egenskap: vekten deres.

En enkel måte å forutsi klassen til en ny forekomst på, er å se på dens nærmeste nabo. I vårt eksempel må vi finne en søtsak som veier mest likt den nye forekomsten.

Dette er ideen bak k-Nearest Neighbors (k-NN) – vi ser bare på naboene. k-NN-algoritmen antar at lignende ting finnes i nærhet. Med andre ord, lignende ting er nær hverandre. k i k-NN står for antall naboer vi vurderer når vi gjør en prediksjon.

I eksemplet ovenfor vurderte vi kun 1 nabo, så det var 1-Nærmeste Nabo. Men vanligvis settes k til et høyere tall, siden det å kun se på én nabo kan være upålitelig:

Hvis k (antall naboer) er større enn én, velges den mest vanlige klassen i nabolaget som prediksjon. Her er et eksempel på å predikere to nye instanser med k=3:

Som du kan se, kan endring av k føre til ulike prediksjoner.

Note
Merk

Av og til oppstår det en uavgjort i k-NN når flere klasser forekommer like ofte blant de nærmeste naboene. De fleste biblioteker, inkludert scikit-learn, løser uavgjort ved å velge den første klassen i sin interne rekkefølge – noe som er viktig å være oppmerksom på, siden det kan påvirke reproduserbarhet og tolkning på en subtil måte.

question mark

I k-Nearest Neighbors-algoritmen, hvordan predikeres klassen til en ny forekomst når k > 1?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 2
some-alt