Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Hva er k-NN | Seksjon
Grunnleggende Overvåket Læring

bookHva er k-NN

Vi starter klassifiseringsreisen med den enkleste oppgaven – binær klassifisering. Anta at vi ønsker å klassifisere søtsaker som kjeks/ikke kjeks basert på én enkel egenskap: vekten deres.

En enkel metode for å forutsi klassen til en ny forekomst er å se på dens nærmeste nabo. I vårt eksempel må vi finne en søtsak som veier mest likt den nye forekomsten.

Dette er ideen bak k-Nearest Neighbors (k-NN) – vi ser bare på naboene. k-NN-algoritmen antar at lignende objekter finnes i nærhet til hverandre. Med andre ord, lignende ting er nær hverandre. k i k-NN står for antall naboer vi vurderer når vi gjør en prediksjon.

I eksempelet ovenfor vurderte vi kun 1 nabo, så det var 1-Nærmeste Nabo. Men vanligvis settes k til et høyere tall, siden det å kun se på én nabo kan være upålitelig:

Hvis k (antall naboer) er større enn én, velges den mest vanlige klassen i nabolaget som prediksjon. Her er et eksempel på prediksjon av to nye forekomster med k=3:

Som du kan se, kan endring av k føre til ulike prediksjoner.

Note
Merk

Av og til oppstår det en uavgjort i k-NN når flere klasser forekommer like ofte blant de nærmeste naboene. De fleste biblioteker, inkludert scikit-learn, løser uavgjort ved å velge den første klassen i sin interne rekkefølge – noe som er viktig å være oppmerksom på, siden det kan påvirke reproduserbarhet og tolkning på en subtil måte.

question mark

I k-Nearest Neighbors-algoritmen, hvordan predikeres klassen til en ny forekomst når k > 1?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 15

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

bookHva er k-NN

Sveip for å vise menyen

Vi starter klassifiseringsreisen med den enkleste oppgaven – binær klassifisering. Anta at vi ønsker å klassifisere søtsaker som kjeks/ikke kjeks basert på én enkel egenskap: vekten deres.

En enkel metode for å forutsi klassen til en ny forekomst er å se på dens nærmeste nabo. I vårt eksempel må vi finne en søtsak som veier mest likt den nye forekomsten.

Dette er ideen bak k-Nearest Neighbors (k-NN) – vi ser bare på naboene. k-NN-algoritmen antar at lignende objekter finnes i nærhet til hverandre. Med andre ord, lignende ting er nær hverandre. k i k-NN står for antall naboer vi vurderer når vi gjør en prediksjon.

I eksempelet ovenfor vurderte vi kun 1 nabo, så det var 1-Nærmeste Nabo. Men vanligvis settes k til et høyere tall, siden det å kun se på én nabo kan være upålitelig:

Hvis k (antall naboer) er større enn én, velges den mest vanlige klassen i nabolaget som prediksjon. Her er et eksempel på prediksjon av to nye forekomster med k=3:

Som du kan se, kan endring av k føre til ulike prediksjoner.

Note
Merk

Av og til oppstår det en uavgjort i k-NN når flere klasser forekommer like ofte blant de nærmeste naboene. De fleste biblioteker, inkludert scikit-learn, løser uavgjort ved å velge den første klassen i sin interne rekkefølge – noe som er viktig å være oppmerksom på, siden det kan påvirke reproduserbarhet og tolkning på en subtil måte.

question mark

I k-Nearest Neighbors-algoritmen, hvordan predikeres klassen til en ny forekomst når k > 1?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 1. Kapittel 15
some-alt