Hva er k-NN
La oss starte vårt klassifiseringseventyr med den enkleste oppgaven – binær klassifisering. Anta at vi ønsker å klassifisere søtsaker som kjeks/ikke kjeks basert på én egenskap: vekten deres.
En enkel måte å forutsi klassen til en ny forekomst på, er å se på dens nærmeste nabo. I vårt eksempel må vi finne en søtsak som veier mest likt den nye forekomsten.
Dette er ideen bak k-Nearest Neighbors (k-NN) – vi ser bare på naboene. k-NN-algoritmen antar at lignende ting finnes i nærhet. Med andre ord, lignende ting er nær hverandre. k i k-NN står for antall naboer vi vurderer når vi gjør en prediksjon.
I eksemplet ovenfor vurderte vi kun 1 nabo, så det var 1-Nærmeste Nabo. Men vanligvis settes k til et høyere tall, siden det å kun se på én nabo kan være upålitelig:
Hvis k (antall naboer) er større enn én, velges den mest vanlige klassen i nabolaget som prediksjon. Her er et eksempel på å predikere to nye instanser med k=3:
Som du kan se, kan endring av k føre til ulike prediksjoner.
Av og til oppstår det en uavgjort i k-NN når flere klasser forekommer like ofte blant de nærmeste naboene. De fleste biblioteker, inkludert scikit-learn, løser uavgjort ved å velge den første klassen i sin interne rekkefølge – noe som er viktig å være oppmerksom på, siden det kan påvirke reproduserbarhet og tolkning på en subtil måte.
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Can you explain how to choose the best value for k in k-NN?
What are the advantages and disadvantages of using k-NN for classification?
Can you give a real-world example where k-NN would be useful?
Awesome!
Completion rate improved to 4.17
Hva er k-NN
Sveip for å vise menyen
La oss starte vårt klassifiseringseventyr med den enkleste oppgaven – binær klassifisering. Anta at vi ønsker å klassifisere søtsaker som kjeks/ikke kjeks basert på én egenskap: vekten deres.
En enkel måte å forutsi klassen til en ny forekomst på, er å se på dens nærmeste nabo. I vårt eksempel må vi finne en søtsak som veier mest likt den nye forekomsten.
Dette er ideen bak k-Nearest Neighbors (k-NN) – vi ser bare på naboene. k-NN-algoritmen antar at lignende ting finnes i nærhet. Med andre ord, lignende ting er nær hverandre. k i k-NN står for antall naboer vi vurderer når vi gjør en prediksjon.
I eksemplet ovenfor vurderte vi kun 1 nabo, så det var 1-Nærmeste Nabo. Men vanligvis settes k til et høyere tall, siden det å kun se på én nabo kan være upålitelig:
Hvis k (antall naboer) er større enn én, velges den mest vanlige klassen i nabolaget som prediksjon. Her er et eksempel på å predikere to nye instanser med k=3:
Som du kan se, kan endring av k føre til ulike prediksjoner.
Av og til oppstår det en uavgjort i k-NN når flere klasser forekommer like ofte blant de nærmeste naboene. De fleste biblioteker, inkludert scikit-learn, løser uavgjort ved å velge den første klassen i sin interne rekkefølge – noe som er viktig å være oppmerksom på, siden det kan påvirke reproduserbarhet og tolkning på en subtil måte.
Takk for tilbakemeldingene dine!