Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Vad är k-NN | Sektion
Grunder i Övervakad Inlärning

bookVad är k-NN

Vi inleder vår klassificeringsresa med den enklaste uppgiften – binär klassificering. Antag att vi vill klassificera sötsaker som kakor/inte kakor baserat på en enda egenskap: deras vikt.

Ett enkelt sätt att förutsäga klassen för en ny instans är att titta på dess närmsta granne. I vårt exempel måste vi hitta en sötsak som väger mest likt den nya instansen.

Detta är idén bakom k-Nearest Neighbors (k-NN) – vi tittar bara på grannarna. k-NN-algoritmen utgår från att liknande saker finns i nära närhet. Med andra ord, liknande saker är nära varandra. k i k-NN står för antalet grannar vi tar hänsyn till vid en prediktion.

I exemplet ovan betraktade vi endast 1 granne, så det var 1-Närmsta granne. Men vanligtvis sätts k till ett större tal, eftersom det kan vara otillförlitligt att endast titta på en granne:

Om k (antal grannar) är större än ett, väljs den mest frekventa klassen i grannskapet som en prediktion. Här är ett exempel på att förutsäga två nya instanser med k=3:

Som du kan se kan en ändring av k leda till olika prediktioner.

Note
Notering

Ibland uppstår en oavgjord situation i k-NN när flera klasser förekommer lika ofta bland de närmaste grannarna. De flesta bibliotek, inklusive scikit-learn, löser oavgjorda situationer genom att välja den första klassen i sin interna ordning – något att tänka på, eftersom det kan påverka reproducerbarhet och tolkning på ett subtilt sätt.

question mark

I k-Nearest Neighbors-algoritmen, hur förutsägs klassen för en ny instans när k > 1?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 15

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

bookVad är k-NN

Svep för att visa menyn

Vi inleder vår klassificeringsresa med den enklaste uppgiften – binär klassificering. Antag att vi vill klassificera sötsaker som kakor/inte kakor baserat på en enda egenskap: deras vikt.

Ett enkelt sätt att förutsäga klassen för en ny instans är att titta på dess närmsta granne. I vårt exempel måste vi hitta en sötsak som väger mest likt den nya instansen.

Detta är idén bakom k-Nearest Neighbors (k-NN) – vi tittar bara på grannarna. k-NN-algoritmen utgår från att liknande saker finns i nära närhet. Med andra ord, liknande saker är nära varandra. k i k-NN står för antalet grannar vi tar hänsyn till vid en prediktion.

I exemplet ovan betraktade vi endast 1 granne, så det var 1-Närmsta granne. Men vanligtvis sätts k till ett större tal, eftersom det kan vara otillförlitligt att endast titta på en granne:

Om k (antal grannar) är större än ett, väljs den mest frekventa klassen i grannskapet som en prediktion. Här är ett exempel på att förutsäga två nya instanser med k=3:

Som du kan se kan en ändring av k leda till olika prediktioner.

Note
Notering

Ibland uppstår en oavgjord situation i k-NN när flera klasser förekommer lika ofta bland de närmaste grannarna. De flesta bibliotek, inklusive scikit-learn, löser oavgjorda situationer genom att välja den första klassen i sin interna ordning – något att tänka på, eftersom det kan påverka reproducerbarhet och tolkning på ett subtilt sätt.

question mark

I k-Nearest Neighbors-algoritmen, hur förutsägs klassen för en ny instans när k > 1?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 15
some-alt