Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ k-NNとは何か | セクション
Pythonによる分類

bookk-NNとは何か

メニューを表示するにはスワイプしてください

最も基本的なタスクである二値分類から分類の学習を始めます。例えば、1つの特徴量(重さ)に基づいて、お菓子がクッキーかクッキーでないかを分類する場合を考えます。

新しいインスタンスのクラスを予測する簡単な方法は、その最も近い近傍を見ることです。この例では、新しいインスタンスと重さが最も近いお菓子を探します。

これがk-近傍法k-NN)の基本的な考え方です。近傍だけを見ます。 k-NNアルゴリズムは、類似したものは近い場所に存在するという前提に基づいています。つまり、似ているもの同士は互いに近くにあります。k-NNのkは、予測時に考慮する近傍の数を表します。

上記の例では、1 つの近傍のみを考慮したため、1-Nearest Neighbor(1最近傍法)となっています。しかし、通常は k をより大きな値に設定します。なぜなら、1つの近傍だけを見るのは信頼性が低いためです。

k(近傍数)が1より大きい場合、近傍内で最も頻度の高いクラスを予測値として選択します。以下は、k=3 で2つの新しいインスタンスを予測する例です。

ご覧の通り、k の値を変更すると異なる予測結果になる場合があります。

Note
注意

時折、k-NNでは最も近い近傍の中で複数のクラスが同数で現れる場合、同点が発生します。scikit-learnを含むほとんどのライブラリでは、内部の順序で最初のクラスを選択することで同点を解消します。これは再現性や解釈に微妙な影響を与える可能性があるため、注意が必要です。

question mark

k-近傍法アルゴリズムにおいて、k > 1 の場合、新しいインスタンスのクラスはどのように予測されますか?

正しい答えを選んでください

すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  2

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

セクション 1.  2
some-alt