k-NNとは何か
メニューを表示するにはスワイプしてください
最も基本的なタスクである二値分類から分類の学習を始めます。例えば、1つの特徴量(重さ)に基づいて、お菓子がクッキーかクッキーでないかを分類する場合を考えます。
新しいインスタンスのクラスを予測する簡単な方法は、その最も近い近傍を見ることです。この例では、新しいインスタンスと重さが最も近いお菓子を探します。
これがk-近傍法(k-NN)の基本的な考え方です。近傍だけを見ます。 k-NNアルゴリズムは、類似したものは近い場所に存在するという前提に基づいています。つまり、似ているもの同士は互いに近くにあります。k-NNのkは、予測時に考慮する近傍の数を表します。
上記の例では、1 つの近傍のみを考慮したため、1-Nearest Neighbor(1最近傍法)となっています。しかし、通常は k をより大きな値に設定します。なぜなら、1つの近傍だけを見るのは信頼性が低いためです。
k(近傍数)が1より大きい場合、近傍内で最も頻度の高いクラスを予測値として選択します。以下は、k=3 で2つの新しいインスタンスを予測する例です。
ご覧の通り、k の値を変更すると異なる予測結果になる場合があります。
注意
時折、k-NNでは最も近い近傍の中で複数のクラスが同数で現れる場合、同点が発生します。scikit-learnを含むほとんどのライブラリでは、内部の順序で最初のクラスを選択することで同点を解消します。これは再現性や解釈に微妙な影響を与える可能性があるため、注意が必要です。
すべて明確でしたか?
フィードバックありがとうございます!
セクション 1. 章 2
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください
セクション 1. 章 2