セクション 1. 章 5
single
多クラス分類
メニューを表示するにはスワイプしてください
k-NNによる多クラス分類は、二値分類と同様に簡単です。近傍で最も多いクラスを選択します。
KNeighborsClassifierは、yに2つ以上の特徴がある場合、自動的に多クラス分類を実行します。そのため、何も変更する必要はありません。唯一変わるのは、yメソッドに渡す.fit()変数です。
これから、k-NNによる多クラス分類を実行します。次のデータセットを考えてみましょう:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
前章の例と同様ですが、今回はターゲットが3つの値を取ることができます:
- 0: 「嫌い」(評価が3/5未満);
- 1: 「まあまあ」(評価が3/5以上4/5未満);
- 2: 「好き」(評価が4/5以上)。
タスク
スワイプしてコーディングを開始
Star Warsの評価データセットがDataFrame変数にdfとして格納されています。
- 適切なスケーラーを初期化し、
scaler変数に格納してください。 - トレーニングデータでスケーリングパラメータを計算し、スケーリング後のデータを
X_train変数に格納してください。 - テストデータをスケーリングし、結果を
X_test変数に格納してください。 - 近傍数を
13に設定したk-NNのインスタンスを作成し、トレーニングセットで学習させ、knn変数に格納してください。 - テストセットで予測を行い、結果を
y_pred変数に格納してください。
解答
すべて明確でしたか?
フィードバックありがとうございます!
セクション 1. 章 5
single
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください