Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ 多クラス分類 | セクション
Pythonによる分類
セクション 1.  5
single

single

book多クラス分類

メニューを表示するにはスワイプしてください

k-NNによる多クラス分類は、二値分類と同様に簡単です。近傍で最も多いクラスを選択します。

KNeighborsClassifierは、yに2つ以上の特徴がある場合、自動的に多クラス分類を実行します。そのため、何も変更する必要はありません。唯一変わるのは、yメソッドに渡す.fit()変数です。

これから、k-NNによる多クラス分類を実行します。次のデータセットを考えてみましょう:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

前章の例と同様ですが、今回はターゲットが3つの値を取ることができます:

  • 0: 「嫌い」(評価が3/5未満);
  • 1: 「まあまあ」(評価が3/5以上4/5未満);
  • 2: 「好き」(評価が4/5以上)。
タスク

スワイプしてコーディングを開始

Star Warsの評価データセットがDataFrame変数にdfとして格納されています。

  • 適切なスケーラーを初期化し、scaler変数に格納してください。
  • トレーニングデータでスケーリングパラメータを計算し、スケーリング後のデータをX_train変数に格納してください。
  • テストデータをスケーリングし、結果をX_test変数に格納してください。
  • 近傍数を13に設定したk-NNのインスタンスを作成し、トレーニングセットで学習させ、knn変数に格納してください。
  • テストセットで予測を行い、結果をy_pred変数に格納してください。

解答

Switch to desktop実践的な練習のためにデスクトップに切り替える下記のオプションのいずれかを利用して、現在の場所から続行する
すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  5
single

single

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

some-alt