2つの特徴量による線形回帰
メニューを表示するにはスワイプしてください
これまで、特徴量が1つだけの線形回帰について説明しました。これは単回帰分析と呼ばれます。 しかし実際には、ターゲットは多くの場合、複数の特徴量に依存します。特徴量が2つ以上ある線形回帰は重回帰分析と呼ばれます。
2つの特徴量による線形回帰の式
身長の例では、母親の身長をモデルの特徴量として追加することで、予測精度が向上する可能性があります。しかし、どのようにして新しい特徴量をモデルに追加するのでしょうか?線形回帰は方程式で定義されているため、方程式に新しい特徴量を追加すればよいのです。
可視化
単回帰モデルについて説明した際には、1つの軸が特徴量、もう1つの軸がターゲットとなる2次元プロットを作成しました。今回は特徴量が2つあるため、2つの軸が特徴量、3つ目の軸がターゲットとなります。つまり、2次元空間から3次元空間へと移行し、可視化がより難しくなります。動画では、例で使用するデータセットの3D散布図を示しています。
しかし、今や私たちの方程式は直線の方程式ではなく、平面の方程式となっています。以下は散布図と予測された平面です。
数学的には方程式がそれほど難しくなっていないことにお気付きかもしれません。しかし残念ながら、可視化は難しくなっています。
すべて明確でしたか?
フィードバックありがとうございます!
セクション 2. 章 1
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください
セクション 2. 章 1