Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ 2つの特徴量による線形回帰 | セクション
Pythonによる回帰

book2つの特徴量による線形回帰

メニューを表示するにはスワイプしてください

これまで、1つの特徴量のみを用いた線形回帰について説明しました。これは単回帰分析と呼ばれます。 しかし実際には、ターゲットは複数の特徴量に依存することがほとんどです。2つ以上の特徴量を用いた線形回帰は重回帰分析と呼ばれます。

2変数線形回帰の方程式

身長の例では、母親の身長をモデルの特徴量として追加することで、予測精度が向上する可能性があります。しかし、どのように新しい特徴量をモデルに追加するのでしょうか?線形回帰は方程式で定義されているため、方程式に新しい特徴量を追加するだけです。

可視化

単回帰モデルについて説明した際には、1つの軸が特徴量、もう1つの軸がターゲットとなる2次元プロットを作成しました。今回は2つの特徴量があるため、2つの軸が特徴量、3つ目の軸がターゲットとなります。つまり、2次元空間から3次元空間に移行することになり、可視化がより難しくなります。動画では、例題データセットの3次元散布図を示しています。

しかし、今や私たちの方程式は直線の方程式ではなく、平面の方程式となっています。以下は、散布図と予測された平面です。

数学的には方程式がそれほど難しくなっていないことにお気づきかもしれません。しかし、残念ながら可視化は難しくなっています。

すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  6

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

セクション 1.  6
some-alt