Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ パラメータの探索 | セクション
Pythonによる分類

bookパラメータの探索

メニューを表示するにはスワイプしてください

ロジスティック回帰では、コンピュータが最適なパラメータ ββ を学習するだけで十分です。そのためには、「最適なパラメータ」とは何かを定義する必要があります。モデルの仕組みを振り返ると、クラス 1 に属する確率 pp を予測します。

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

ここで、

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

当然ながら、良いパラメータを持つモデルとは、実際にクラス 1 であるインスタンスに対して高い(1に近い)pp を予測し、実際にクラス 0 であるインスタンスに対して低い(0に近い)pp を予測するモデルです。

モデルの良し悪しを測定するために、コスト関数 を使用します。線形回帰では、コスト関数として MSE(平均二乗誤差)を使用しましたが、今回は異なる関数を使用します。

ここで、pp はモデルによって予測されたクラス 1 に属する確率を表し、yy は実際のターゲット値を示します。

この関数は誤った予測を罰するだけでなく、モデルの予測に対する信頼度も考慮します。上記の画像で示されているように、pp の値が yy(実際のターゲット)に近い場合、コスト関数は比較的小さくなり、モデルが正しいクラスを自信を持って選択したことを示します。逆に、予測が誤っている場合、コスト関数はモデルが誤ったクラスに自信を持つほど指数関数的に増加します。

シグモイド関数を用いた二値分類の文脈では、使用されるコスト関数は特にバイナリクロスエントロピー損失と呼ばれ、上記で示されました。また、多クラス分類問題で使用される一般的な形としてクロスエントロピー損失(またはカテゴリカルクロスエントロピー)があることにも注意が必要です。

単一の訓練インスタンスに対するカテゴリカルクロスエントロピー損失は、次のように計算されます:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

ここで

  • CC はクラス数;
  • yiy_i は実際のターゲット値(そのクラスが正解なら1、そうでなければ0);
  • pip_i はインスタンスがクラス ii に属する確率の予測値。

各訓練インスタンスごとに損失関数を計算し、その平均を取ります。この平均がコスト関数と呼ばれます。ロジスティック回帰は、コスト関数を最小化するパラメータ β\beta を求めます。

question mark

分類タスクで損失として使用されるものはどれですか?

正しい答えを選んでください

すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  9

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

セクション 1.  9
some-alt