正解率、適合率、再現率
メニューを表示するにはスワイプしてください
分類モデルを評価するためには、正解率(Accuracy)、適合率(Precision)、**再現率(Recall)**の明確な定義が必要です。これらの指標は、真陽性(TP)、真陰性(TN)、偽陽性(FP)、偽陰性(FN)の件数をまとめた混同行列に基づいています。各指標の数式は以下の通りです。
- 正解率(Accuracy):全予測のうち正解した割合
- 適合率(Precision)(陽性適合率):陽性と予測した中で実際に正解だった割合
- 再現率(Recall)(感度または真陽性率):実際の陽性のうち正しく識別できた割合
各指標はモデル性能の異なる側面を強調しており、どの指標を重視するかは目的や課題の文脈によって異なります。
実際には、クラスが均等で偽陽性と偽陰性のコストが同程度の場合、**正解率(Accuracy)**を重視します。例えば、すべてのカテゴリが同じ重要度を持つ画像分類では、正解率がモデル性能の簡潔な指標となります。
**適合率(Precision)**は、偽陽性のコストが高い場合に重要です。たとえば、メールのスパム判定では、正当なメールを誤ってスパムとする(偽陽性)ことを避けたいので、高い適合率が求められます。
**再現率(Recall)**は、陽性を見逃すコストが高い場合に重視されます。医療診断、特にがん検診などでは、できるだけ多くの実際の陽性を検出することが重要であり、多少の偽陽性があっても再現率を最大化することで見逃しを減らせます。
どの指標に注目すべきかを理解することで、モデル評価を現実の目的やリスクに合わせて調整できます。
123456789101112131415161718192021# Manually compute accuracy, precision, and recall from confusion matrix values # Example confusion matrix values TP = 70 # True Positives TN = 50 # True Negatives FP = 10 # False Positives FN = 20 # False Negatives # Accuracy calculation accuracy = (TP + TN) / (TP + TN + FP + FN) # Precision calculation precision = TP / (TP + FP) if (TP + FP) > 0 else 0 # Recall calculation recall = TP / (TP + FN) if (TP + FN) > 0 else 0 print(f"Accuracy: {accuracy:.2f}") print(f"Precision: {precision:.2f}") print(f"Recall: {recall:.2f}")
すべて明確でしたか?
フィードバックありがとうございます!
セクション 1. 章 6
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください
セクション 1. 章 6