Intersection sur Union (IoU) et Métriques d'Évaluation
Intersection over Union (IoU) est une métrique qui mesure la précision des boîtes englobantes prédites en calculant le rapport entre la zone de chevauchement des boîtes prédites et réelles et la zone de leur union.
Calcul
Mathématiquement, l'IoU est défini par :

Où :
- Aire de chevauchement correspond à l'intersection des boîtes englobantes prédite et réelle ;
- Aire d'union correspond à la surface totale couverte par les deux boîtes.
12345678910111213141516171819202122232425262728import numpy as np def compute_iou(boxA, boxB): # Extract coordinates xA = max(boxA[0], boxB[0]) yA = max(boxA[1], boxB[1]) xB = min(boxA[2], boxB[2]) yB = min(boxA[3], boxB[3]) # Compute intersection area interArea = max(0, xB - xA) * max(0, yB - yA) # Compute areas of both boxes boxAArea = (boxA[2] - boxA[0]) * (boxA[3] - boxA[1]) boxBArea = (boxB[2] - boxB[0]) * (boxB[3] - boxB[1]) # Compute union area unionArea = boxAArea + boxBArea - interArea # Compute IoU iou = interArea / unionArea return iou # Example usage box1 = [50, 50, 150, 150] # [x1, y1, x2, y2] box2 = [100, 100, 200, 200] iou_score = compute_iou(box1, box2) print("IoU Score:", iou_score)
IoU comme métrique de précision des boîtes englobantes
L'IoU est couramment utilisé pour évaluer dans quelle mesure une boîte englobante prédite s'aligne avec la vérité terrain. Des valeurs d'IoU plus élevées indiquent un meilleur alignement, une IoU de 1.0
signifiant un chevauchement parfait et 0.0
signifiant aucune superposition.
Seuil d'IoU pour les vrais positifs et les faux positifs
Pour déterminer si une détection est correcte (vrai positif) ou incorrecte (faux positif), un seuil pour l'IoU est généralement défini. Les seuils couramment utilisés incluent :
- IoU > 0,5 : considéré comme un vrai positif (TP) ;
- IoU < 0,5 : considéré comme un faux positif (FP).
L'utilisation de seuils d'IoU plus élevés augmente la précision mais peut diminuer le rappel, car moins de détections répondent aux critères.
Métriques d'évaluation : précision, rappel et mAP
En plus de l'IoU, d'autres métriques d'évaluation permettent d'évaluer les modèles de détection d'objets :
- Précision : mesure la proportion de boîtes englobantes correctement prédites parmi toutes les prédictions ;
- Rappel : mesure la proportion de boîtes englobantes correctement prédites parmi tous les objets de vérité terrain ;
- Mean Average Precision (mAP) : calcule la précision moyenne sur différents seuils d'IoU et catégories d'objets, fournissant une évaluation globale des performances du modèle.

123456789def precision_recall(tp, fp, fn): precision = tp / (tp + fp) if (tp + fp) > 0 else 0 recall = tp / (tp + fn) if (tp + fn) > 0 else 0 return precision, recall # Example usage tp, fp, fn = 50, 10, 20 precision, recall = precision_recall(tp, fp, fn) print(f"Precision: {precision:.2f}, Recall: {recall:.2f}")
L'IoU constitue une métrique fondamentale pour l'évaluation des modèles de détection d'objets, permettant d'analyser la précision des boîtes englobantes prédites. En combinant l'IoU avec la précision, le rappel et le mAP, les chercheurs et ingénieurs peuvent ajuster leurs modèles afin d'obtenir une détection plus précise et fiable.
1. Que mesure l'Intersection over Union (IoU) en détection d'objets ?
2. Lequel des éléments suivants est considéré comme un faux négatif en détection d'objets ?
3. Comment la précision est-elle calculée en détection d'objets ?
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Can you explain how the IoU formula works in more detail?
What are some common applications of IoU in computer vision?
How does changing the IoU threshold affect model evaluation?
Awesome!
Completion rate improved to 3.45
Intersection sur Union (IoU) et Métriques d'Évaluation
Glissez pour afficher le menu
Intersection over Union (IoU) est une métrique qui mesure la précision des boîtes englobantes prédites en calculant le rapport entre la zone de chevauchement des boîtes prédites et réelles et la zone de leur union.
Calcul
Mathématiquement, l'IoU est défini par :

Où :
- Aire de chevauchement correspond à l'intersection des boîtes englobantes prédite et réelle ;
- Aire d'union correspond à la surface totale couverte par les deux boîtes.
12345678910111213141516171819202122232425262728import numpy as np def compute_iou(boxA, boxB): # Extract coordinates xA = max(boxA[0], boxB[0]) yA = max(boxA[1], boxB[1]) xB = min(boxA[2], boxB[2]) yB = min(boxA[3], boxB[3]) # Compute intersection area interArea = max(0, xB - xA) * max(0, yB - yA) # Compute areas of both boxes boxAArea = (boxA[2] - boxA[0]) * (boxA[3] - boxA[1]) boxBArea = (boxB[2] - boxB[0]) * (boxB[3] - boxB[1]) # Compute union area unionArea = boxAArea + boxBArea - interArea # Compute IoU iou = interArea / unionArea return iou # Example usage box1 = [50, 50, 150, 150] # [x1, y1, x2, y2] box2 = [100, 100, 200, 200] iou_score = compute_iou(box1, box2) print("IoU Score:", iou_score)
IoU comme métrique de précision des boîtes englobantes
L'IoU est couramment utilisé pour évaluer dans quelle mesure une boîte englobante prédite s'aligne avec la vérité terrain. Des valeurs d'IoU plus élevées indiquent un meilleur alignement, une IoU de 1.0
signifiant un chevauchement parfait et 0.0
signifiant aucune superposition.
Seuil d'IoU pour les vrais positifs et les faux positifs
Pour déterminer si une détection est correcte (vrai positif) ou incorrecte (faux positif), un seuil pour l'IoU est généralement défini. Les seuils couramment utilisés incluent :
- IoU > 0,5 : considéré comme un vrai positif (TP) ;
- IoU < 0,5 : considéré comme un faux positif (FP).
L'utilisation de seuils d'IoU plus élevés augmente la précision mais peut diminuer le rappel, car moins de détections répondent aux critères.
Métriques d'évaluation : précision, rappel et mAP
En plus de l'IoU, d'autres métriques d'évaluation permettent d'évaluer les modèles de détection d'objets :
- Précision : mesure la proportion de boîtes englobantes correctement prédites parmi toutes les prédictions ;
- Rappel : mesure la proportion de boîtes englobantes correctement prédites parmi tous les objets de vérité terrain ;
- Mean Average Precision (mAP) : calcule la précision moyenne sur différents seuils d'IoU et catégories d'objets, fournissant une évaluation globale des performances du modèle.

123456789def precision_recall(tp, fp, fn): precision = tp / (tp + fp) if (tp + fp) > 0 else 0 recall = tp / (tp + fn) if (tp + fn) > 0 else 0 return precision, recall # Example usage tp, fp, fn = 50, 10, 20 precision, recall = precision_recall(tp, fp, fn) print(f"Precision: {precision:.2f}, Recall: {recall:.2f}")
L'IoU constitue une métrique fondamentale pour l'évaluation des modèles de détection d'objets, permettant d'analyser la précision des boîtes englobantes prédites. En combinant l'IoU avec la précision, le rappel et le mAP, les chercheurs et ingénieurs peuvent ajuster leurs modèles afin d'obtenir une détection plus précise et fiable.
1. Que mesure l'Intersection over Union (IoU) en détection d'objets ?
2. Lequel des éléments suivants est considéré comme un faux négatif en détection d'objets ?
3. Comment la précision est-elle calculée en détection d'objets ?
Merci pour vos commentaires !