Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Intersection over Union (IoU) und Bewertungsmetriken | Objekterkennung
Grundlagen der Computer Vision

bookIntersection over Union (IoU) und Bewertungsmetriken

Note
Definition

Intersection over Union (IoU) ist eine Metrik, die die Genauigkeit vorhergesagter Begrenzungsrahmen misst, indem das Verhältnis der Überlappungsfläche zwischen dem vorhergesagten und dem tatsächlichen Rahmen zur Fläche ihrer Vereinigung berechnet wird.

Berechnung

Mathematisch wird IoU wie folgt angegeben:

IoU

Wo:

  • Überlappungsfläche ist der Schnittbereich der vorhergesagten und tatsächlichen Begrenzungsrahmen;
  • Vereinigungsfläche ist die Gesamtfläche, die von beiden Rahmen abgedeckt wird.
12345678910111213141516171819202122232425262728
import numpy as np def compute_iou(boxA, boxB): # Extract coordinates xA = max(boxA[0], boxB[0]) yA = max(boxA[1], boxB[1]) xB = min(boxA[2], boxB[2]) yB = min(boxA[3], boxB[3]) # Compute intersection area interArea = max(0, xB - xA) * max(0, yB - yA) # Compute areas of both boxes boxAArea = (boxA[2] - boxA[0]) * (boxA[3] - boxA[1]) boxBArea = (boxB[2] - boxB[0]) * (boxB[3] - boxB[1]) # Compute union area unionArea = boxAArea + boxBArea - interArea # Compute IoU iou = interArea / unionArea return iou # Example usage box1 = [50, 50, 150, 150] # [x1, y1, x2, y2] box2 = [100, 100, 200, 200] iou_score = compute_iou(box1, box2) print("IoU Score:", iou_score)
copy

IoU als Metrik für die Genauigkeit von Begrenzungsrahmen

IoU wird häufig verwendet, um zu bewerten, wie gut ein vorhergesagter Begrenzungsrahmen mit dem Ground Truth übereinstimmt. Höhere IoU-Werte deuten auf eine bessere Übereinstimmung hin, wobei ein IoU von 1.0 eine perfekte Überlappung und 0.0 keinerlei Überlappung bedeutet.

Schwellenwertsetzung des IoU für True Positives und False Positives

Um zu bestimmen, ob eine Erkennung korrekt (True Positive) oder inkorrekt (False Positive) ist, wird typischerweise ein Schwellenwert für das IoU festgelegt. Häufig verwendete Schwellenwerte sind:

  • IoU > 0,5: gilt als True Positive (TP);
  • IoU < 0,5: gilt als False Positive (FP).

Das Setzen höherer IoU-Schwellenwerte erhöht die Präzision, kann jedoch den Recall verringern, da weniger Erkennungen die Kriterien erfüllen.

Evaluationsmetriken: Präzision, Recall und mAP

Zusätzlich zum IoU unterstützen weitere Evaluationsmetriken die Bewertung von Objekterkennungsmodellen:

  • Präzision: misst den Anteil korrekt vorhergesagter Begrenzungsrahmen an allen Vorhersagen;
Precision=TPTP+FP\text{Precision}=\frac{\text{TP}}{\text{TP}+\text{FP}}
  • Recall: misst den Anteil korrekt vorhergesagter Begrenzungsrahmen an allen Ground-Truth-Objekten;
Recall=TPTP+FN\text{Recall}=\frac{\text{TP}}{\text{TP}+\text{FN}}
  • Mean Average Precision (mAP): berechnet die durchschnittliche Präzision über verschiedene IoU-Schwellenwerte und Objektkategorien hinweg und bietet so eine umfassende Bewertung der Modellleistung.
Metriken
123456789
def precision_recall(tp, fp, fn): precision = tp / (tp + fp) if (tp + fp) > 0 else 0 recall = tp / (tp + fn) if (tp + fn) > 0 else 0 return precision, recall # Example usage tp, fp, fn = 50, 10, 20 precision, recall = precision_recall(tp, fp, fn) print(f"Precision: {precision:.2f}, Recall: {recall:.2f}")
copy

IoU dient als grundlegende Kennzahl zur Bewertung von Objekterkennungsmodellen und hilft, die Genauigkeit der vorhergesagten Begrenzungsrahmen zu beurteilen. Durch die Kombination von IoU mit Präzision, Recall und mAP können Forschende und Ingenieur:innen ihre Modelle gezielt optimieren, um eine höhere Erkennungsgenauigkeit und Zuverlässigkeit zu erreichen.

1. Was misst Intersection over Union (IoU) in der Objekterkennung?

2. Welche der folgenden Optionen gilt als False Negative in der Objekterkennung?

3. Wie wird die Präzision in der Objekterkennung berechnet?

question mark

Was misst Intersection over Union (IoU) in der Objekterkennung?

Select the correct answer

question mark

Welche der folgenden Optionen gilt als False Negative in der Objekterkennung?

Select the correct answer

question mark

Wie wird die Präzision in der Objekterkennung berechnet?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 4. Kapitel 4

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Awesome!

Completion rate improved to 3.45

bookIntersection over Union (IoU) und Bewertungsmetriken

Swipe um das Menü anzuzeigen

Note
Definition

Intersection over Union (IoU) ist eine Metrik, die die Genauigkeit vorhergesagter Begrenzungsrahmen misst, indem das Verhältnis der Überlappungsfläche zwischen dem vorhergesagten und dem tatsächlichen Rahmen zur Fläche ihrer Vereinigung berechnet wird.

Berechnung

Mathematisch wird IoU wie folgt angegeben:

IoU

Wo:

  • Überlappungsfläche ist der Schnittbereich der vorhergesagten und tatsächlichen Begrenzungsrahmen;
  • Vereinigungsfläche ist die Gesamtfläche, die von beiden Rahmen abgedeckt wird.
12345678910111213141516171819202122232425262728
import numpy as np def compute_iou(boxA, boxB): # Extract coordinates xA = max(boxA[0], boxB[0]) yA = max(boxA[1], boxB[1]) xB = min(boxA[2], boxB[2]) yB = min(boxA[3], boxB[3]) # Compute intersection area interArea = max(0, xB - xA) * max(0, yB - yA) # Compute areas of both boxes boxAArea = (boxA[2] - boxA[0]) * (boxA[3] - boxA[1]) boxBArea = (boxB[2] - boxB[0]) * (boxB[3] - boxB[1]) # Compute union area unionArea = boxAArea + boxBArea - interArea # Compute IoU iou = interArea / unionArea return iou # Example usage box1 = [50, 50, 150, 150] # [x1, y1, x2, y2] box2 = [100, 100, 200, 200] iou_score = compute_iou(box1, box2) print("IoU Score:", iou_score)
copy

IoU als Metrik für die Genauigkeit von Begrenzungsrahmen

IoU wird häufig verwendet, um zu bewerten, wie gut ein vorhergesagter Begrenzungsrahmen mit dem Ground Truth übereinstimmt. Höhere IoU-Werte deuten auf eine bessere Übereinstimmung hin, wobei ein IoU von 1.0 eine perfekte Überlappung und 0.0 keinerlei Überlappung bedeutet.

Schwellenwertsetzung des IoU für True Positives und False Positives

Um zu bestimmen, ob eine Erkennung korrekt (True Positive) oder inkorrekt (False Positive) ist, wird typischerweise ein Schwellenwert für das IoU festgelegt. Häufig verwendete Schwellenwerte sind:

  • IoU > 0,5: gilt als True Positive (TP);
  • IoU < 0,5: gilt als False Positive (FP).

Das Setzen höherer IoU-Schwellenwerte erhöht die Präzision, kann jedoch den Recall verringern, da weniger Erkennungen die Kriterien erfüllen.

Evaluationsmetriken: Präzision, Recall und mAP

Zusätzlich zum IoU unterstützen weitere Evaluationsmetriken die Bewertung von Objekterkennungsmodellen:

  • Präzision: misst den Anteil korrekt vorhergesagter Begrenzungsrahmen an allen Vorhersagen;
Precision=TPTP+FP\text{Precision}=\frac{\text{TP}}{\text{TP}+\text{FP}}
  • Recall: misst den Anteil korrekt vorhergesagter Begrenzungsrahmen an allen Ground-Truth-Objekten;
Recall=TPTP+FN\text{Recall}=\frac{\text{TP}}{\text{TP}+\text{FN}}
  • Mean Average Precision (mAP): berechnet die durchschnittliche Präzision über verschiedene IoU-Schwellenwerte und Objektkategorien hinweg und bietet so eine umfassende Bewertung der Modellleistung.
Metriken
123456789
def precision_recall(tp, fp, fn): precision = tp / (tp + fp) if (tp + fp) > 0 else 0 recall = tp / (tp + fn) if (tp + fn) > 0 else 0 return precision, recall # Example usage tp, fp, fn = 50, 10, 20 precision, recall = precision_recall(tp, fp, fn) print(f"Precision: {precision:.2f}, Recall: {recall:.2f}")
copy

IoU dient als grundlegende Kennzahl zur Bewertung von Objekterkennungsmodellen und hilft, die Genauigkeit der vorhergesagten Begrenzungsrahmen zu beurteilen. Durch die Kombination von IoU mit Präzision, Recall und mAP können Forschende und Ingenieur:innen ihre Modelle gezielt optimieren, um eine höhere Erkennungsgenauigkeit und Zuverlässigkeit zu erreichen.

1. Was misst Intersection over Union (IoU) in der Objekterkennung?

2. Welche der folgenden Optionen gilt als False Negative in der Objekterkennung?

3. Wie wird die Präzision in der Objekterkennung berechnet?

question mark

Was misst Intersection over Union (IoU) in der Objekterkennung?

Select the correct answer

question mark

Welche der folgenden Optionen gilt als False Negative in der Objekterkennung?

Select the correct answer

question mark

Wie wird die Präzision in der Objekterkennung berechnet?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 4. Kapitel 4
some-alt