Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Implementierung der Bedingten Wahrscheinlichkeit und des Satzes von Bayes in Python | Wahrscheinlichkeit & Statistik
Mathematik für Data Science

bookImplementierung der Bedingten Wahrscheinlichkeit und des Satzes von Bayes in Python

Bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit misst die Wahrscheinlichkeit, dass ein Ereignis eintritt, vorausgesetzt, ein anderes Ereignis ist bereits eingetreten.

Formel:

P(AB)=P(AB)P(B)P(A \mid B) = \frac{P(A \cap B)}{P(B)}
12345
P_A_and_B = 0.1 # Probability late AND raining P_B = 0.2 # Probability raining P_A_given_B = P_A_and_B / P_B print(f"P(A|B) = {P_A_given_B:.2f}") # Output: 0.5
copy

Interpretation: Wenn es regnet, besteht eine 50%ige Wahrscheinlichkeit, dass Sie zu spät zur Arbeit kommen.

Satz von Bayes

Der Satz von Bayes ermöglicht die Bestimmung von $P(A|B)$, wenn diese Wahrscheinlichkeit schwer direkt zu messen ist, indem sie mit $P(B|A)$ in Beziehung gesetzt wird, das oft leichter zu schätzen ist.

Formel:

P(AB)=P(BA)P(A)P(B)P(A \mid B) = \frac{P(B \mid A) \cdot P(A)}{P(B)}

Dabei gilt:

  • P(AB)P(A \mid B) – Wahrscheinlichkeit von A unter der Bedingung B (Zielgröße);
  • P(BA)P(B \mid A) – Wahrscheinlichkeit von B unter der Bedingung A;
  • P(A)P(A) – a-priori Wahrscheinlichkeit von A;
  • P(B)P(B) – Gesamtwahrscheinlichkeit von B.

Erweiterung von P(B)P(B)

P(B)=P(BA)P(A)+P(B¬A)P(¬A)P(B) = P(B \mid A) P(A) + P(B \mid \neg A) P(\neg A)
123456789101112
P_A = 0.01 # Disease prevalence P_not_A = 1 - P_A P_B_given_A = 0.99 # Sensitivity P_B_given_not_A = 0.05 # False positive rate # Total probability of testing positive P_B = (P_B_given_A * P_A) + (P_B_given_not_A * P_not_A) print(f"P(B) = {P_B:.4f}") # Output: 0.0594 # Apply Bayes’ Theorem P_A_given_B = (P_B_given_A * P_A) / P_B print(f"P(A|B) = {P_A_given_B:.4f}") # Output: 0.1672
copy

Interpretation: Selbst bei positivem Testergebnis besteht nur etwa eine 16,7%ige Wahrscheinlichkeit, tatsächlich an der Krankheit zu leiden.

Wichtigste Erkenntnisse

  • Die bedingte Wahrscheinlichkeit bestimmt die Wahrscheinlichkeit von A, wenn bekannt ist, dass B eingetreten ist;
  • Der Satz von Bayes kehrt bedingte Wahrscheinlichkeiten um, um Überzeugungen zu aktualisieren, wenn eine direkte Messung schwierig ist;
  • Beide sind essenziell in Data Science, medizinischer Diagnostik und maschinellem Lernen.
question mark

Was gibt dieser Code aus?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 5. Kapitel 4

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Suggested prompts:

Can you explain the difference between joint, marginal, and conditional probability?

How does Bayes' theorem help in real-world scenarios like medical testing?

Can you walk me through the calculations in the code examples step by step?

Awesome!

Completion rate improved to 1.96

bookImplementierung der Bedingten Wahrscheinlichkeit und des Satzes von Bayes in Python

Swipe um das Menü anzuzeigen

Bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit misst die Wahrscheinlichkeit, dass ein Ereignis eintritt, vorausgesetzt, ein anderes Ereignis ist bereits eingetreten.

Formel:

P(AB)=P(AB)P(B)P(A \mid B) = \frac{P(A \cap B)}{P(B)}
12345
P_A_and_B = 0.1 # Probability late AND raining P_B = 0.2 # Probability raining P_A_given_B = P_A_and_B / P_B print(f"P(A|B) = {P_A_given_B:.2f}") # Output: 0.5
copy

Interpretation: Wenn es regnet, besteht eine 50%ige Wahrscheinlichkeit, dass Sie zu spät zur Arbeit kommen.

Satz von Bayes

Der Satz von Bayes ermöglicht die Bestimmung von $P(A|B)$, wenn diese Wahrscheinlichkeit schwer direkt zu messen ist, indem sie mit $P(B|A)$ in Beziehung gesetzt wird, das oft leichter zu schätzen ist.

Formel:

P(AB)=P(BA)P(A)P(B)P(A \mid B) = \frac{P(B \mid A) \cdot P(A)}{P(B)}

Dabei gilt:

  • P(AB)P(A \mid B) – Wahrscheinlichkeit von A unter der Bedingung B (Zielgröße);
  • P(BA)P(B \mid A) – Wahrscheinlichkeit von B unter der Bedingung A;
  • P(A)P(A) – a-priori Wahrscheinlichkeit von A;
  • P(B)P(B) – Gesamtwahrscheinlichkeit von B.

Erweiterung von P(B)P(B)

P(B)=P(BA)P(A)+P(B¬A)P(¬A)P(B) = P(B \mid A) P(A) + P(B \mid \neg A) P(\neg A)
123456789101112
P_A = 0.01 # Disease prevalence P_not_A = 1 - P_A P_B_given_A = 0.99 # Sensitivity P_B_given_not_A = 0.05 # False positive rate # Total probability of testing positive P_B = (P_B_given_A * P_A) + (P_B_given_not_A * P_not_A) print(f"P(B) = {P_B:.4f}") # Output: 0.0594 # Apply Bayes’ Theorem P_A_given_B = (P_B_given_A * P_A) / P_B print(f"P(A|B) = {P_A_given_B:.4f}") # Output: 0.1672
copy

Interpretation: Selbst bei positivem Testergebnis besteht nur etwa eine 16,7%ige Wahrscheinlichkeit, tatsächlich an der Krankheit zu leiden.

Wichtigste Erkenntnisse

  • Die bedingte Wahrscheinlichkeit bestimmt die Wahrscheinlichkeit von A, wenn bekannt ist, dass B eingetreten ist;
  • Der Satz von Bayes kehrt bedingte Wahrscheinlichkeiten um, um Überzeugungen zu aktualisieren, wenn eine direkte Messung schwierig ist;
  • Beide sind essenziell in Data Science, medizinischer Diagnostik und maschinellem Lernen.
question mark

Was gibt dieser Code aus?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 5. Kapitel 4
some-alt