BAYES Theorem

Für zwei Ereignisse A und B mit P(B) > 0 lässt sich die Wahrscheinlichkeit von

A unter der Bedingung, dass B eingetreten ist, angeben durch die Wahrscheinlichkeit von

B unter der Bedingung, dass A eingetreten ist:

P(A\mid B) \; = \; \frac {P(B\mid A) \cdot P(A)} {P(B)}.

Hierbei ist

P(A\mid B) die (bedingte) Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass B eingetreten ist,
P(B\mid A) die (bedingte) Wahrscheinlichkeit des Ereignisses B unter der Bedingung, dass A eingetreten ist,
P(A) die A-priori-Wahrscheinlichkeit des Ereignisses A und
P(B) die A-priori-Wahrscheinlichkeit des Ereignisses B.


Endlich viele Ereignisse:

Wenn A_{i},\; i = 1, \dotsc, N eine Zerlegung der Ergebnismenge in disjunkte Ereignisse ist, gilt für die A-posteriori-Wahrscheinlichkeit P(A_i \mid B)

 P(A_i \mid B) \; = \; \frac{P(B\mid A_i) \cdot P(A_i)}{P(B)} \; = \; \frac{P\left(B\mid A_i\right)\cdot P(A_i)}{\sum_{j=1} ^{N} P\left(B\mid A_j\right) \cdot P(A_j)} .

Den letzten Umformungsschritt bezeichnet man auch als Marginalisierung.


Da ein Ereignis A und sein Komplement A^c stets eine Zerlegung der Ergebnismenge darstellen, gilt insbesondere

 P(A \mid B) \; = \; \frac{P(B \mid A) \cdot P(A)}{P(B \mid A) \cdot P(A) + P(B \mid A^c) \cdot P(A^c)}.