Mengenlehre und DE MORGANsche Regeln

P(\bar A \cup \bar B) = P(\overline{A \cap B})

und

P(\bar A \cap \bar B) = P(\overline{A \cup B})

Kombinatorik

Fakultät

n! = 1 \cdot 2 \cdot ... \cdot (n-1) \cdot n

0! = 1

Binomialkoeffizient
{n \choose k} = \frac{n!}{k!(n-k)!}, \quad k,n \in N, \quad k,n \ge 0.
{n \choose 0} = 1.
Zufallsstichproben

Anzahl der möglichen Stichproben vom Umfang n aus einer Grundgesamtheit vom Umfang N:

Ohne ZurücklegenMit Zurücklegen
Mit Berücksichtigung der Reihenfolge   \frac{N!}{(N-n)!}     N^n
Ohne Berücksichtigung der Reihenfolge    {N \choose n}   {N + n -1 \choose n}

Definition der Wahrscheinlichkeit

(Symmetrieprinzip oder Prinzip nach LAPLACE)

Jedes Ergebnis A aus der Ergebnismenge Ω sei gleich häufig. |A| ist die Zahl der Ergebnisse,

die durch A belegt werden (Anzahl der günstigen Ergebnisse), |Ω| ist die Zahl aller möglichen Ergebnisse. Es ist

P(A) = \frac {|A|} {|\Omega|} .

Axiome der Wahrscheinlichkeiten (Kolmogoroff):

Gegeben sind zwei Ereignisse A,B ⊂ Ω.

  1.  P(A) \ge 0 \; . Nichtnegativität
  2.  P(\Omega) = 1 \; . Normiertheit
  3. P(A \cup B) = P(A) + P(B) \; , falls A und B disjunkt sind.

Additionssatz

Für zwei Ereignisse A, B aus Ω gilt :

P(A \cup B) = P(A)+P(B)-P(A \cap B) .

Für drei Ereignisse A, B, C aus Ω gilt analog :

 \begin{array}{cl} P(A \cup B \cup C) =& P(A) + P(B) + P(C) - P(A \cap B) \ &- P(A \cap C) - P(B \cap C) + P(A \cap B\cap C) . \end{array}

Falls die Ereignisse disjunkt sind, gilt

P(A \cup B) = P(A)+P(B) .
P(A \cup B \cup C) = P(A)+P(B) +P(C).
Bedingte Wahrscheinlichkeit
P(A | B ) = \frac {P(A \cap B)} {P(B)}
Unabhängigkeit von Ereignissen

Ein Ereignis A ist unabhängig von B, wenn

P(A | B ) = P(A | \overline{B} ) = P(A)
Totale Wahrscheinlichkeit

Sei A1 ...Ak eine disjunkte Zerlegung von Ω. Dann gilt für B ⊂ Ω:

P(B)=\sum_{i=1}^k P(B|A_i)\cdot P(A_i).

BAYES Theorem

Für zwei Ereignisse A und B mit P(B) > 0 lässt sich die Wahrscheinlichkeit von

A unter der Bedingung, dass B eingetreten ist, angeben durch die Wahrscheinlichkeit von

B unter der Bedingung, dass A eingetreten ist:

P(A\mid B) \; = \; \frac {P(B\mid A) \cdot P(A)} {P(B)}.

Hierbei ist

P(A\mid B) die (bedingte) Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass B eingetreten ist,
P(B\mid A) die (bedingte) Wahrscheinlichkeit des Ereignisses B unter der Bedingung, dass A eingetreten ist,
P(A) die A-priori-Wahrscheinlichkeit des Ereignisses A und
P(B) die A-priori-Wahrscheinlichkeit des Ereignisses B.


Endlich viele Ereignisse:

Wenn A_{i},\; i = 1, \dotsc, N eine Zerlegung der Ergebnismenge in disjunkte Ereignisse ist, gilt für die A-posteriori-Wahrscheinlichkeit P(A_i \mid B)

 P(A_i \mid B) \; = \; \frac{P(B\mid A_i) \cdot P(A_i)}{P(B)} \; = \; \frac{P\left(B\mid A_i\right)\cdot P(A_i)}{\sum_{j=1} ^{N} P\left(B\mid A_j\right) \cdot P(A_j)} .

Den letzten Umformungsschritt bezeichnet man auch als Marginalisierung.


Da ein Ereignis A und sein Komplement A^c stets eine Zerlegung der Ergebnismenge darstellen, gilt insbesondere

 P(A \mid B) \; = \; \frac{P(B \mid A) \cdot P(A)}{P(B \mid A) \cdot P(A) + P(B \mid A^c) \cdot P(A^c)}.