Vorgehen beim Hypothesentest
I. Feststellung der Verteilung des Merkmals in der Grundgesamtheit
II. Aufstellen der Nullhypothese
III. Festlegen der Testfunktion T
IV. Festlegen des Annahmebereichs ("Nichtablehnungsbereichs") (für ein zu bestimmendes Signifikanzniveau)
Fällt die Prüfgröße
in den Bereich [
u;
o],
wird H0 nicht abgelehnt. Es soll sein
(beachte: ein- oder zweiseitig)
α : Signifikanzniveau oder α-Fehler
V. Stichprobe erheben
VI. Entscheidung treffen
| H0 ist wirklich wahr | H1 ist wirklich wahr | |
|---|---|---|
| H0 wird beibehalten | richtige Entscheidung (1-α) | Fehler 2. Art (β-Fehler) |
| H1 wird angenommen | Fehler 1. Art (α-Fehler) | richtige Entscheidung (1-β) |
Tests auf Lageparameter (Erwartungswert, Median, Anteilswert)
Test auf Erwartungswert
| Test | ![]() | ![]() |
|---|---|---|
| zweiseitig | μ = μ0 | μ ≠ μ0 |
| rechtsseitig | μ ≤ μ0 | μ > μ0 |
| linksseitig | μ ≥ μ0 | μ < μ0 |
1. X ist normalverteilt, σ ist bekannt bei beliebigem n bzw. näherungsweise normalverteilt bei n > 30
- Testfunktion
-
(Gauß-Test):
| Ablehnungsbereich | |
|---|---|
| zweiseitig | ![]() |
| rechtsseitig | ![]() |
| linksseitig | ![]() |
2. X ist normalverteilt, σ ist unbekannt bei beliebigem n
- Testfunktion
-
(t-Test).
| Ablehnungsbereich | |
|---|---|
| zweiseitig | ![]() |
| rechtsseitig | ![]() |
| linksseitig | ![]() |
3. X ist näherungsweise normalverteilt, σ ist unbekannt bei n > 30
- Testfunktion
-
(Gauß-Test) .
| Ablehnungsbereich | |
|---|---|
| zweiseitig | ![]() |
| rechtsseitig | ![]() |
| linksseitig | ![]() |
Vorzeichentest
Einstichprobenproblem
| Einseitig | Zweiseitig | ||
|---|---|---|---|
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
Die Stichprobenwerte, die größer als der hypothetische Median
sind, bekommen ein "+" zugeordnet;
Werte, die kleiner sind, ein "-". Die Anzahl der positiven Vorzeichen wird gezählt und dient als Teststatistik.
Zweistichprobenproblem
Die
Beobachtungspaare dürfen nicht voneinander abhängen, d.h. das Wertepaar
muss unabhängig
vom Wertepaar
sein.
Besitzen beide Grundgesamtheiten den gleichen Median, gilt
.
Folgende Hypothesen können mit dem Vorzeichentest geprüft werden:
| Einseitig | Zweiseitig | ||
|---|---|---|---|
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
Die Wertepaare der Stichproben, bei denen
gilt, bekommen ein "+" zugeordnet;
Wertepaare, für die
gilt, ein "-". Die Anzahl der positiven Vorzeichen wird gezählt
und dient als Teststatistik. Die Teststatistik entspricht der Anzahl der positiven Vergleiche (Differenzen der Werte bzw. Ränge):
mit
Für das Einstichprobenproblem sind die Werte der zweiten Stichprobe durch den hypothetischen Median zu ersetzen.
Bei Gültigkeit der Nullhypothese
ist die Summe der positiven Differenzen binomialverteilt mit
,
da der Median dem 50 %-Quantil entspricht. n' bezeichnet den nach Behandlung von Ties (Nulldifferenzen, Rangbindungen, s.u.)
verbleibenden Stichprobenumfang. Bei Gültigkeit der Nullyhypothese ist die Verteilung der Prüfgröße symmetrisch.
Approximation durch die Normalverteilung
Mit
nähert sich die Binomialverteilung einer Normalverteilung mit
,
als Faustregel
(
).
Mit
bzw.
ist die z-standardisierte Größe

näherungsweise standardnormalverteilt.
Bindungen (Nulldifferenzen) Sind im Zweistichprobenproblem die Werte von Beobachtungen von der ersten zur zweiten Stichprobe unverändert
oder im Einstichprobenproblem einige Werte gleich dem Median, ergeben sich Nulldifferenzen bzw. Bindungen (Ties),
die man so behandeln kann:
- Beobachtungen mit Rangbindungen werden eliminiert, d.h. der Stichprobenumfang wird reduziert.
- Die Beobachtungen werden zu gleichen Teilen den Gruppen zugeordnet. Bei ungerader Anzahl von Bindungen wird ein Beobachtungspaar eliminiert.
- Die Beobachtungen werden jeweils mit einer Wahrscheinlichkeit von 0,5 einer der beiden Gruppen (+ oder -) zugeordnet.
Test auf Anteilswert (Binomialtest)
Der Anteilswert θ wird geschätzt durch
-
.
Mit dem Binomialtest können folgende Hypothesenpaare für θ getestet werden:
| Test | ![]() | ![]() |
|---|---|---|
| zweiseitig | ![]() | ![]() |
| rechtsseitig | ![]() | ![]() |
| linksseitig | ![]() | ![]() |
- für n > 30 , nθ0 ≥ 10 n(1-θ0) ≥ 10
- kann man durch die Gauß-Verteilung approximieren:
- Testfunktion
-
(Gauß-Test) .
| Ablehnungsbereich | |
|---|---|
| zweiseitig | ![]() |
| rechtsseitig | ![]() |
| linksseitig | ![]() |
- für n < 30 oder nθ0 < 10 oder n(1-θ0) < 10
- ist der exakte Binomialtest anzuwenden:
- Testfunktion
Die Teststatistik
gibt an, wie oft das Merkmal in einer zufälligen Stichprobe vom Umfang
aufgetreten ist.
Unter der Nullhypothese
ist die Teststatistik
-verteilt, das heißt
-
.
- Ablehnungsbereich
Da die Teststatistik diskret verteilt ist, kann das vorgegebene Signifikanzniveau
in der Regel nicht eingehalten werden.
Daher wird gefordert, die kritischen Werte so zu wählen, dass für ein möglichst großes exaktes Signifikanzniveau
gilt
.
Für den zweiseitigen Test werden daher als kritische Werte das größte
und das kleinste
bestimmt, für die gilt
-
und -
.
Das exakte Signifikanzniveau ergibt sich als
.
Für die beiden einseitigen Tests wird analog verfahren.
| Test | Kritische Werte | Kritischer Bereich | Grenze(n) |
|---|---|---|---|
| zweiseitig | und ![]() | ![]() | |
| rechtsseitig | ![]() | ![]() | c = kleinster Wert, für den ![]() |
| linksseitig | ![]() | ![]() | c = größter Wert, für den ![]() |
Varianzanalyse (univariat, ANOVA)
Man untersucht man den Einfluss einer unabhängigen Variable (Faktor) mit k verschiedenen Stufen (Gruppen)
auf die Ausprägungen einer Zufallsvariablen. Dazu werden die k Mittelwerte der Ausprägungen für die Gruppen
miteinander verglichen, und zwar vergleicht man die Varianz zwischen den Gruppen mit der Varianz innerhalb der Gruppen.
Weil sich die totale Varianz aus den zwei genannten Komponenten zusammensetzt, spricht man von Varianzanalyse.
Die einfaktorielle ANOVA ist die Verallgemeinerung des t-Tests bei mehr als zwei Gruppen. Für k=2 ist sie äquivalent mit dem t-Test.
Es sei
der Erwartungswert der abhängigen Variable in der i. Gruppe.
-
(Es besteht kein Unterschied zwischen den Erwartungswerten der Gruppen.)
-
(Es besteht zwischen mindestens zwei Erwartungswerten ein Unterschied.)
→ Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit, dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen.
Effektdarstellung :
Darin sind:
Xij: Zielvariable; annahmegemäß in den Gruppen normalverteilt
k: Anzahl der Faktorstufen des betrachteten Faktors
ni: Stichprobenumfänge für die einzelnen Faktorstufen
μ: arithmetisches Mittel der Erwartungswerte in den Gruppen
αi: Effekt der i-ten Faktorstufe
εij: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleicher (unbekannter) Varianz σ2.
Erwartungswert in der i. Gruppe: 
Quadratsummen
Die gesamte Variabilität, QST, ausgedrückt wie die gesamte quadratische Abweichung vom Mittelwert,
lässt sich in zwei Teile zerlegen.
Der erste Teil QSA (Gruppenzugehörigkeit) lässt sich ausdrücken als die quadratische Abweichung
der Mittelwerte vom Gesamtmittelwert der Gruppen. Der Rest QSE (Zufall) der die Unterschiede innerhalb
der Gruppen betrifft, wird ausgedrückt als die gesamte Abweichung von den Mittelwerten in den Gruppen.
Darin ist:
und
Die zwei Quadratsummen QSA und QSE sind stochastisch unabhängig.
Im Fall von k Gruppen mit gleichem Umfang n/k gilt unter der Nullhypothese außerdem:
-
folgt einer Chi-Quadrat-Verteilung mit k-1 Freiheitsgraden,
und
-
folgt einer Chi-Quadrat-Verteilung mit n-k Freiheitsgraden.
mittlere Quadratsummen:
-
und :
Prüfgröße:
Im Falle Gruppen gleicher Größe ist F unter der Nullhypothese also F-Verteilt
mit k-1 Freiheitsgraden im Zähler und n-k Freiheitsgraden im Nenner.
Wenn die Prüfgröße signifikant wird, unterscheiden sich mindestens zwei Gruppen voneinander.
In Post-Hoc-Tests kann dann berechnet werden, zwischen welchen einzelnen Gruppen der Unterschied liegt.
Tests auf Streuung
Test auf Varianz
| Test | ![]() | ![]() |
|---|---|---|
| zweiseitig | ![]() | ![]() |
| rechtsseitig | ![]() | ![]() |
| linksseitig | ![]() | ![]() |
1. X ist normalverteilt, μ ist unbekannt, n beliebig
- Testfunktion
-

| Ablehnungsbereich | |
|---|---|
| zweiseitig | oder ![]() |
| rechtsseitig | ![]() |
| linksseitig | ![]() |
2. X ist normalverteilt, μ ist bekannt, n beliebig
- Testfunktion
-

| Ablehnungsbereich | |
|---|---|
| zweiseitig | oder ![]() |
| rechtsseitig | ![]() |
| linksseitig | ![]() |
Tests auf Zusammenhangs- und Assoziationsparameter
Chi-Quadrat-Unabhängigkeitstest
- Nullhypothese
-
: Die Merkmale
und
sind stochastisch unabhängig.
Die Beobachtungen der Merkmale
und
liegen paarweise in
bzw.
Klassen vor.
Es gibt insgesamt
paarweise Beobachtungen von
und
, die sich auf
Kategorien verteilen. Aufstellung z. B. in einer Häufigkeitstabelle:
Merkmal ![]() | Summe Σ | ||||||
Merkmal ![]() | 1 | 2 | … | k | … | r | nj. |
| 1 | n11 | n12 | ... | n1k | ... | n1r | n1. |
| 2 | n21 | n22 | … | n2k | … | n2r | n2. |
| … | … | … | … | … | … | … | … |
| j | … | … | … | njk | … | … | nj. |
| … | … | … | … | … | … | … | … |
| m | nm1 | nm2 | … | nmk | … | nmr | nm. |
| Summe Σ | n.1 | n.2 | … | n.k | … | n.r | n |
Absolute Randhäufigkeiten
bzw. 
-
und 
Prüfgröße für den Unabhängigkeitstest:
Mit :
wird abgelehnt, wenn
ist.
Anpassungs- oder Verteilungstests
Chi-Quadrat-Anpassungs- oder Verteilungstest
Die Wahrscheinlichkeiten eines Merkmals
seien in der Grundgesamtheit unbekannt.
Nullhypothese:
: Das Merkmal
besitzt die Wahrscheinlichkeitsverteilung 
Für
unabhängige Beobachtungen
des Merkmals
wird die Zahl
der Beobachtungen in der
-ten Klasse ist die beobachtete Häufigkeit
.
Im Vergleich dazu wird die hypothetische Verteilung bestimmt aufgrund der Wahrscheinlichkeit
,
dass eine Ausprägung von
in die Kategorie
fällt. Die unter
zu erwartende Häufigkeit ist:
Die Prüfgröße (Größe der Abweichung)
ist bei ausreichend großen
annähernd chi-Quadrat-verteilt mit
Freiheitsgraden.
wird abgelehnt, wenn
gilt.
Kolmogorow-Smirnow-Anpassungstest
Test auf Übereinstimmung zweier Wahrscheinlichkeitsverteilungen.
Man betrachtet ein statistisches Merkmal X, dessen Verteilung in der Grundgesamtheit unbekannt ist.
-
(Die Zufallsvariable X besitzt die Wahrscheinlichkeitsverteilung F0.)
-
(Die Zufallsvariable X besitzt eine andere Wahrscheinlichkeitsverteilung als F0.)
Der Kolmogorow-Smirnow-Test vergleicht die empirische Verteilungsfunktion
mit
mittels der Teststatistik
-
(sup: Supremum)
Die Teststatistik ist unabhängig von der hypothetischen Verteilung F0.
Ist der Wert der Teststatistik größer als der entsprechende tabellierte kritische Wert, so wird die Nullhypothese verworfen.
Einstichprobenproblem
Von einer reellen Zufallsvariablen
liegen
aufsteigend sortierte Beobachtungswerte
(
) vor.
Von diesen Beobachtungen wird die relative Summenhäufigkeit
mit der entsprechenden hypothetischen
Verteilung der Grundgesamtheit F0(xi) verglichen. Voraussetzung:
ist stetig.
Für jedes
werden die absoluten Differenzen
-
und :
berechnet, wobei
gesetzt wird. Wenn die größte Differenz
aus allen Differenzen
, 
einen kritischen Wert
übersteigt, wird die Hypothese abgelehnt.
Bis n=40 greift man auf Tabellen zurück (s. Anhang). Für größere
werden sie über
angenähert.
Zweistichprobenproblem
Liegt nun zusätzlich zur Zufallsvariablen
eine entsprechende Zufallsvariable
vor (mit
geordneten Werten
),
so kann durch den Zweistichprobentest überprüft werden, ob
und
derselben Verteilungsfunktion folgen.
Von beiden Beobachtungen werden die die Differenzen der relativen Summenfunktionen
bzw.
ermittelt:
-
und :
.
Die Nullhypothese wird abgelehnt, falls
den kritischen Wert
überschreitet.
Für kleine Werte von
und
greift man auf Tabellen zurück.
Für große Werte von n und m wird die Nullhypothese abgelehnt, falls
-
,
wobei
für große
und
näherungsweise als
berechnet werden kann.
Tests in der Regressions- und Zeitreihenanalyse
(Anm. steht noch aus: Hier schon mal die lin. Regression:)
Lineare Regression
mittels der Methode der kleinsten Quadrate, d.h. durch Minimierung der summierten Quadrate der Residuen
bezüglich a und b.
Nach Ausmultiplikation, Ableiten und Nullsetzen
erhält man die gesuchten Regressionskoeffizienten als die Lösungen
und
-
, wobei
.
Mit dem Verschiebungssatz:
Schätzungen ŷ
Residuen ri :
Stichprobenvarianz der Residuen:
Bestimmtheitsmaß
mit dem Verschiebungssatz :
Varianz der Residuen











































und 




















oder 


oder 
















