Vorgehen beim Hypothesentest
I. Feststellung der Verteilung des Merkmals in der Grundgesamtheit
II. Aufstellen der Nullhypothese
III. Festlegen der Testfunktion T
IV. Festlegen des Annahmebereichs ("Nichtablehnungsbereichs") (für ein zu bestimmendes Signifikanzniveau)
Fällt die Prüfgröße in den Bereich [
u;
o],
wird H0 nicht abgelehnt. Es soll sein
(beachte: ein- oder zweiseitig)
α : Signifikanzniveau oder α-Fehler
V. Stichprobe erheben
VI. Entscheidung treffen
H0 ist wirklich wahr | H1 ist wirklich wahr | |
---|---|---|
H0 wird beibehalten | richtige Entscheidung (1-α) | Fehler 2. Art (β-Fehler) |
H1 wird angenommen | Fehler 1. Art (α-Fehler) | richtige Entscheidung (1-β) |
Tests auf Lageparameter (Erwartungswert, Median, Anteilswert)
Test auf Erwartungswert
Test | ![]() | ![]() |
---|---|---|
zweiseitig | μ = μ0 | μ ≠ μ0 |
rechtsseitig | μ ≤ μ0 | μ > μ0 |
linksseitig | μ ≥ μ0 | μ < μ0 |
1. X ist normalverteilt, σ ist bekannt bei beliebigem n bzw. näherungsweise normalverteilt bei n > 30
- Testfunktion
-
(Gauß-Test):
Ablehnungsbereich | |
---|---|
zweiseitig | ![]() |
rechtsseitig | ![]() |
linksseitig | ![]() |
2. X ist normalverteilt, σ ist unbekannt bei beliebigem n
- Testfunktion
-
(t-Test).
Ablehnungsbereich | |
---|---|
zweiseitig | ![]() |
rechtsseitig | ![]() |
linksseitig | ![]() |
3. X ist näherungsweise normalverteilt, σ ist unbekannt bei n > 30
- Testfunktion
-
(Gauß-Test) .
Ablehnungsbereich | |
---|---|
zweiseitig | ![]() |
rechtsseitig | ![]() |
linksseitig | ![]() |
Vorzeichentest
Einstichprobenproblem
Einseitig | Zweiseitig | ||
---|---|---|---|
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
Die Stichprobenwerte, die größer als der hypothetische Median sind, bekommen ein "+" zugeordnet;
Werte, die kleiner sind, ein "-". Die Anzahl der positiven Vorzeichen wird gezählt und dient als Teststatistik.
Zweistichprobenproblem
Die Beobachtungspaare dürfen nicht voneinander abhängen, d.h. das Wertepaar
muss unabhängig
vom Wertepaar sein.
Besitzen beide Grundgesamtheiten den gleichen Median, gilt .
Folgende Hypothesen können mit dem Vorzeichentest geprüft werden:
Einseitig | Zweiseitig | ||
---|---|---|---|
![]() | ![]() | ![]() | ![]() |
![]() | ![]() | ![]() | ![]() |
Die Wertepaare der Stichproben, bei denen gilt, bekommen ein "+" zugeordnet;
Wertepaare, für die gilt, ein "-". Die Anzahl der positiven Vorzeichen wird gezählt
und dient als Teststatistik. Die Teststatistik entspricht der Anzahl der positiven Vergleiche (Differenzen der Werte bzw. Ränge):
mit
Für das Einstichprobenproblem sind die Werte der zweiten Stichprobe durch den hypothetischen Median zu ersetzen.
Bei Gültigkeit der Nullhypothese ist die Summe der positiven Differenzen binomialverteilt mit
,
da der Median dem 50 %-Quantil entspricht. n' bezeichnet den nach Behandlung von Ties (Nulldifferenzen, Rangbindungen, s.u.)
verbleibenden Stichprobenumfang. Bei Gültigkeit der Nullyhypothese ist die Verteilung der Prüfgröße symmetrisch.
Approximation durch die Normalverteilung
Mit nähert sich die Binomialverteilung einer Normalverteilung mit
,
als Faustregel (
).
Mit bzw.
ist die z-standardisierte Größe
näherungsweise standardnormalverteilt.
Bindungen (Nulldifferenzen) Sind im Zweistichprobenproblem die Werte von Beobachtungen von der ersten zur zweiten Stichprobe unverändert
oder im Einstichprobenproblem einige Werte gleich dem Median, ergeben sich Nulldifferenzen bzw. Bindungen (Ties),
die man so behandeln kann:
- Beobachtungen mit Rangbindungen werden eliminiert, d.h. der Stichprobenumfang wird reduziert.
- Die Beobachtungen werden zu gleichen Teilen den Gruppen zugeordnet. Bei ungerader Anzahl von Bindungen wird ein Beobachtungspaar eliminiert.
- Die Beobachtungen werden jeweils mit einer Wahrscheinlichkeit von 0,5 einer der beiden Gruppen (+ oder -) zugeordnet.
Test auf Anteilswert (Binomialtest)
Der Anteilswert θ wird geschätzt durch
-
.
Mit dem Binomialtest können folgende Hypothesenpaare für θ getestet werden:
Test | ![]() | ![]() |
---|---|---|
zweiseitig | ![]() | ![]() |
rechtsseitig | ![]() | ![]() |
linksseitig | ![]() | ![]() |
- für n > 30 , nθ0 ≥ 10 n(1-θ0) ≥ 10
- kann man durch die Gauß-Verteilung approximieren:
- Testfunktion
-
(Gauß-Test) .
Ablehnungsbereich | |
---|---|
zweiseitig | ![]() |
rechtsseitig | ![]() |
linksseitig | ![]() |
- für n < 30 oder nθ0 < 10 oder n(1-θ0) < 10
- ist der exakte Binomialtest anzuwenden:
- Testfunktion
Die Teststatistik gibt an, wie oft das Merkmal in einer zufälligen Stichprobe vom Umfang
aufgetreten ist.
Unter der Nullhypothese ist die Teststatistik
-verteilt, das heißt
-
.
- Ablehnungsbereich
Da die Teststatistik diskret verteilt ist, kann das vorgegebene Signifikanzniveau in der Regel nicht eingehalten werden.
Daher wird gefordert, die kritischen Werte so zu wählen, dass für ein möglichst großes exaktes Signifikanzniveau gilt
.
Für den zweiseitigen Test werden daher als kritische Werte das größte und das kleinste
bestimmt, für die gilt
-
und
-
.
Das exakte Signifikanzniveau ergibt sich als
.
Für die beiden einseitigen Tests wird analog verfahren.
Test | Kritische Werte | Kritischer Bereich | Grenze(n) |
---|---|---|---|
zweiseitig | ![]() ![]() | ![]() | |
rechtsseitig | ![]() | ![]() | c = kleinster Wert, für den ![]() |
linksseitig | ![]() | ![]() | c = größter Wert, für den ![]() |
Varianzanalyse (univariat, ANOVA)
Man untersucht man den Einfluss einer unabhängigen Variable (Faktor) mit k verschiedenen Stufen (Gruppen)
auf die Ausprägungen einer Zufallsvariablen. Dazu werden die k Mittelwerte der Ausprägungen für die Gruppen
miteinander verglichen, und zwar vergleicht man die Varianz zwischen den Gruppen mit der Varianz innerhalb der Gruppen.
Weil sich die totale Varianz aus den zwei genannten Komponenten zusammensetzt, spricht man von Varianzanalyse.
Die einfaktorielle ANOVA ist die Verallgemeinerung des t-Tests bei mehr als zwei Gruppen. Für k=2 ist sie äquivalent mit dem t-Test.
Es sei der Erwartungswert der abhängigen Variable in der i. Gruppe.
-
(Es besteht kein Unterschied zwischen den Erwartungswerten der Gruppen.)
-
(Es besteht zwischen mindestens zwei Erwartungswerten ein Unterschied.)
→ Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit, dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen.
Effektdarstellung :
Darin sind:
Xij: Zielvariable; annahmegemäß in den Gruppen normalverteilt
k: Anzahl der Faktorstufen des betrachteten Faktors
ni: Stichprobenumfänge für die einzelnen Faktorstufen
μ: arithmetisches Mittel der Erwartungswerte in den Gruppen
αi: Effekt der i-ten Faktorstufe
εij: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleicher (unbekannter) Varianz σ2.
Erwartungswert in der i. Gruppe:
Quadratsummen
Die gesamte Variabilität, QST, ausgedrückt wie die gesamte quadratische Abweichung vom Mittelwert,
lässt sich in zwei Teile zerlegen.
Der erste Teil QSA (Gruppenzugehörigkeit) lässt sich ausdrücken als die quadratische Abweichung
der Mittelwerte vom Gesamtmittelwert der Gruppen. Der Rest QSE (Zufall) der die Unterschiede innerhalb
der Gruppen betrifft, wird ausgedrückt als die gesamte Abweichung von den Mittelwerten in den Gruppen.
Darin ist:
und
Die zwei Quadratsummen QSA und QSE sind stochastisch unabhängig.
Im Fall von k Gruppen mit gleichem Umfang n/k gilt unter der Nullhypothese außerdem:
-
folgt einer Chi-Quadrat-Verteilung mit k-1 Freiheitsgraden,
und
-
folgt einer Chi-Quadrat-Verteilung mit n-k Freiheitsgraden.
mittlere Quadratsummen:
-
und :
Prüfgröße:
Im Falle Gruppen gleicher Größe ist F unter der Nullhypothese also F-Verteilt
mit k-1 Freiheitsgraden im Zähler und n-k Freiheitsgraden im Nenner.
Wenn die Prüfgröße signifikant wird, unterscheiden sich mindestens zwei Gruppen voneinander.
In Post-Hoc-Tests kann dann berechnet werden, zwischen welchen einzelnen Gruppen der Unterschied liegt.
Tests auf Streuung
Test auf Varianz
Test | ![]() | ![]() |
---|---|---|
zweiseitig | ![]() | ![]() |
rechtsseitig | ![]() | ![]() |
linksseitig | ![]() | ![]() |
1. X ist normalverteilt, μ ist unbekannt, n beliebig
- Testfunktion
-
Ablehnungsbereich | |
---|---|
zweiseitig | ![]() ![]() |
rechtsseitig | ![]() |
linksseitig | ![]() |
2. X ist normalverteilt, μ ist bekannt, n beliebig
- Testfunktion
-
Ablehnungsbereich | |
---|---|
zweiseitig | ![]() ![]() |
rechtsseitig | ![]() |
linksseitig | ![]() |
Tests auf Zusammenhangs- und Assoziationsparameter
Chi-Quadrat-Unabhängigkeitstest
- Nullhypothese
-
: Die Merkmale
und
sind stochastisch unabhängig.
Die Beobachtungen der Merkmale und
liegen paarweise in
bzw.
Klassen vor.
Es gibt insgesamt paarweise Beobachtungen von
und
, die sich auf
Kategorien verteilen. Aufstellung z. B. in einer Häufigkeitstabelle:
Merkmal ![]() | Summe Σ | ||||||
Merkmal ![]() | 1 | 2 | … | k | … | r | nj. |
1 | n11 | n12 | ... | n1k | ... | n1r | n1. |
2 | n21 | n22 | … | n2k | … | n2r | n2. |
… | … | … | … | … | … | … | … |
j | … | … | … | njk | … | … | nj. |
… | … | … | … | … | … | … | … |
m | nm1 | nm2 | … | nmk | … | nmr | nm. |
Summe Σ | n.1 | n.2 | … | n.k | … | n.r | n |
Absolute Randhäufigkeiten bzw.
-
und
Prüfgröße für den Unabhängigkeitstest:
Mit :
wird abgelehnt, wenn
ist.
Anpassungs- oder Verteilungstests
Chi-Quadrat-Anpassungs- oder Verteilungstest
Die Wahrscheinlichkeiten eines Merkmals seien in der Grundgesamtheit unbekannt.
Nullhypothese: : Das Merkmal
besitzt die Wahrscheinlichkeitsverteilung
Für unabhängige Beobachtungen
des Merkmals
wird die Zahl
der Beobachtungen in der -ten Klasse ist die beobachtete Häufigkeit
.
Im Vergleich dazu wird die hypothetische Verteilung bestimmt aufgrund der Wahrscheinlichkeit ,
dass eine Ausprägung von in die Kategorie
fällt. Die unter
zu erwartende Häufigkeit ist:
Die Prüfgröße (Größe der Abweichung)
ist bei ausreichend großen annähernd chi-Quadrat-verteilt mit
Freiheitsgraden.
wird abgelehnt, wenn
gilt.
Kolmogorow-Smirnow-Anpassungstest
Test auf Übereinstimmung zweier Wahrscheinlichkeitsverteilungen.
Man betrachtet ein statistisches Merkmal X, dessen Verteilung in der Grundgesamtheit unbekannt ist.
-
(Die Zufallsvariable X besitzt die Wahrscheinlichkeitsverteilung F0.)
-
(Die Zufallsvariable X besitzt eine andere Wahrscheinlichkeitsverteilung als F0.)
Der Kolmogorow-Smirnow-Test vergleicht die empirische Verteilungsfunktion mit
mittels der Teststatistik
-
(sup: Supremum)
Die Teststatistik ist unabhängig von der hypothetischen Verteilung F0.
Ist der Wert der Teststatistik größer als der entsprechende tabellierte kritische Wert, so wird die Nullhypothese verworfen.
Einstichprobenproblem
Von einer reellen Zufallsvariablen liegen
aufsteigend sortierte Beobachtungswerte
(
) vor.
Von diesen Beobachtungen wird die relative Summenhäufigkeit mit der entsprechenden hypothetischen
Verteilung der Grundgesamtheit F0(xi) verglichen. Voraussetzung: ist stetig.
Für jedes werden die absoluten Differenzen
-
und :
berechnet, wobei gesetzt wird. Wenn die größte Differenz
aus allen Differenzen
,
einen kritischen Wert übersteigt, wird die Hypothese abgelehnt.
Bis n=40 greift man auf Tabellen zurück (s. Anhang). Für größere werden sie über
angenähert.
Zweistichprobenproblem
Liegt nun zusätzlich zur Zufallsvariablen eine entsprechende Zufallsvariable
vor (mit
geordneten Werten
),
so kann durch den Zweistichprobentest überprüft werden, ob und
derselben Verteilungsfunktion folgen.
Von beiden Beobachtungen werden die die Differenzen der relativen Summenfunktionen bzw.
ermittelt:
-
und :
.
Die Nullhypothese wird abgelehnt, falls den kritischen Wert
überschreitet.
Für kleine Werte von und
greift man auf Tabellen zurück.
Für große Werte von n und m wird die Nullhypothese abgelehnt, falls
-
,
wobei für große
und
näherungsweise als
berechnet werden kann.
Tests in der Regressions- und Zeitreihenanalyse
(Anm. steht noch aus: Hier schon mal die lin. Regression:)
Lineare Regression
mittels der Methode der kleinsten Quadrate, d.h. durch Minimierung der summierten Quadrate der Residuen
bezüglich a und b.
Nach Ausmultiplikation, Ableiten und Nullsetzen
erhält man die gesuchten Regressionskoeffizienten als die Lösungen
und
-
, wobei
.
Mit dem Verschiebungssatz:
Schätzungen ŷ
Residuen ri :
Stichprobenvarianz der Residuen:
Bestimmtheitsmaß
mit dem Verschiebungssatz :
Varianz der Residuen