top of page
AutorenbildDr. Oliver Walter

Die Krux mit den Stichprobenquantilen

Für Verwirrung können manchmal scheinbar so einfache Statistiken wie die Stichprobenquantile sorgen. Zunächst könnte man denken, dass Stichprobenquantile angeben, wie groß ein Wert mindestens sein muß, damit er in der geordneten Stichprobe eine gewünschte kumulierte relative Häufigkeit p überschreitet.


Beispiel: Das Quantil mit p = 0,25 gibt an, wie groß x_p sein muß, damit es größer als

mindestens 25% der Stichprobendaten ist. Anders formuliert: Welches x_p erfüllt f(X ≤ x_p) ≥ 0,25 mit f(X ≤ x_p) als der kumulierten relativen Häufigkeit, dass X kleiner oder gleich x_p ist ?


Leider ist diese Definition nicht eindeutig, denn Werte für X, für die f(X ≤ x_p) ≥ 0,3 gilt, erfüllen auch f(X ≤ x_p) ≥ 0,25. Denn wenn unter einem Wert mindestens 30% der Stichprobendaten liegen, dann liegen darunter auch mindestens 25%.


Daher wird die Definition ergänzt durch die Forderung, dass (1-p)*100% der Stichprobendaten mindestens so groß sind wie der Quantilswert x_p.


Beispiel: Das Quantil mit p = 0,25 gibt an, wie groß x_p sein muß, damit es größer als mindestens 25% der Stichprobendaten ist und damit mindestens 75% der Stichprobendaten mindestens so groß sind wie x_p. Anders formuliert: Welches x_p erfüllt f(X ≤ x_p) ≥ 0,25 und f(X ≥ x_p) ≥ 0,75.


Die Definition eines p-Stichprobenquantils x_p lautet also: x_p ist derjenige Wert, für den f(X ≤ x_p) ≥ p und f(X ≥ x_p) ≥ 1-p gilt.


Sie finden die Definition der Stichprobenquantile kompliziert? Damit sind sie nicht die einzigen. Daher jetzt ein Beispiel mit Zahlen.


Beispiel: In der Stichprobe 100, 200, 300, 400, 500, 6000, 6000 erfüllt der Wert x=200 die Definition eines 0,25-Quantils, weil 2 (100 und 200) von 7 Daten (also 28,6% und damit mehr als 25%) kleiner oder gleich 200 sind und 6 (200, 300, 400, 500, 6000, 6000) von 7 Daten (also 85,7% und damit mehr als 75%) größer oder gleich 200 sind. Die Werte 100 und 300 erfüllen die Definition für ein 0,25-Quantil hingegen nicht.


Leider ist die Sache mit den Stichprobenquantilen noch komplizierter.


Häufig ist man in der Statistik nicht nur an der Beschreibung der Stichprobe interessiert, sondern möchte auch von der Stichprobe auf die Grundgesamtheit schließen. Man möchte also mit Hilfe von Stichprobenquantilen die Quantile in der Grundgesamtheit schätzen. Diese Schätzungen sollen möglichst gut sein. Was man dabei unter "gut" versteht, haben sich Statistiker genauer überlegt, soll uns hier aber nicht im Detail interessieren. Für Stichprobenquantile haben Hyndman und Fan (1996) sechs Eigenschaften formuliert, die sie als wünschenswert betrachten, u.a. für die Schätzung der Populationsquantile. Hyndman und Fan (1996) haben neun verschiedene Berechnungsweisen für Stichprobenquantile auf diese Eigenschaften hin untersucht und festgestellt, dass nur eine Berechnungsweise alle Eigenschaften erfüllt. Allerdings finden sie diese Berechnungsweise nicht überzeugend, da sie auf Interpolation beruht. Vier Berechnungsweisen erfüllen immerhin fünf der wünschenswerten Eigenschaften.


Für die Praxis bedeutsam ist, dass Statistikprogramme nicht die gleiche Berechnungsweise, sondern verschiedene Statistikprogramme eine oder mehrere dieser neun unterschiedlichen Berechnungsweisen verwenden. Beispielsweise benutzen SAS Berechnungsweise 3, SPSS Berechnungsweise 6 und R Berechnungsweise 7 in der Zählung von Hyndman und Fan (1996). Dadurch kann es passieren, dass die Stichprobenquantile aus verschiedenen Programmen unterschiedlich sein können.


Beispiel: In der Stichprobe 100, 200, 300, 400, 500, 6000, 6000 würden SAS und SPSS das 0,25-Quantil mit 200 angeben, R jedoch mit 250. SAS würde als 0,75-Quantil den Wert 500 angeben, SPSS den Wert 6000 und R den Wert 3250. Diese unterschiedlichen Ergebnisse wirken sich auf weitere Statistiken (Interquartilsabstand: 300 in SAS, 5800 in SPSS, 3000 in R) und Diagramme (Boxplot) aus.


Wenn man also Stichprobenquantile auf Basis einer Formel oder mit verschiedenen Programmen berechnet, darf man sich über unterschiedliche Ergebnisse nicht wundern oder vermuten, dass man sich verrechnet hat. Man sollte immer prüfen, ob die verwendeten Berechnungsweisen übereinstimmen. Wenn verschiedene Berechnungsweisen verwendet wurden, können sich dadurch unterschiedliche Ergebnisse erklären.



Literatur


Hyndman, R. J. & Fan, Y. (1996). Sample quantiles in statistical packages, American Statistician, 50, 361–365


54 Ansichten0 Kommentare

コメント


bottom of page