Vollständigkeit (Statistik)

In der Statistik ist Vollständigkeit ein Eigentum eines statistischen in Bezug auf ein Modell für eine Reihe von beobachteten Daten. Hauptsächlich ist es eine Bedingung, die sicherstellt, dass die Rahmen des Wahrscheinlichkeitsvertriebs, der das Modell vertritt, alle auf der Grundlage vom statistischen geschätzt werden können: Es stellt sicher, dass der Vertrieb entsprechend verschiedenen Werten der Rahmen verschieden ist.

Es ist nah mit der Idee von identifiability verbunden, aber in der statistischen Theorie wird es häufig als eine Bedingung gefunden, die einem genügend statistischen auferlegt ist, von dem bestimmte Optimality-Ergebnisse abgeleitet werden.

Definition

Denken Sie eine zufällige Variable X, dessen Wahrscheinlichkeitsvertrieb einer parametrischen Familie des Wahrscheinlichkeitsvertriebs P parametrisiert durch θ gehört.

Formell ist ein statistischer s eine messbare Funktion X; so wird ein statistischer s auf einer zufälligen Variable X bewertet, den Wert s (X) nehmend, der selbst eine zufällige Variable ist. Eine gegebene Verwirklichung der zufälligen Variable X( ω) ist ein Datenpunkt (Gegebenheit), auf der der statistische s den Wert s (X( ω)) nimmt.

Wie man

sagt, ist der statistische s für den Vertrieb X abgeschlossen, wenn für jede messbare Funktion g die folgende Implikation hält:

:E (g (s (X))) = 0 für den ganzen θ deutet dass P (g (s (X)) = 0) = 1 für den ganzen θ an.

Wie man

sagt, ist der statistische s abgeschlossener boundedly, wenn die Implikation für alle begrenzten Funktionen g hält.

Beispiel 1: Modell von Bernoulli

Das Modell von Bernoulli lässt einen ganzen statistischen zu. Lassen Sie X eine zufällige Probe der Größe n solch sein, dass jeder X denselben Vertrieb von Bernoulli mit dem Parameter p hat. Lassen Sie T die Zahl 1's beobachtet in der Probe sein. T ist ein statistische von X, der einen Binomischen Vertrieb mit Rahmen (n, p) hat. Wenn der Parameter-Raum für p [0,1] ist, dann ist T ein ganzer statistischer. Um das zu sehen, bemerken Sie das

:

Bemerken Sie auch dass weder p noch 1 − p kann 0 sein. Folglich, wenn und nur wenn:

:

p / (1 &minus anzeigend; p) durch r kommt man:

:

Bemerken Sie erstens, dass die Reihe von r der ganze positive reals abgesehen von 0 ist. Außerdem E (g (T)) ist ein Polynom in r und kann nur deshalb zu 0 identisch sein, wenn alle Koeffizienten 0, d. h. g (t) = 0 für den ganzen t sind.

Es ist wichtig zu bemerken, dass das Ergebnis, dass alle Koeffizienten 0 sein müssen, wegen der Reihe von r erhalten wurde. Der Parameter-Raum war begrenzt gewesen und mit mehreren Elementen, die kleiner sind als n, es könnte möglich sein, die geradlinigen Gleichungen in g (t) erhalten durch das Ersetzen der Werte von r zu lösen und Lösungen zu bekommen, die von 0 verschieden sind. Zum Beispiel, wenn n = 1 und der parametrische Raum {0.5} ist, ist eine einzelne Beobachtung, T nicht abgeschlossen. Bemerken Sie dass mit der Definition:

:

dann, E (g (T)) = 0, obwohl g (t) nicht 0 für t = 0 noch für t = 1 ist.

Beispiel 2: Summe von normals

Dieses Beispiel wird zeigen, dass, in einer Probe der Größe 2 von einer Normalverteilung mit der bekannten Abweichung, der StatistikX1+X2 abgeschlossen und genügend ist. Denken Sie (X, X) sind unabhängig, identisch hat zufällige Variablen verteilt, die normalerweise mit der Erwartung θ und Abweichung 1 verteilt sind.

Die Summe

:

ist ein ganzer statistischer für θ.

Um das zu zeigen, ist es genügend zu demonstrieren, dass es keine solche Nichtnullfunktion dass die Erwartung von gibt

:

bleibt Null unabhängig vom Wert von θ.

Diese Tatsache kann wie folgt gesehen werden. Der Wahrscheinlichkeitsvertrieb X + X ist mit der Erwartung und Abweichung 2 normal. Seine Wahrscheinlichkeitsdichte-Funktion darin ist deshalb zu proportional

:

Die Erwartung von g würde deshalb oben eine Konstante Zeiten sein

:

Ein wenig Algebra reduziert das auf

:

wo k (θ) nirgends Null und ist

:

Als eine Funktion von θ ist das zweiseitiger Laplace verwandeln sich von h (X) und kann nicht identisch Null-sein, wenn h (x) Null fast überall nicht ist. Der Exponential-ist nicht Null, so kann das nur geschehen, wenn g (x) Null fast überall ist.

Beziehung zur genügend Statistik

Für einige parametrische Familien besteht ein ganzer genügend statistischer nicht. Außerdem braucht ein minimaler genügend statistischer nicht zu bestehen. (Ein Fall, in dem es nicht genügend statistisch minimal gibt, wurde von Bahadur 1957 gezeigt.) Unter milden Bedingungen besteht ein minimaler genügend statistischer wirklich immer. Insbesondere diese Bedingungen halten immer, ob die zufälligen Variablen (vereinigt mit P) alle getrennt sind oder alle dauernd sind.

Wichtigkeit von der Vollständigkeit

Der Begriff der Vollständigkeit hat viele Anwendungen in der Statistik besonders in den folgenden zwei Lehrsätzen der mathematischen Statistik.

Lehrsatz von Lehmann-Scheffé

Vollständigkeit kommt im Lehrsatz von Lehmann-Scheffé, vor

der dass feststellt, wenn ein statistischer, der unvoreingenommen, abgeschlossen und für einen Parameter θ dann genügend ist, es der beste mittelunvoreingenommene Vorkalkulator für θ ist. Mit anderen Worten hat das statistisch einen kleineren erwarteten Schadensumfang für jede konvexe Verlust-Funktion; in vielen Praxis-Anwendungen mit der karierten Verlust-Funktion hat es einen kleineren karierten Mittelfehler unter irgendwelchen Vorkalkulatoren mit demselben erwarteten Wert.

Siehe auch minimale Abweichung unvoreingenommener Vorkalkulator.

Der Lehrsatz von Basu

Begrenzte Vollständigkeit kommt im Lehrsatz von Basu vor, der feststellt, dass ein statistischer, der sowohl boundedly abgeschlossen als auch genügend ist, von irgendwelchem untergeordnet statistisch unabhängig ist.

Der Lehrsatz von Bahadur

Begrenzte Vollständigkeit kommt auch im Lehrsatz von Bahadur vor. Wenn ein statistischer genügend ist und abgeschlossener boundedly, dann ist es genügend minimal.

Referenzen


Der Miseducation von Lauryn Hill / Moral
Impressum & Datenschutz