Konvergenz von zufälligen Variablen

In der Wahrscheinlichkeitstheorie, dort bestehen Sie mehrere verschiedene Begriffe der Konvergenz von zufälligen Variablen. Die Konvergenz von Folgen von zufälligen Variablen zu etwas Grenze zufällige Variable ist ein wichtiges Konzept in der Wahrscheinlichkeitstheorie und seinen Anwendungen auf die Statistik und stochastischen Prozesse. Dieselben Konzepte sind in der allgemeineren Mathematik als stochastische Konvergenz bekannt, und sie formalisieren die Idee, dass, wie man manchmal erwarten kann, sich eine Folge von im Wesentlichen zufälligen oder unvorhersehbaren Ereignissen in ein Verhalten niederlässt, das im Wesentlichen unveränderlich ist, wenn Sachen weit genug in die Folge studiert werden. Die verschiedenen möglichen Begriffe der Konvergenz beziehen sich darauf, wie solch ein Verhalten charakterisiert werden kann: Zwei sogleich verstandene Handlungsweisen bestehen darin, dass die Folge schließlich einen unveränderlichen Wert nimmt, und dass Werte in der Folge fortsetzen sich zu ändern, aber durch einen unveränderlichen Wahrscheinlichkeitsvertrieb beschrieben werden können.

Hintergrund

"Stochastische Konvergenz" formalisiert die Idee, dass, wie man manchmal erwarten kann, sich eine Folge von im Wesentlichen zufälligen oder unvorhersehbaren Ereignissen in ein Muster niederlässt. Das Muster kann zum Beispiel sein

  • Konvergenz im klassischen Sinn zu einem festen Wert, vielleicht selbst aus einem zufälligen Ereignis kommend
  • Eine zunehmende Ähnlichkeit von Ergebnissen dazu, was eine rein deterministische Funktion erzeugen würde
  • Eine zunehmende Vorliebe zu einem bestimmten Ergebnis
  • Eine zunehmende "Abneigung" gegen das Weglaufen weit weg von einem bestimmten Ergebnis

Ein weniger offensichtlich konnten mehr theoretische Muster sein

  • Dass der Wahrscheinlichkeitsvertrieb, der das folgende Ergebnis beschreibt, immer ähnlicher einem bestimmten Vertrieb wachsen kann
  • Dass die gebildete Reihe durch das Rechnen des erwarteten Werts der Entfernung des Ergebnisses von einem besonderen Wert zu 0 zusammenlaufen kann
  • Dass die Abweichung der zufälligen Variable, die das folgende Ereignis beschreibt, kleiner und kleiner wächst.

Diese anderen Typen von Mustern, die entstehen können, werden in den verschiedenen Typen der stochastischen Konvergenz widerspiegelt, die studiert worden sind.

Während sich die obengenannte Diskussion auf die Konvergenz einer einzelnen Reihe zu einem Begrenzungswert bezogen hat, ist der Begriff der Konvergenz von zwei Reihen zu einander auch wichtig, aber das wird durch das Studieren der Folge definiert entweder als der Unterschied oder als das Verhältnis der zwei Reihen leicht behandelt.

Zum Beispiel, wenn der Durchschnitt von n unkorrelierten zufälligen Variablen Y, mir = 1..., n, alles, dasselbe begrenzt bösartig und Abweichung habend, durch gegeben wird

:

dann, da n zur Unendlichkeit neigt, X läuft in der Wahrscheinlichkeit (sieh unten) zum allgemeinen bösartigen, μ, von den zufälligen Variablen Y zusammen. Dieses Ergebnis ist als das schwache Gesetz der großen Anzahl bekannt. Andere Formen der Konvergenz sind in anderen nützlichen Lehrsätzen einschließlich des Hauptgrenzwertsatzes wichtig.

Überall im folgenden nehmen wir an, dass (X) eine Folge von zufälligen Variablen ist, und X eine zufällige Variable ist, und sie alle auf demselben Wahrscheinlichkeitsraum definiert werden.

Konvergenz im Vertrieb

Mit dieser Weise der Konvergenz nehmen wir zunehmend an, das folgende Ergebnis in einer Folge von zufälligen Experimenten zu sehen, die besser und besser modelliert durch einen gegebenen Wahrscheinlichkeitsvertrieb werden.

Die Konvergenz im Vertrieb ist die schwächste Form der Konvergenz, da es durch alle anderen Typen der in diesem Artikel erwähnten Konvergenz einbezogen wird. Jedoch wird die Konvergenz im Vertrieb sehr oft in der Praxis verwendet; meistenteils entsteht es aus der Anwendung des Hauptgrenzwertsatzes.

Definition

Wie man

sagt, läuft eine Folge {X, X, …} zufälliger Variablen im Vertrieb zusammen, oder läuft schwach zusammen, oder läuft im Gesetz zu einer zufälligen Variable X wenn zusammen

:

\lim_ {n\to\infty} F_n (x) = F (x),

</Mathematik>

für jede Zahl, an der F dauernd ist. Hier sind F und F die kumulativen Vertriebsfunktionen von zufälligen Variablen X und X entsprechend.

Die Voraussetzung, dass nur die Kontinuitätspunkte von F betrachtet werden sollten, ist notwendig. Zum Beispiel, wenn X gleichförmig auf Zwischenräumen [0,&thinsp verteilt werden;] dann läuft diese Folge im Vertrieb zu einer degenerierten zufälligen Variable zusammen. Tatsächlich, für den ganzen n wenn, und für alle wenn. Jedoch, für diese beschränkende zufällige Variable, wenn auch für den ganzen n. So scheitert die Konvergenz von cdfs am Punkt, wo F diskontinuierlich ist.

Die Konvergenz im Vertrieb kann als angezeigt werden

:

& X_n \\xrightarrow {d }\\X, \\

X_n \\xrightarrow {\\mathcal {D} }\\X, \\

X_n \\xrightarrow {\\mathcal {L} }\\X, \\

X_n \\xrightarrow {d }\\\mathcal {L} _X, \\

& X_n \rightsquigarrow X, \\

X_n \Rightarrow X, \\

\mathcal {L} (X_n) \to\mathcal {L} (X), \\

\end {richten} </Mathematik> {aus}

wo das Gesetz (Wahrscheinlichkeitsvertrieb) von X ist. Zum Beispiel, wenn X normal normal ist, können wir schreiben.

Für zufällige Vektoren {X, X, …}  R die Konvergenz im Vertrieb wird ähnlich definiert. Wir sagen, dass diese Folge im Vertrieb zu einem zufälligen K-Vektoren X wenn zusammenläuft

:

\lim_ {n\to\infty} \operatorname {Pr} (X_n\in A) = \operatorname {Pr} (X\in)

</Mathematik>

für jeden Ein  R, der ein Kontinuitätssatz X ist.

Die Definition der Konvergenz im Vertrieb kann von zufälligen Vektoren bis kompliziertere zufällige Elemente in willkürlichen metrischen Räumen, und sogar zu den "zufälligen Variablen" erweitert werden, die — eine Situation nicht messbar sind, die zum Beispiel in der Studie von empirischen Prozessen vorkommt. Das ist die "schwache Konvergenz von Gesetzen ohne Gesetze, die" — außer asymptotisch definieren werden.

In diesem Fall der Begriff schwache Konvergenz ist vorzuziehend (sieh schwache Konvergenz von Maßnahmen), und sagen wir, dass eine Folge von zufälligen Elementen {X} schwach zu X (angezeigt als X  X) wenn zusammenläuft

:

\operatorname {E} ^*h (X_n) \to \operatorname {E }\\, h (X)

</Mathematik>

für alle dauernden begrenzten Funktionen h (·). Here E* zeigt die Außenerwartung an, die die Erwartung einer "kleinsten messbaren Funktion g ist, der h (X) beherrscht".

Eigenschaften

  • (X) Eƒ  (X) Eƒ für den ganzen begrenzten, dauernden Funktions-ƒ;
  • (X) Eƒ  (X) Eƒ für alle, sind Funktions-ƒ von Lipschitz gesprungen;
  • \[\limsup {(X) Eƒ}  (X) Eƒ für jeden oberen halbdauernden Funktions-ƒ ist von oben gesprungen;
  • liminf {(X) Eƒ}  (X) Eƒ für jeden niedrigeren halbdauernden Funktions-ƒ ist von unten gesprungen;
  • limsup {Pr (X  C)}  Pr (X  C) für alle geschlossenen Sätze C;
  • liminf {Pr (X  U)}  Pr (X  U) für alle offenen Sätze U;
  • lim {Pr (X  A)} = Pr (X  A) für die ganze Kontinuität geht von der zufälligen Variable X unter.

</ul>

Konvergenz in der Wahrscheinlichkeit

Die Grundidee hinter diesem Typ der Konvergenz besteht darin, dass die Wahrscheinlichkeit eines "ungewöhnlichen" Ergebnisses kleiner und kleiner wird, als die Folge fortschreitet.

Das Konzept der Konvergenz in der Wahrscheinlichkeit wird sehr häufig in der Statistik verwendet. Zum Beispiel wird ein Vorkalkulator konsequent genannt, wenn es in der Wahrscheinlichkeit zur Menge zusammenläuft, die wird schätzt. Die Konvergenz in der Wahrscheinlichkeit ist auch der Typ der durch das schwache Gesetz der großen Anzahl gegründeten Konvergenz.

Definition

Eine Folge {X} von zufälligen Variablen läuft in der Wahrscheinlichkeit zu X wenn für den ganzen ε> 0 zusammen

:

\lim_ {n\to\infty }\\Pr\big (|X_n-X | \geq \varepsilon\big) = 0.

</Mathematik>

Picken Sie formell jeden ε> 0 und jeden δ> 0 auf. Lassen Sie P die Wahrscheinlichkeit sein, die X außerhalb des Balls des Radius ε in den Mittelpunkt gestellt an X ist. Dann für X, um in der Wahrscheinlichkeit zu X zusammenzulaufen, dort sollte eine solche Nummer N bestehen, dass für den ganzen n  N die Wahrscheinlichkeit P weniger ist als δ.

Die Konvergenz in der Wahrscheinlichkeit wird durch das Hinzufügen des Briefs p über einen Pfeil angezeigt, der anzeigt, dass Konvergenz, oder die "plim" Wahrscheinlichkeit verwendend, Maschinenbediener beschränkt:

:

X_n \\xrightarrow {p }\\X, \\

X_n \\xrightarrow {P }\\X, \\

\underset {n\to\infty} {\\operatorname {plim} }\\, X_n = X.

</Mathematik>

Für zufällige Elemente {X} auf einem trennbaren metrischen Raum (S, d), wird die Konvergenz in der Wahrscheinlichkeit ähnlich durch definiert

:

\Pr\big (d (X_n, X) \geq\varepsilon\big) \to 0, \quad \forall\varepsilon> 0.

</Mathematik>

Eigenschaften

:

d (X, Y) = \inf \!\big\{\varepsilon> 0:\\Pr\big (|X-Y |>\varepsilon\big) \leq\varepsilon\big\}.

</Mathematik></ul>

Fast sichere Konvergenz

Das ist der Typ der stochastischen Konvergenz, die der pointwise von der elementaren echten Analyse bekannten Konvergenz am ähnlichsten ist.

Definition

Zu sagen, dass die Folge X fast sicher oder fast überall oder mit der Wahrscheinlichkeit 1 oder stark zu X Mitteln das zusammenläuft

:

\operatorname {Pr }\\! \left (\lim_ {n\to\infty }\\! X_n = X \right) = 1.

</Mathematik>

Das bedeutet, dass sich die Werte von X dem Wert von X, im Sinn nähern (sieh fast sicher), dass Ereignisse, für die X zu X nicht zusammenläuft, Wahrscheinlichkeit 0 haben. Mit dem Wahrscheinlichkeitsraum und dem Konzept der zufälligen Variable als eine Funktion von Ω bis R ist das zur Behauptung gleichwertig

:

\operatorname {Pr }\\Groß (\omega \in \Omega: \lim_ {n \to \infty} X_n (\omega) = X(\omega) \Big) = 1.

</Mathematik>

Ein anderer, gleichwertig, Weise, fast sichere Konvergenz zu definieren, ist wie folgt:

:

\operatorname {Pr }\\groß (\liminf \big\{\\Omega \in \Omega: | X_n (\omega) - X(\omega) |

</Mathematik>

Fast sichere Konvergenz wird häufig durch das Hinzufügen der Briefe a.s. über einen Pfeil angezeigt, der Konvergenz anzeigt:

:

X_n \, \xrightarrow {\\mathrm {a.s.}} \, X.

</Mathematik>

Für allgemeine zufällige Elemente {X} auf einem metrischen Raum (S, d), wird Konvergenz fast sicher ähnlich definiert:

:

\operatorname {Pr }\\Groß (\omega\in\Omega: \, d\big (X_n (\omega), X(\omega) \big) \, \underset {n\to\infty} {\\longrightarrow }\\, 0 \Big) = 1

</Mathematik>

Eigenschaften

  • Fast sichere Konvergenz bezieht Konvergenz in der Wahrscheinlichkeit ein, und bezieht folglich Konvergenz im Vertrieb ein. Es ist der Begriff der im starken Gesetz der großen Anzahl verwendeten Konvergenz.
  • Das Konzept fast der sicheren Konvergenz kommt aus einer Topologie auf dem Raum von zufälligen Variablen nicht. Das bedeutet, dass es keine Topologie auf dem Raum von zufälligen solchen Variablen gibt, dass die fast sicher konvergenten Folgen genau die konvergierenden Folgen in Bezug auf diese Topologie sind. Insbesondere dort ist nicht von fast der sicheren Konvergenz metrisch.

Sichere Konvergenz

Zu sagen, dass die Folge oder zufälligen Variablen (X) definiert über denselben Wahrscheinlichkeitsraum (d. h., ein Zufallsprozess) sicher oder überall oder pointwise zu X Mitteln zusammenlaufen

:

wo Ω der Beispielraum des zu Grunde liegenden Wahrscheinlichkeitsraums ist, über den die zufälligen Variablen definiert werden.

Das ist der Begriff der pointwise Konvergenz von zur Folge von zufälligen Variablen erweiterten Folge-Funktionen. (Bemerken Sie, dass zufällige Variablen selbst Funktionen sind).

:

Die sichere Konvergenz einer zufälligen Variable bezieht alle anderen Arten der Konvergenz angegeben ein, aber es gibt keine Belohnung in der Wahrscheinlichkeitstheorie durch das Verwenden sicherer Konvergenz im Vergleich zum Verwenden fast sicherer Konvergenz. Der Unterschied zwischen den zwei besteht nur auf Sätzen mit der Wahrscheinlichkeitsnull. Das ist, warum das Konzept der sicheren Konvergenz von zufälligen Variablen sehr selten verwendet wird.

Konvergenz im bösartigen

Wir sagen, dass die Folge X im r-th bösartig (oder in der L-Norm) zu X, für einige zusammenläuft, wenn absolute Momente X und X, und bestehen

:

\lim_ {n\to\infty} \operatorname {E }\\ist (|X_n-X |^r \right) = 0, abgereist

</Mathematik>

wo der Maschinenbediener E den erwarteten Wert anzeigt. Die Konvergenz im bösartigen sagt uns, dass die Erwartung der Macht des Unterschieds zwischen X und X zur Null zusammenläuft.

Dieser Typ der Konvergenz wird häufig durch das Hinzufügen des Briefs L über einen Pfeil angezeigt, der Konvergenz anzeigt:

:

Die wichtigsten Fälle der Konvergenz in bösartigem r-th sind:

  • Wenn X in r-th zusammenläuft, der zu X für r = 1 bösartig ist, sagen wir, dass X im bösartigen zu X zusammenläuft.
  • Wenn X in r-th zusammenläuft, der zu X für r = 2 bösartig ist, sagen wir, dass X im Mittelquadrat zu X zusammenläuft. Das wird auch manchmal Konvergenz im bösartigen genannt, und wird manchmal angezeigt
::

Konvergenz im r-th bösartig, für r &gt; 0, bezieht Konvergenz in der Wahrscheinlichkeit ein (durch die Ungleichheit von Markov), während, wenn r> s  1, die Konvergenz in bösartigem r-th Konvergenz in bösartigem s-th einbezieht. Folglich bezieht die Konvergenz im Mittelquadrat Konvergenz im bösartigen ein.

Konvergenz in der bösartigen Rth-Ordnung

Das ist eine "ziemlich technische" Weise der Konvergenz. Wir schätzen im Wesentlichen eine Folge von reellen Zahlen, einer Zahl für jede zufällige Variable und Kontrolle, wenn diese Folge im gewöhnlichen Sinn konvergent ist.

Formelle Definition

Wenn für eine reelle Zahl a, dann {X} läuft in der zu a bösartigen Rth-Ordnung zusammen.

Allgemein verwendete Notation:

Eigenschaften

Die Kette von Implikationen zwischen den verschiedenen Begriffen der Konvergenz wird in ihren jeweiligen Abteilungen bemerkt. Sie sind mit der Pfeil-Notation:

:

\xrightarrow {L^s} & \underset {s> r\geq1} {\\Rightarrow} & \xrightarrow {L^r} & & \\

& & \Downarrow & & \\

\xrightarrow {a.s.} & \Rightarrow & \xrightarrow {\\p\} & \Rightarrow & \xrightarrow {\\d\}\

\end {Matrix} </Mathematik>

Diese Eigenschaften, zusammen mit mehreren anderen speziellen Fällen, werden in der folgenden Liste zusammengefasst:

Fast sichere Konvergenz bezieht Konvergenz in der Wahrscheinlichkeit ein:

:

X_n\\xrightarrow {als }\\X \quad\Rightarrow\quad X_n\\xrightarrow {p }\\X

</Mathematik>

Die Konvergenz in der Wahrscheinlichkeit bezieht ein dort besteht eine Subfolge, die fast sicher zusammenläuft:

:

X_n\\xrightarrow {p }\\X \quad\Rightarrow\quad X_ {k_n }\\\xrightarrow {als }\\X

</Mathematik>

Die Konvergenz in der Wahrscheinlichkeit bezieht Konvergenz im Vertrieb ein:

:

X_n\\xrightarrow {p }\\X \quad\Rightarrow\quad X_n\\xrightarrow {d }\\X

</Mathematik>

Die Konvergenz in der bösartigen R-Th-Ordnung bezieht Konvergenz in der Wahrscheinlichkeit ein:

:

X_n\\xrightarrow {L^r }\\X \quad\Rightarrow\quad X_n\\xrightarrow {p }\\X

</Mathematik>

Die Konvergenz in der bösartigen R-Th-Ordnung bezieht Konvergenz in der niedrigeren bösartigen Ordnung ein, annehmend, dass beide Ordnungen größer sind als eine:

:

X_n\\xrightarrow {L^r }\\X \quad\Rightarrow\quad X_n\\xrightarrow {L^s }\\X,

</Mathematik>

Wenn X im Vertrieb zu einem unveränderlichen c zusammenläuft, dann X läuft in der Wahrscheinlichkeit zu c zusammen:

:

X_n\\xrightarrow {d }\\c \quad\Rightarrow\quad X_n\\xrightarrow {p }\\c,

</Mathematik>

Wenn X im Vertrieb zu X und der Unterschied zwischen X zusammenläuft und Y in der Wahrscheinlichkeit zur Null zusammenläuft, dann läuft Y auch im Vertrieb zu X zusammen:

:

X_n\\xrightarrow {d }\\X, \\|X_n-Y_n |\\xrightarrow {p }\\0\\quad\Rightarrow\quad Y_n\\xrightarrow {d }\\X

</Mathematik>

Wenn X im Vertrieb zu X zusammenläuft und Y im Vertrieb zu einem unveränderlichen c zusammenläuft, dann läuft der gemeinsame Vektor (X, Y) im Vertrieb zu (X, c) zusammen:

:

X_n\\xrightarrow {d }\\X, \\Y_n\\xrightarrow {d }\\c\\quad\Rightarrow\quad (X_n, Y_n) \\xrightarrow {d }\\(X, c)

</Mathematik>

Bemerken Sie, dass die Bedingung, dass Y zu einer Konstante zusammenläuft, wichtig ist, wenn es zu einer zufälligen Variable Y dann zusammenlaufen sollte, würden wir nicht im Stande sein zu beschließen, dass (X, Y) zu (X, Y) zusammenläuft.

Wenn X in der Wahrscheinlichkeit zu X zusammenläuft und Y in der Wahrscheinlichkeit zu Y zusammenläuft, dann läuft der gemeinsame Vektor (X, Y) in der Wahrscheinlichkeit zu (X, Y) zusammen:

:

X_n\\xrightarrow {p }\\X, \\Y_n\\xrightarrow {p }\\Y\\quad\Rightarrow\quad (X_n, Y_n) \\xrightarrow {p }\\(X, Y)

</Mathematik></ul>
  • Wenn X in der Wahrscheinlichkeit zu X zusammenläuft, und wenn für den ganzen n und einen b, dann X läuft in rth zusammen, der zu X für den ganzen r  1 bösartig ist. Mit anderen Worten, wenn X in der Wahrscheinlichkeit zu X zusammenläuft und alle zufälligen Variablen X fast sicher oben und unten begrenzt werden, dann X läuft zu X auch in jedem bösartigen rth zusammen.
  • Fast sichere Darstellung. Gewöhnlich bezieht die Konvergenz im Vertrieb Konvergenz fast sicher nicht ein. Jedoch für eine gegebene Folge {X}, der im Vertrieb zu X zusammenläuft, ist es immer möglich, einen neuen Wahrscheinlichkeitsraum (Ω, F, P) und zufällige Variablen {Y, n = 0,1, …} definiert darauf solch zu finden, dass Y im Vertrieb X für jeden n  0 gleich ist, und Y zu Y fast sicher zusammenläuft.
  • Wenn für den ganzen ε> 0,
::

:then wir sagen, dass X fast völlig, oder fast in der Wahrscheinlichkeit zu X zusammenläuft. Wenn X fast völlig zu X dann zusammenläuft, läuft es auch fast sicher zu X zusammen. Mit anderen Worten, wenn X in der Wahrscheinlichkeit zu X genug schnell zusammenläuft (d. h. die obengenannte Folge von Schwanz-Wahrscheinlichkeiten für den ganzen ε> 0) addierbar ist, dann X läuft auch fast sicher zu X zusammen. Das ist eine direkte Implikation vom Lemma von Borel-Cantelli.

  • Wenn S eine Summe von n echten unabhängigen zufälligen Variablen ist:

::

:then S läuft fast sicher zusammen, wenn, und nur wenn S in der Wahrscheinlichkeit zusammenläuft.

  • Der beherrschte Konvergenz-Lehrsatz gibt genügend Bedingungen für fast die sichere Konvergenz, um L-Konvergenz einzubeziehen:
::

\left. \begin {Reihe} {ccc }\

X_n\xrightarrow {a.s.} X

\\\\

|X_n |

  • Eine notwendige und genügend Bedingung für die L Konvergenz ist, und die Folge (X) ist gleichförmig integrable.

Siehe auch

  • Konvergenz von Maßnahmen
  • Dauernder stochastischer Prozess: Die Frage der Kontinuität eines stochastischen Prozesses ist im Wesentlichen eine Frage der Konvergenz, und viele derselben Konzepte und Beziehungen, die oben verwendet sind, gelten für die Kontinuitätsfrage.
  • Asymptotischer Vertrieb
  • Großer O in der Wahrscheinlichkeitsnotation
  • Der Darstellungslehrsatz von Skorokhod

Zeichen


Sully Prudhomme / Starke Konvergenz
Impressum & Datenschutz