Unabhängigkeit (Wahrscheinlichkeitstheorie)

In der Wahrscheinlichkeitstheorie, um zu sagen, dass zwei Ereignisse intuitiv unabhängig sind, bedeutet, dass das Ereignis eines Ereignisses sie weder mehr noch weniger wahrscheinlich macht, dass der andere vorkommt. Zum Beispiel:

  • Das Ereignis, 6 das erste Mal zu bekommen, wenn ein Sterben gerollt wird und das Ereignis, 6 das zweite Mal zu bekommen, ist unabhängig.
  • Im Vergleich ist das Ereignis, 6 das erste Mal zu bekommen, wenn ein Sterben gerollt wird und das Ereignis, dass die Summe der auf den ersten und zweiten Proben gesehenen Zahlen 8 ist, ziemlich abhängig.
  • Wenn zwei Karten mit dem Ersatz von einem Deck von Karten gezogen werden, ist das Ereignis, eine rote Karte auf der ersten Probe und dieser der Zeichnung einer roten Karte auf der zweiten Probe zu ziehen, unabhängig.
  • Im Vergleich, wenn zwei Karten ohne Ersatz von einem Deck von Karten gezogen werden, ist das Ereignis, eine rote Karte auf der ersten Probe und dieser der Zeichnung einer roten Karte auf der zweiten Probe zu ziehen, wieder ziemlich abhängig.

Ähnlich sind zwei zufällige Variablen unabhängig, wenn der bedingte Wahrscheinlichkeitsvertrieb von irgendeinem gegeben der beobachtete Wert vom anderen dasselbe ist, als ob der Wert eines anderen nicht beobachtet worden war. Das Konzept der Unabhängigkeit streckt sich bis dazu aus, sich mit Sammlungen von mehr als zwei Ereignissen oder zufälligen Variablen zu befassen.

In einigen Beispielen wird der Begriff "unabhängiger" durch "statistisch unabhängigen", "geringfügig unabhängig", oder "absolut unabhängig" ersetzt.

Unabhängige Ereignisse

Die Standarddefinition sagt:

:Two-Ereignisse A und B sind wenn und nur wenn unabhängig

Hier ∩ B ist die Kreuzung von A und B, d. h. es ist das Ereignis, dass beide Ereignisse A und B vorkommen.

Mehr allgemein ist jede Sammlung von Ereignissen — vielleicht mehr als gerade zwei von ihnen — gegenseitig unabhängig, wenn, und nur wenn für jede begrenzte Teilmenge A..., der Sammlung wir haben

:

Das wird die Multiplikationsregel nach unabhängigen Ereignissen genannt. Bemerken Sie, dass Unabhängigkeit diese Regel verlangt, für jede Teilmenge der Sammlung zu halten; sieh für ein Drei-Ereignisse-Beispiel, in dem und noch keine zwei der drei Ereignisse pairwise Unabhängiger sind.

Wenn zwei Ereignisse A und B unabhängig sind, dann ist die bedingte Wahrscheinlichkeit Eines gegebenen B dasselbe als das vorbehaltlose (oder geringfügig) Wahrscheinlichkeit von A, der, ist

:

Es gibt mindestens zwei Gründe, warum diese Behauptung nicht genommen wird, um die Definition der Unabhängigkeit zu sein: (1) spielen die zwei Ereignisse A und B symmetrische Rollen in dieser Behauptung, und (2) nicht Probleme entstehen mit dieser Behauptung, wenn Ereignisse der Wahrscheinlichkeit 0 beteiligt werden.

Die bedingte Wahrscheinlichkeit des Ereignisses Ein gegebener B wird durch gegeben

: (so lange Pr (B) ≠ 0)

Die Behauptung oben, wenn zu gleichwertig

ist:

der die Standarddefinition ist, die oben gegeben ist.

Bemerken Sie, dass ein Ereignis von sich wenn und nur wenn unabhängig

ist:

D. h. wenn seine Wahrscheinlichkeit ein oder Null ist. So, wenn ein Ereignis oder seine Ergänzung fast sicher vorkommen, ist es von sich unabhängig. Zum Beispiel, wenn Ereignis A eine Zahl, aber 0.5 von einer Rechteckverteilung auf dem Einheitszwischenraum wählt, ist A von sich unabhängig, wenn auch tautologisch völlig A bestimmt.

Unabhängige zufällige Variablen

Was oben definiert wird, ist Unabhängigkeit von Ereignissen. In dieser Abteilung behandeln wir Unabhängigkeit von zufälligen Variablen. Wenn X eine reellwertige zufällige Variable ist und einer Zahl dann das Ereignis X  zu sein, des Satzes von Ergebnissen zu sein, deren entsprechender Wert von X weniger ist als oder gleich a. Da das Sätze von Ergebnissen sind, die Wahrscheinlichkeiten haben, hat es Sinn, sich auf Ereignisse dieser Sorte zu beziehen, die anderer Ereignisse dieser Sorte unabhängig ist.

Zwei zufällige Variablen X und Y sind unabhängig, wenn, und nur wenn für jeden a und b die Ereignisse {X } und {Y  b} unabhängige Ereignisse, wie definiert, oben sind. Mathematisch kann das wie folgt beschrieben werden:

Die zufälligen Variablen X und Y mit dem kumulativen Vertrieb fungieren F (x) und F (y), und Wahrscheinlichkeitsdichten ƒ (x) und ƒ (y), sind unabhängig, wenn, und nur wenn die vereinigte zufällige Variable (X, Y) eine gemeinsame kumulative Vertriebsfunktion hat

:

oder gleichwertig, eine gemeinsame Dichte

:

Ähnliche Ausdrücke charakterisieren Unabhängigkeit mehr allgemein für mehr als zwei zufällige Variablen.

Eine willkürliche Sammlung von zufälligen Variablen - vielleicht mehr als gerade zwei von ihnen — ist genau unabhängig, wenn für eine begrenzte Sammlung X..., X und einen begrenzten Satz von Zahlen a..., a, die Ereignisse {X }..., {X } unabhängige Ereignisse, wie definiert, oben sind.

Das geneigte Maß theoretisch kann es vorziehen, Ereignisse {X } für Ereignisse {X } in der obengenannten Definition einzusetzen, wo A jeder Satz von Borel ist. Diese Definition ist zu derjenigen oben genau gleichwertig, wenn die Werte der zufälligen Variablen reelle Zahlen sind. Es ist im Vorteil des Arbeitens auch für Komplex-geschätzte zufällige Variablen oder für zufällige Variablen, die Werte in jedem messbaren Raum nehmen (der topologische Räume einschließt, die durch passenden σ-algebras dotiert sind).

Wenn irgendwelche zwei einer Sammlung von zufälligen Variablen unabhängig sind, können sie dennoch scheitern, gegenseitig unabhängig zu sein; das wird pairwise Unabhängigkeit genannt.

Wenn X und Y unabhängig sind, dann hat der Erwartungsmaschinenbediener E das Eigentum

:

und für die Kovarianz, da wir haben

:

so ist die Kovarianz cov (X, Y) Null.

(Der gegenteilige von diesen, d. h. der Vorschlag, dass, wenn zwei zufällige Variablen eine Kovarianz 0 haben, sie unabhängig sein müssen, ist nicht wahr. Sieh unkorreliert.)

Zwei unabhängige zufällige Variablen X und Y haben das Eigentum, dass die charakteristische Funktion ihrer Summe das Produkt ihrer charakteristischen Randfunktionen ist:

:

\varphi_ {X+Y} (t) = \varphi_X (t) \cdot\varphi_Y (t), \,

</Mathematik>

aber die Rückimplikation ist nicht wahr (sieh Subunabhängigkeit).

Unabhängig &sigma;-algebras

Die Definitionen werden beide oben durch die folgende Definition der Unabhängigkeit für &sigma;-algebras verallgemeinert. Lassen Sie (Ω, Σ, Pr), ein Wahrscheinlichkeitsraum zu sein und A und B zwei U-Boot \U 03C3\Algebra von Σ sein zu lassen. Wie man sagt, sind A und B wenn, wann auch immer Ein  A und B  B, unabhängig

:

Die neue Definition bezieht sich auf die vorherigen sehr direkt:

  • Zwei Ereignisse sind unabhängig (im alten Sinn), wenn, und nur wenn die σ-algebras, die sie erzeugen (im neuen Sinn) unabhängig sind. Der σ-algebra, der durch ein Ereignis E  Σ erzeugt ist, ist definitionsgemäß,

::

  • Zwei zufällige Variablen X und über Ω definierter Y sind unabhängig (im alten Sinn), wenn, und nur wenn die σ-algebras, die sie erzeugen (im neuen Sinn) unabhängig sind. Der σ-algebra, der durch eine zufällige Variable erzeugt ist, die X Einnahme in einem messbaren Raum S schätzt, besteht definitionsgemäß, aller Teilmengen von Ω der Form X (U), wo U jede messbare Teilmenge von S ist.

Mit dieser Definition ist es leicht zu zeigen, dass, wenn X und Y zufällige Variablen und Y sind, unveränderlich ist, dann X und Y sind unabhängig, da der durch eine unveränderliche zufällige Variable erzeugte σ-algebra der triviale σ-algebra {, Ω} ist.

Wahrscheinlichkeitsnullereignisse können Unabhängigkeit nicht betreffen, so hält Unabhängigkeit auch, ob Y nur sicher unveränderlicher Pr-almost ist.

Bedingt unabhängige zufällige Variablen

Intuitiv sind zwei zufällige Variablen X und Y bedingt unabhängiger gegebener Z, wenn sobald Z bekannt ist, fügt der Wert von Y keine Zusatzinformation ungefähr X hinzu. Zum Beispiel sind zwei Maße X und Y derselben zu Grunde liegenden Menge Z ziemlich abhängig, aber sie sind bedingt unabhängiger gegebener Z (wenn die Fehler in den zwei Maßen irgendwie nicht verbunden werden).

Die formelle Definition der bedingten Unabhängigkeit basiert auf der Idee vom bedingten Vertrieb. Wenn X Y, und Z getrennte zufällige Variablen sind, dann definieren wir X und Y, um bedingt unabhängiger gegebener Z wenn zu sein

:

für den ganzen x, y und solchen z dass P (Z = z)> 0. Andererseits, wenn die zufälligen Variablen dauernd sind und eine gemeinsame Wahrscheinlichkeitsdichte-Funktion p haben, dann X und Y sind bedingt unabhängiger gegebener Z wenn

:

für alle reellen Zahlen x, y und solchen z dass p (z)> 0.

Wenn X und Y bedingt unabhängiger gegebener Z, dann sind

:

für jeden x, y und z mit P (Z = z)> 0. D. h. der bedingte Vertrieb für X gegebene Y und Z ist dasselbe als das gegeben Z allein. Eine ähnliche Gleichung hält für die bedingten Wahrscheinlichkeitsdichte-Funktionen im dauernden Fall.

Unabhängigkeit kann als eine spezielle Art der bedingten Unabhängigkeit gesehen werden, da Wahrscheinlichkeit als eine Art bedingte Wahrscheinlichkeit gegeben keine Ereignisse gesehen werden kann.

Siehe auch

  • Satzband (Statistik)
  • Unabhängige und identisch verteilte zufällige Variablen
  • Gegenseitig exklusive Ereignisse
  • Subunabhängigkeit
  • Geradlinige Abhängigkeit zwischen zufälligen Variablen
  • Bedingte Unabhängigkeit
  • Normalerweise verteilt und unkorreliert bezieht unabhängigen nicht ein

Source is a modification of the Wikipedia article Independence (probability theory), licensed under CC-BY-SA. Full list of contributors here.
Statistische Annahme / Sherrié Austin
Impressum & Datenschutz