Erwarteter Wert

In der Wahrscheinlichkeitstheorie ist der erwartete Wert (oder Erwartung oder mathematische Erwartung, oder bösartig, oder der erste Moment) einer zufälligen Variable der gewogene Mittelwert aller möglichen Werte, die diese zufällige Variable übernehmen kann. Die in der Computerwissenschaft dieses Durchschnitts verwendeten Gewichte entsprechen den Wahrscheinlichkeiten im Falle einer getrennten zufälligen Variable oder Dichten im Falle einer dauernden zufälligen Variable. Von einer strengen theoretischen Einstellung ist der erwartete Wert das Integral der zufälligen Variable in Bezug auf sein Wahrscheinlichkeitsmaß.

Der erwartete Wert kann durch das Gesetz der großen Anzahl intuitiv verstanden werden: Der erwartete Wert, wenn es besteht, ist fast sicher die Grenze der bösartigen Probe, als Beispielgröße zur Unendlichkeit wächst. Mehr informell kann es als der lang-geführte Durchschnitt der Ergebnisse von vielen unabhängigen Wiederholungen eines Experimentes (z.B eine Würfel-Rolle) interpretiert werden. Der Wert darf im gewöhnlichen Sinn nicht erwartet werden — der "erwartete Wert" selbst kann unwahrscheinlich oder sogar (unmöglich sein wie, 2.5 Kinder zu haben) gerade wie die bösartige Probe.

Der erwartete Wert besteht für etwas Vertrieb mit großen "Schwänzen" wie der Vertrieb von Cauchy nicht.

Es ist möglich, einen erwarteten der Wahrscheinlichkeit eines Ereignisses gleichen Wert durch die Einnahme der Erwartung einer Anzeigefunktion zu bauen, die diejenige ist, wenn das Ereignis vorgekommen ist und Null sonst. Diese Beziehung kann verwendet werden, um Eigenschaften von erwarteten Werten in Eigenschaften von Wahrscheinlichkeiten z.B mit dem Gesetz der großen Anzahl zu übersetzen, um das Schätzen von Wahrscheinlichkeiten durch Frequenzen zu rechtfertigen.

Definition

Getrennter zufälliger variabler, begrenzter Fall

Nehmen Sie an, dass zufällige Variable X Wert x mit der Wahrscheinlichkeit p nehmen, x mit der Wahrscheinlichkeit p, und so weiter, bis zum Wert x mit der Wahrscheinlichkeit p schätzen kann. Dann wird die Erwartung dieser zufälligen Variable X als definiert

:

\operatorname {E} [X] = x_1p_1 + x_2p_2 + \ldots + x_kp_k \;.

</Mathematik>

Seit allen Wahrscheinlichkeiten belaufen sich p auf diejenige: p + p +... + p = 1 kann der erwartete Wert als der gewogene Mittelwert, damit angesehen werden, dass p die Gewichte ist:

:

\operatorname {E} [X] = \frac {x_1p_1 + x_2p_2 + \ldots + x_kp_k} {p_1 + p_2 + \ldots + p_k} \;.

</Mathematik>

Wenn alle Ergebnisse x ebenso wahrscheinlich sind (d. h. p = p =... = p), dann verwandelt sich der gewogene Mittelwert in den einfachen Durchschnitt. Das ist intuitiv: Der erwartete Wert einer zufälligen Variable ist der Durchschnitt aller Werte, die man brauchen kann; so ist der erwartete Wert, was Sie annehmen, durchschnittlich zu geschehen. Wenn die Ergebnisse x nicht gleich wahrscheinlich sind, dann sollte der einfache Durchschnitt durch den gewogenen Mittelwert ersetzt werden, der die Tatsache in Betracht zieht, dass einige Ergebnisse wahrscheinlicher sind als andere. Die Intuition bleibt jedoch dasselbe: Der erwartete Wert von X ist, was Sie annehmen, durchschnittlich zu geschehen.

Beispiel 1. Lassen Sie X vertreten das Ergebnis einer Rolle eines sechsseitigen. Mehr spezifisch, X wird die Zahl von Kernen sein, die sich auf dem Spitzengesicht nach dem Werfen zeigen. Die möglichen Werte für X sind 1, 2, 3, 4, 5, 6, alle ebenso wahrscheinlich (jeder, die Wahrscheinlichkeit habend). Die Erwartung von X ist

:

\operatorname {E} [X] = 1\cdot\frac16 + 2\cdot\frac16 + 3\cdot\frac16 + 4\cdot\frac16 + 5\cdot\frac16 + 6\cdot\frac16 = 3.5.

</Mathematik>

Wenn Sie die n Zeiten rollen und den der Ergebnisse (bösartigen) Durchschnitt schätzen, dann weil wächst n, der Durchschnitt wird fast sicher zum erwarteten Wert, eine als das starke Gesetz der großen Anzahl bekannte Tatsache zusammenlaufen. Eine Beispiel-Folge von zehn Rollen, von 2, 3, 1, 2, 5, 6, 2, 2, 2, 6 zu sein, der den Durchschnitt 3.1, mit der Entfernung 0.4 vom erwarteten Wert von 3.5 hat. Die Konvergenz ist relativ langsam: Die Wahrscheinlichkeit, dass die durchschnittlichen Fälle innerhalb der Reihe 21.6 % für zehn Rollen, 46.1 % für hundert Rollen und 93.7 % für eintausend Rollen sind. Sieh die Zahl für eine Illustration der Durchschnitte von längeren Folgen von Rollen, und wie sie zum erwarteten Wert von 3.5 zusammenlaufen. Mehr allgemein kann die Rate der Konvergenz durch z.B Tschebyscheffs Ungleichheit und den Lehrsatz der Beere-Esseen grob gemessen werden.

Beispiel 2. Das Roulette-Spiel besteht aus einem kleinen Ball und einem Rad mit 38 numerierten Taschen um den Rand. Da das Rad, die Ball-Schläge ringsherum zufällig gesponnen wird, bis es sich in einer der Taschen niederlässt. Nehmen Sie an, dass zufällige Variable X das (finanzielle) Ergebnis einer Wette von 1 $ über eine einzelne Zahl ("gerade" Wette) vertritt. Wenn die Wette gewinnt (der mit der Wahrscheinlichkeit geschieht), ist die Belohnung 35 $; sonst verliert der Spieler die Wette. Der erwartete Gewinn von solch einer Wette wird sein

:

\operatorname {E} [\\text {Gewinn von} wettet 1 $ \text {}\\,] =

- 1 $ \cdot \frac {37} {38 }\\+ \35 $ \cdot \frac {1} {38} = - 0.0526 $.

</Mathematik>

Getrennter zufälliger variabler, zählbarer Fall

Lassen Sie X eine getrennte zufällige variable Einnahme Werte x, x... mit Wahrscheinlichkeiten p, p... beziehungsweise sein. Dann ist der erwartete Wert dieser zufälligen Variable die unendliche Summe

:

\operatorname {E} [X] = \sum_ {i=1} ^\\infty x_i \, p_i,

</Mathematik>

vorausgesetzt, dass diese Reihe absolut zusammenläuft (d. h. die Summe muss begrenzt bleiben, wenn wir den ganzen x's durch ihre absoluten Werte ersetzen sollten). Wenn diese Reihe absolut nicht zusammenläuft, sagen wir, dass der erwartete Wert von X nicht besteht.

Nehmen Sie zum Beispiel an, dass zufällige Variable X Werte 1, 2, 3, 4... mit jeweiligen Wahrscheinlichkeiten nimmt..., wo ein unveränderliches Normalisieren ist, der sicherstellt, dass die Wahrscheinlichkeiten zu einer summieren. Dann die unendliche Summe

:

\sum_ {i=1} ^\\infty x_i \, p_i = c \,\bigg (1 - \frac {1} {2} + \frac {1} {3} - \frac {1} {4} + \ldots \bigg)

</Mathematik>

läuft zusammen, und seine Summe ist dem gleich. Jedoch würde es falsch sein zu behaupten, dass der erwartete Wert von X dieser Zahl — tatsächlich E [X] gleich ist, besteht nicht, weil diese Reihe absolut nicht zusammenläuft (sieh harmonische Reihe).

Univariate dauernde zufällige Variable

Wenn der Wahrscheinlichkeitsvertrieb X eine Wahrscheinlichkeitsdichte-Funktion f (x) zulässt, dann kann der erwartete Wert als geschätzt werden

:

\operatorname {E} [X] = \int_ {-\infty} ^\\infty x f (x) \, \operatorname {d} x.

</Mathematik>

Allgemeine Definition

Im Allgemeinen, wenn X eine zufällige auf einem Wahrscheinlichkeitsraum definierte Variable, dann der erwartete Wert von X, angezeigt durch E [X] ist,


Energie / Elektrisches Licht
Impressum & Datenschutz