Prozess von Markov

In der Wahrscheinlichkeitstheorie und Statistik ist ein Prozess von Markov, der für den russischen Mathematiker Andrey Markov genannt ist, ein stochastischer Prozess, der ein bestimmtes Eigentum, genannt das Eigentum von Markov befriedigt. Von einem Prozess von Markov kann als 'memoryless' gedacht werden: Lose sprechend, befriedigt ein Prozess das Eigentum von Markov, wenn man Vorhersagen für die Zukunft des Prozesses gestützt allein auf seinem aktuellen Zustand machen kann genauso gut, wie man gekonnt hat, die volle Geschichte des Prozesses wissend. D. h., bedingt durch den aktuellen Zustand des Systems, ist seine Zukunft und Vergangenheit unabhängig.

Prozesse von Markov entstehen in der Wahrscheinlichkeit und Statistik auf eine von zwei Weisen. Wie man zeigen kann, hat ein stochastischer Prozess, der über ein getrenntes Argument definiert ist, mathematisch das Eigentum von Markov, und hat demzufolge die Eigenschaften, die daraus für alle Prozesse von Markov abgeleitet werden können. Abwechselnd, im Modellieren eines Prozesses, kann man den Prozess annehmen, Markov zu sein, und das als die Basis für einen Aufbau zu nehmen. Im Modellieren von Begriffen annehmend, dass das Eigentum von Markov hält, ist eine einer begrenzten Zahl von einfachen Weisen, statistische Abhängigkeit in ein Modell für einen stochastischen Prozess auf solche Art und Weise einzuführen, der der Kraft der Abhängigkeit in verschiedenen Zeitabständen erlaubt sich zu neigen, als der Zeitabstand zunimmt.

Häufig, der Begriff Kette von Markov wird verwendet, um einen Prozess von Markov zu bedeuten, der einen getrennten (oder zählbar) Zustandraum hat. Gewöhnlich würde eine Kette von Markov für einen getrennten Satz von Zeiten definiert (d. h. eine diskrete Zeit Kette von Markov), obwohl einige Autoren dieselbe Fachsprache verwenden, wo "Zeit" dauernde Werte nehmen kann. Siehe auch dauernd-maligen Markov in einer Prozession gehen.

Eigentum von Markov

Der allgemeine Fall

Lassen Sie, ein Wahrscheinlichkeitsraum mit einem Filtrieren, für einige (völlig bestellt) Index-Satz zu sein; und lassen Sie, ein messbarer Raum zu sein. Wie man sagt, besitzt ein S-valued an das Filtrieren angepasster stochastischer Prozess das Eigentum von Markov in Bezug auf wenn, für jeden und jeden mit s

Ein Prozess von Markov ist ein stochastischer Prozess, der das Eigentum von Markov in Bezug auf sein natürliches Filtrieren befriedigt.

Für die diskrete Zeit Ketten von Markov

Im Fall, wo ein getrennter Satz mit der getrennten Sigma-Algebra ist und, kann das wie folgt wiederformuliert werden:

:.

Beispiele

Das Spielen

Nehmen Sie an, dass Sie mit 10 $ in Schürstange-Chips anfangen, und Sie wiederholt wetten, dass der 1 $ auf einer (schönen) Münze unbestimmt rill, oder bis Sie alle Ihre Schürstange-Chips verlieren. Wenn die Zahl von Dollars vertritt, haben Sie in Chips danach n Werfen, damit, dann ist die Folge ein Prozess von Markov. Wenn ich weiß, dass Sie 12 Chips jetzt nach vier Werfen haben, dann werde ich glauben, dass mit sogar der Verschiedenheit Sie entweder 11 oder 13 Chips nach dem folgenden Werfen haben werden. Diese Annahme wird durch die zusätzlichen Kenntnisse nicht verbessert, dass Sie mit 10 Chips angefangen haben, dann zu 11, unten zu 10, bis zu 11, und dann zu 12 gestiegen sind.

Ein Geburtsprozess

Nehmen Sie an, dass Sie hundert Kerne des Popkorns knallen lassen, und jeder Kern in einer unabhängigen, gleichförmig zufälligen Zeit innerhalb des folgenden Hunderts Sekunden knallen wird. Lassen Sie zeigen die Zahl von Kernen an, die bis zur Zeit t geknallt haben. Dann ist das eine dauernde Zeit, non-homogenous Prozess von Markov. Wenn nach einer Zeitdauer ich schätzen will, wie viele Kerne in der nächsten Sekunde knallen werden, muss ich nur wissen, wie viele Kerne geknallt haben. Es wird mir nicht helfen zu wissen, als sie geknallt haben, so seit vorherigen Malen wissend, wird t meine Annahme nicht informieren.

Der Prozess beschrieben hier ist eine Annäherung eines Prozesses von Poisson - Prozesse von Poisson sind auch Markov.

Ein non-Markov Beispiel

Nehmen Sie an, dass Sie einen Münzgeldbeutel haben, der fünf Viertel, fünf nickels und fünf Zehncentstücke, und eins nach dem anderen enthält, ziehen Sie zufällig Münzen vom Geldbeutel und setzen sie auf einem Tisch. Wenn den Gesamtwert des Münzsatzes auf dem Tisch vertritt, nachdem n, damit zieht, dann ist die Folge nicht ein Prozess von Markov.

Um zu sehen, warum das der Fall ist, nehmen Sie an, dass in Ihren ersten sechs zieht, ziehen Sie alle fünf nickels, und dann ein Viertel. So. Wenn wir nicht nur wissen, aber die früheren Werte ebenso, dann können wir bestimmen, welche Münzen gezogen worden sind, und wir wissen, dass die folgende Münze kein Nickel sein wird, so können wir das mit der Wahrscheinlichkeit 1 bestimmen. Aber wenn wir die früheren Werte nicht wissen, dann gestützt nur auf dem Wert könnten wir glauben, dass wir vier Zehncentstücke und zwei nickels gezogen hatten, in welchem Fall es sicher möglich sein würde, einen anderen Nickel als nächstes zu ziehen. So werden unsere Annahmen darüber durch unsere Kenntnisse von Werten davor zusammengepresst.

Darstellungen von Markovian

In einigen Fällen, anscheinend non-Markovian Prozesse kann noch Darstellungen von Markovian haben, die durch die Erweiterung des Konzepts der 'aktuellen' und 'zukünftigen' Staaten gebaut sind. Lassen Sie zum Beispiel X ein Non-Markovian-Prozess sein. Dann definieren Sie einen Prozess Y, solch, dass jeder Staat Y einen Zeitabstand von Staaten X vertritt. Mathematisch nimmt das die Form an:

:

Wenn Y das Eigentum von Markov hat, dann ist es eine Darstellung von Markovian X. In diesem Fall, X wird auch eine zweite Ordnung Prozess von Markov genannt. Höherwertige Prozesse von Markov werden analog definiert.

Ein Beispiel eines Non-Markovian-Prozesses mit einer Darstellung von Markovian ist eine bewegende durchschnittliche Zeitreihe.

Siehe auch

  • Beispiele von Ketten von Markov
  • Prozess von Semi-Markov
  • Entscheidung von Markov bearbeitet
  • Dynamik von Partikeln von Markovian
  • Zufälliger Spaziergang
  • Brownsche Bewegung
  • Kette von Markov
  • Modell von Markov

Referenzen

  • Yosida, K. "Funktionsanalyse", Ch XIII, § 3, Springer-Verlag, 1968. Internationale Standardbuchnummer 3-540-58654-7
  • Ribarič.M. und I.Vidav, "Eine Ungleichheit für konkave Funktionen." Glasnik Matematički 8 (28), 183-186 (1973).

Links


Samariá Engpass / St. Canutes Kathedrale
Impressum & Datenschutz