Markov-kæde

Fra Wikipedia, den frie encyklopædi
Et diagram, der viser en Markov-proces med de to udfald E and A. Hvert tal viser sandsynligheden for udfaldet af en ændring af tilstanden. Er Markov-processen i tilstand A, er sandsynligheden for at den ændrer sig til E 0,4 og sandsynligheden for at den forbliver i tilstand A 0,6.

En Markov-kæde er inden for matematikken en tidsdiskret stokastisk proces, der beskriver en talfølge af mulige begivenheder, hvor sandsynligheden af hver begivenhed udelukkende afhænger af det, som bliver opnået ved den foregående begivenhed.[1][2][3] Processen har således med Markovegenskaber, hvilket vil sige, at processens forløb kan bestemmes ud fra dens nuværende tilstand uden kendskab til tidligere tilstande.

En Markov-kæde som er tidskontinuerlig kaldes en Markovproces.

Kildehenvisninger[redigér | rediger kildetekst]

  1. ^ Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. s. 1-235. ISBN 978-1-119-38755-8.
  2. ^ "Markov chain | Definition of Markov chain in US English by Oxford Dictionaries". Oxford Dictionaries | English. Arkiveret fra originalen 15. december 2017. Hentet 2017-12-14.
  3. ^ Definition at Brilliant.org "Brilliant Math and Science Wiki". Retrieved on 12 May 2019
MatematikSpire
Denne artikel om matematik er en spire som bør udbygges. Du er velkommen til at hjælpe Wikipedia ved at udvide den.