Markov-kæde

Fra Wikipedia, den frie encyklopædi
Spring til navigation Spring til søgning
Et diagram, der viser en Markov-proces med de to udfald E and A. Hvert tal viser sandsynligheden for udfaldet af en ændring af tilstanden. Er Markov-processen i tilstand A, er sandsynligheden for at den ændrer sig til E 0,4 og sandsynligheden for at den forbliver i tilstand A 0,6.

En Markov-kæde er inden for matematikken en tidsdiskret stokastisk proces, der beskriver en talfølge af mulige begivenheder, hvor sandsynligheden af hver begivenhed udelukkende afhænger af det, som bliver opnået ved den foregående begivenhed.[1][2][3] Processen har således med Markovegenskaber, hvilket vil sige, at processens forløb kan bestemmes ud fra dens nuværende tilstand uden kendskab til tidligere tilstande.

En Markov-kæde som er tidskontinuerlig kaldes en Markovproces.

Kildehenvisninger[redigér | redigér wikikode]

  1. ^ Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. s. 1–235. ISBN 978-1-119-38755-8. 
  2. ^ "Markov chain | Definition of Markov chain in US English by Oxford Dictionaries". Oxford Dictionaries | English. Hentet 2017-12-14. 
  3. ^ Definition at Brilliant.org "Brilliant Math and Science Wiki". Retrieved on 12 May 2019
MatematikStub
Denne artikel om matematik er kun påbegyndt. Hvis du ved mere om emnet, kan du hjælpe Wikipedia ved at udvide den.