Andréi Márkov

 “Un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior.”

Andréi Márkov
La cadena de Márkov o el modelo de Márkov


"Una cadena de Márkov en tiempo discreto (por sencillez) es un proceso estocástico que evoluciona en tiempo discreto o etapas y tiene la propiedad markoviana que dice: “el futuro depende de lo que pasa en el presente, pero no del pasado estricto”."

Andréi Andréyevich Márkov





No hay comentarios: