transiciones resueltos propiedad proceso probabilidad practicos pasos modelo historia estacionarias ejercicios ejemplos cadenas absorbentes math statistics finite-state-machine fsm markov-chains

math - resueltos - proceso de markov



¿Es una cadena de Markov lo mismo que una máquina de estado finito? (6)

Creo que esto debería responder a tu pregunta:

https://en.wikipedia.org/wiki/Probabilistic_automaton

Y, está en la idea correcta: son casi lo mismo, subconjuntos, superconjuntos y modificaciones según el adjetivo que describa la cadena o el autómata. Los autómatas generalmente también toman una entrada, pero estoy seguro de que ha habido documentos que utilizan ''cadenas de Markov'' con entradas.

Piense en la distribución gaussiana vs. distribución normal - las mismas ideas en diferentes campos. Los autómatas pertenecen a la informática, Markov pertenece a la probabilidad y a las estadísticas.

¿Es una máquina de estados finitos solo una implementación de una cadena de Markov? ¿Cuáles son las diferencias entre los dos?


Las cadenas de Markov se pueden representar mediante máquinas de estados finitos. La idea es que una cadena de Markov describa un proceso en el que la transición a un estado en el tiempo t + 1 depende únicamente del estado en el momento t. Lo más importante a tener en cuenta es que las transiciones en una cadena de Markov son probabilísticas más que deterministas, lo que significa que no siempre se puede decir con certeza absoluta qué sucederá en el tiempo t + 1.

Los artículos de Wikipedia sobre máquinas de estado finito tienen una subsección sobre los procesos de la cadena Finite Markov , recomendaría leer eso para más información. Además, el artículo de Wikipedia sobre cadenas de Markov tiene una breve oración que describe el uso de máquinas de estado finito para representar una cadena de Markov. Eso dice:

Una máquina de estado finito se puede usar como una representación de una cadena de Markov. Suponiendo una secuencia de señales de entrada independientes e idénticamente distribuidas (por ejemplo, símbolos de un alfabeto binario elegido por lanzamientos de monedas), si la máquina está en el estado y en el tiempo n, entonces la probabilidad de que se mueva al estado x en el tiempo n + 1 depende solo del estado actual.


Los dos son similares, pero las otras explicaciones aquí son un poco incorrectas. Solo las cadenas de FINITE Markov pueden ser representadas por un FSM. Las cadenas de Markov permiten un espacio de estado infinito. Como se señaló, las transiciones de una cadena de Markov se describen por probabilidades, pero también es importante mencionar que las probabilidades de transición solo pueden depender del estado actual. Sin esta restricción, se llamaría un "proceso estocástico de tiempo discreto".


Mientras que una cadena de Markov es una máquina de estados finitos, se distingue por sus transiciones que son estocásticas, es decir, aleatorias, y se describen por probabilidades.



Si dejamos de lado los detalles internos de trabajo, la máquina de estado finito es como un valor simple, mientras que la cadena de markov es como una variable aleatoria (agregue probabilidad sobre el valor normal). Entonces la respuesta a la pregunta original es no, no son lo mismo. En el sentido probabilístico, la cadena de Markov es una extensión de la máquina de estados finitos.