Tengo algunos problemas para entender la propiedad de la cadena de Markov irreductible .
Se dice que irreducible significa que el proceso estocástico puede "pasar de cualquier estado a cualquier estado".
Pero, ¿qué define si puede pasar del estado al estado o no?j
La página de wikipedia ofrece la formalización:
El estado es accesible (escrito ) desde el estado , si existe un entero st i → j i n i j > 0 P ( X n i j = j | X 0 = i ) = p ( n i j ) i j > 0
entonces la comunicación es si y .j → i
De estos irreductibilidad se deduce de alguna manera.
stochastic-processes
markov-process
mavavilj
fuente
fuente
Respuestas:
Aquí hay tres ejemplos de matrices de transición, los dos primeros para el caso reducible, el último para el caso irreducible.
Para , puede llegar a cualquier estado desde los estados 1 a 3, pero una vez que esté en el estado 4, permanecerá allí. Para esto Por ejemplo, puede comenzar en cualquier estado y aún puede alcanzar cualquier otro estado, aunque no necesariamente en un solo paso.P2
fuente
Se dice que el estado es accesible desde un estado (generalmente denotado por ) si existe alguna tal que: Es decir, uno puede pasar del estado al estado en pasos con probabilidad .j i i→j n≥0
Si tanto como son verdaderas, entonces los estados y comunican (generalmente denotado por ). Por lo tanto, la cadena de Markov es irreducible si cada dos estados se comunican.i→j j→i i j i↔j
fuente
Sean y dos estados distintos de una cadena de Markov. Si hay alguna probabilidad positiva de que el proceso pase del estado al estado , cualquiera que sea el número de pasos (digamos 1, 2, 3 ), entonces decimos que el estado es accesible desde el estado .i j i j ⋯ j i
Notationally, expresamos esto como . En términos de probabilidad, se expresa de la siguiente manera: un estado es accesible desde el estado , si existe un número entero tal que .i→j j i m>0 p(m)ij>0
De manera similar, decimos que , si existe un número entero tal que .j→i n>0 p(n)ji>0
Ahora, si tanto como son verdaderas, entonces decimos que los estados y comunican entre sí, y que se expresan como . En términos de probabilidad, esto significa que existen dos enteros tal que y .i→j j→i i j i↔j p ( m ) i j > 0 p ( n ) j i > 0m>0,n>0 p(m)ij>0 p(n)ji>0
Si todos los estados en la Cadena de Markov pertenecen a una clase de comunicación cerrada , entonces la cadena se llama una cadena de Markov irreducible . La irreductibilidad es una propiedad de la cadena.
En una Cadena de Markov irreducible, el proceso puede ir de cualquier estado a cualquier estado , sea cual sea el número de pasos que requiera.
fuente
Algunas de las respuestas existentes me parecen incorrectas.
Como se cita en los Procesos estocásticos de J. Medhi (página 79, edición 4), una cadena de Markov es irreducible si no contiene ningún subconjunto 'cerrado' adecuado que no sea el espacio de estado.
Entonces, si en su matriz de probabilidad de transición, hay un subconjunto de estados que no puede 'alcanzar' (o acceder) a ningún otro estado aparte de esos estados, entonces la cadena de Markov es reducible. De lo contrario, la cadena de Markov es irreducible.
fuente
Primero una palabra de advertencia: nunca mire una matriz a menos que tenga una razón seria para hacerlo: lo único que se me ocurre es buscar dígitos escritos incorrectamente o leer en un libro de texto.
Si es su matriz de transición, calcule . Si todas las entradas son distintas de cero, la matriz es irreducible. De lo contrario, es reducible. Si es demasiado grande, calcule con tan grande como pueda. La misma prueba, un poco menos precisa.exp ( P ) P P n nP exp(P) P Pn n
Irreducibilidad significa: puede pasar de cualquier estado a cualquier otro estado en un número finito de pasos.
En el ejemplo Christoph Hanck , no puede ir directamente del estado 1 al estado 6, pero puede ir 1 -> 2 -> 6P3
fuente