Preguntas etiquetadas con markov-process

Un proceso estocástico con la propiedad de que el futuro es condicionalmente independiente del pasado, dado el presente.

29
Calcular la matriz de transición (Markov) en R

¿Hay alguna manera en R (una función incorporada) para calcular la matriz de transición para una cadena de Markov a partir de un conjunto de observaciones? Por ejemplo, ¿tomar un conjunto de datos como el siguiente y calcular la matriz de transición de primer

22
Proceso de Markov solo depende del estado anterior

Me gustaría que alguien confirme mi comprensión o si me falta algo. La definición de un proceso de Markov dice que el siguiente paso depende solo del estado actual y no de estados pasados. Entonces, digamos que teníamos un espacio de estado de a, b, c, dy pasamos de a-> b-> c-> d. Eso...

21
¿Ejemplos de problemas de modelos ocultos de Markov?

Leí un poco de modelos ocultos de Markov y pude codificar una versión bastante básica. Pero hay dos formas principales en que parezco aprender. Una es leerla e implementarla en el código (lo que está hecho) y la segunda es comprender cómo se aplica en diferentes situaciones (para poder entender...

21
¿Cómo proyectar un nuevo vector en el espacio PCA?

Después de realizar el análisis de componentes principales (PCA), quiero proyectar un nuevo vector en el espacio PCA (es decir, encontrar sus coordenadas en el sistema de coordenadas PCA). He calculado PCA en lenguaje R usando prcomp. Ahora debería poder multiplicar mi vector por la matriz de...

20
Ejemplos de la vida real de los procesos de decisión de Markov

He estado viendo muchos videos tutoriales y tienen el mismo aspecto. Este, por ejemplo: https://www.youtube.com/watch?v=ip4iSMRW5X4 Explican estados, acciones y probabilidades que están bien. La persona lo explica bien, pero parece que no puedo entender para qué se usaría en la vida real. Todavía...

17
¿Alguien puede explicarme NUTS en inglés?

Mi comprensión del algoritmo es la siguiente: Ningún muestreador de giro en U (NUTS) es un método hamiltoniano de Monte Carlo. Esto significa que no es un método de la cadena de Markov y, por lo tanto, este algoritmo evita la parte de la caminata aleatoria, que a menudo se considera ineficiente y...

17
Verifique la propiedad sin memoria de una cadena de Markov

Sospecho que una serie de secuencias observadas son una cadena de Markov ... X=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AAD⋮BCA⋮E⎞⎠⎟⎟⎟⎟X=(ACDDBACBAACADA⋮⋮⋮⋮⋮⋮⋮BCADABE)X=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&D &A\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A &...

14
Un ejemplo práctico para MCMC

Estaba pasando por algunas conferencias relacionadas con MCMC. Sin embargo, no encuentro un buen ejemplo de cómo se usa. ¿Alguien puede darme un ejemplo concreto? Todo lo que puedo ver es que corren una cadena de Markov y dicen que su distribución estacionaria es la distribución deseada. Quiero un...