Paseo aleatorio con impulso

18

Considere una caminata aleatoria entera que comienza en 0 con las siguientes condiciones:

  • El primer paso es más o menos 1, con igual probabilidad.

  • Cada paso futuro es: 60% de probabilidades de estar en la misma dirección que el paso anterior, 40% de probabilidades de estar en la dirección opuesta

¿Qué tipo de distribución produce esto?

Sé que una caminata aleatoria sin impulso produce una distribución normal. ¿El impulso solo cambia la varianza, o cambia la naturaleza de la distribución por completo?

Estoy buscando una respuesta genérica, por lo que en un 60% y 40% arriba, realmente me refiero a p y 1-p

barrycarter
fuente
En realidad, @Dilip, necesita una cadena de Markov con estados indexados por pares ordenados (i,i+1) y (i,i1) , iZ . Las transiciones son (i,i+1)(i+1,i+1) y (i,i1)(i1,i) con probabilidadp y(i,i+1)(i+1,i) y(i,i1)(i1,i2) con probabilidad1p .
whuber
Tenga en cuenta que los tamaños de los pasos forman una cadena de Markov en y resulta que (?!) lo ha comenzado en una distribución estacionaria. {1,+1}
cardenal
¿Desea una distribución limitante (marginal) para donde X n{ - 1 , + 1 } son los pasos de la caminata? Sn=i=1nXnXn{1,+1}
cardenal
Otro enfoque podría ser mirar sumas alternas de variables aleatorias geométricas, luego aplicar alguna teoría de martingala. El problema es que tendrías que definir algún tipo de tiempo de detención, lo que podría ser complicado.
shabbychef

Respuestas:

8

Para llegar inmediatamente a la conclusión, el "impulso" no cambia el hecho de que la distribución normal es una aproximación asintótica de la distribución de la caminata aleatoria, pero la varianza cambia de a n p / ( 1 - p ) . Esto puede derivarse de consideraciones relativamente elementales en este caso especial. No es muy difícil generalizar los argumentos a continuación a un CLT para cadenas de Markov de espacio de estado finito, por ejemplo, pero el mayor problema es en realidad el cálculo de la varianza. Para el problema particular puede4np(1p)np/(1p)se calcula y, con suerte, los argumentos a continuación pueden convencer al lector de que es la variación correcta.

Utilizando la información que Cardinal proporciona en un comentario, la caminata aleatoria se da como donde X k{ - 1 , 1 } y las X k forman una cadena de Markov con matriz de probabilidad de transición ( p 1 - p 1 - p p ) . Para consideraciones asintóticas cuando n la distribución inicial de X 1 no juega ningún papel, entonces arreglemos

Sn=k=1nXk
Xk{1,1}Xk
(p1p1pp).
nX1 en aras del siguiente argumento, y supongamos también que 0 < p < 1 . Una técnica ingeniosa es descomponer la cadena de Markov en ciclos independientes. Supongamos que σ 1 denota la primera vez, después del tiempo 1, que la cadena de Markov vuelve a 1. Es decir, si X 2 = 1 entonces σ 1 = 2 , y si X 2 = X 3 = - 1 y X 4 = 1 entonces σ 1 = 4X1=10<p<1σ1X2=1σ1=2X2=X3=1X4=1σ1=4. En general, supongamos que denota el i -ésimo tiempo de retorno a 1 y que τ i = σ i - σ i - 1 denota los tiempos de retorno (con σ 0 = 1 ). Con estas definiciones, tenemosσiiτi=σiσi1σ0=1
  • Con entonces S σ n = X 1 + n i = 1 U i .Ui=k=σi1+1σiXk
    Sσn=X1+i=1nUi.
  • Dado que toma el valor - 1 para k = σ i - 1 + 1 , , σ i - 1 y X σ i = 1 mantiene que U i = 2 - τ i .Xk1k=σi1+1,,σi1Xσi=1
    Ui=2τi.
  • Los tiempos entre retornos, , para una cadena de Markov son iid (formalmente debido a la fuerte propiedad de Markov) y en este caso con la media E ( τ i ) = 2 y la varianza V ( τ i ) = 2 pτiE(τi)=2 . A continuación se indica cómo calcular la media y la varianza.V(τi)=2p1p
  • El CLT ordinario para las variables iid produce que
    SσnasympN(0,2np1p).
  • La última cosa a tener en cuenta, que requiere un pequeño salto de fe, porque omito los detalles, es que , lo que produce que S n asymp N ( 0 , n pσn=1+i=1nτi2n
    SnasympN(0,np1p).

τ1P(τ1=1)=pm2P(τ1=m)=(1p)2pm2X1pZ=1(τ1=1)1+X(1Z)τ1

NRH
fuente
+1 bien. Solo habría escrito distribución asintótica para1/ /norteSnorte, para mostrar claramente que CLT se aplica de la manera habitual. Pero eso es solo cuestión de gustos.
mpiktas
2

Van Belle's 'Rule of Thumb' 8.7 (from the second edition of his book) includes an approximation for the standard error of the mean when innovations have autocorrelation ρ. Translating this using ρ=2p1 da

True standard error of x¯p1psn,
where nx¯ is the position of the random walk after n steps, and s is the sample standard deviation (which will be, asymptotically in n, 1x¯2. The upshot is that I expect, as a rough approximation, that the standard deviation of nx¯ should be around np/(1p).

edit: I had the wrong autocorrelation (or rather p should have been interpreted differently); is now consistent (I hope!)

shabbychef
fuente
Interesting. I'm not sure that yields anything very sensible for the p=0 subcase; though, that could be due to pathologies associated with that case.
cardinal
@cardinal good catch, the autocorrelation should be ρ=2p1, not 12p. correcting it...
shabbychef