¿Cómo modelar la suma de variables aleatorias de Bernoulli para datos dependientes?

9

Tengo casi las mismas preguntas como esta: ¿Cómo puedo modelar eficientemente la suma de variables aleatorias de Bernoulli?

Pero la configuración es bastante diferente:

  1. S=i=1,NXi , , ~ 20, ~ 0.1P(Xi=1)=piNpi

  2. Tenemos los datos para los resultados de las variables aleatorias de Bernoulli: ,Xi,jSj=i=1,NXi,j

  3. Si estimamos el con la estimación de máxima verosimilitud (y obtenemos ), resulta que es mucho más grande que esperado por los otros criterios:pip^iMLEP^{S=3}(p^iMLE)P^{S=3}(p^iMLE)P^expected{S=3}0.05

  4. Por lo tanto, y no pueden tratarse como independientes (tienen una pequeña dependencia).XiXj (j>k)

  5. Hay algunas restricciones como estas: y (conocido), lo que debería ayudar con la estimación de .pi+1pis2P^{S=s}=AP{S}

¿Cómo podríamos intentar modelar la suma de las variables aleatorias de Bernoulli en este caso?

¿Qué literatura podría ser útil para resolver la tarea?

ACTUALIZADO

Hay algunas ideas más:

(1) Es posible suponer que la dependencia desconocida entre comienza después de 1 o más éxitos en serie. Entonces, cuando , y .Xii=1,KXi>0pK+1pK+1pK+1<pK+1

(2) Para usar MLE necesitamos el modelo menos cuestionable. Aquí hay una variante:

P{X1,...,Xk}=(1p1)...(1pk) si para cualquier k if y , y para cualquier k.i=1,kXi=0P{X1,...,Xk,Xk+1,...,XN}=(1p1)...pkP{Xk+1,...,XN}i=1,k1Xi=0Xk=1P{Xk+1=1,Xk+2=1,...,XN=1}pk+1pk+2...pN

(3) Dado que solo nos interesa , podemos establecer (la probabilidad de éxitos para N- (k + 1) +1 sumandos desde la cola). Y use la parametrizaciónP{S}P{Xk+1,...,XN}P{i=1,kXi=s;N(k+1)+1=l}i=k+1,NXiP{i=k,NXi=s;Nk+1=l}=ps,l

(4) Use MLE para el modelo basado en los parámetros y con para (y cualquier ) y algunas otras restricciones nativas .p1,...,pNp0,1,p1,1;p0,2,p1,2,p2,2;...ps,l=0s6l

¿Está todo bien con este plan?

ACTUALIZADO 2

Algunos ejemplos de distribución empírica (rojo) en comparación con la distribución de Poisson (azul) (las medias de poisson son 2.22 y 2.45, los tamaños de muestra son 332 y 259):P{S}

muestra1 muestra2

Para muestras (A1, A2) con las medias de Poisson 2.28 y 2.51 (los tamaños de muestra son 303 y 249):

muestra3 muestra4

Para samlpe A1 + A2 unido (el tamaño de la muestra es 552):

muestra 3 + muestra 4

Parece que alguna corrección a Poisson debería ser el mejor modelo :).

Andrey
fuente
2
¿Cuáles son las ? Xi,j
chl
1
@Andrey Las fórmulas en (2) y la segunda restricción en (4) no tienen sentido: ¿qué significan los sombreros en (4)? ¿Qué es el ? (Solo ha definido , no ) ¿Es la expresión en (4) una suma de tres productos u otra cosa? SSjS
whuber
Xi,j son resultados aleatorios de Bernoulli (el resultado número i en la serie j), es el resultado número j de la suma (la suma sobre la serie). es la variable aleatoria de la suma; sombreros en (4) significan las estimaciones. Así que hay alguna información adicional sobre la suma de los valores más bajos de . Perdón por la confusion. SjSS
Andrey

Respuestas:

3

Un enfoque sería modelar las con un modelo lineal generalizado (GLM). Aquí, formularía , la probabilidad de éxito en la prueba como prueba (función logística lineal) del historial de observación reciente. Por lo tanto, básicamente está ajustando un GLM autorregresivo donde el ruido es Bernoulli y la función de enlace es logit. La configuración es:Xpii

pi=f(b+a1Xi1+a2Xi2+akXik) , donde

f(x)=11+exp(x) , y

XiBernoulli(pi)

Los parámetros del modelo son , que pueden estimarse por regresión logística. (Todo lo que tiene que hacer es configurar su matriz de diseño utilizando la parte relevante del historial de observación en cada ensayo, y pasarla a una función de estimación de regresión logística; la probabilidad de registro es cóncava, por lo que hay un máximo global único para los parámetros). Si los resultados son realmente independientes, entonces los se establecerán en cero; positivo significa que los posteriores aumentan cada vez que se observa un éxito.{b,a1,ak}aiaipi

El modelo no proporciona una expresión simple para la probabilidad sobre la suma de las 's, pero esto es fácil de calcular por simulación (filtrado de partículas o MCMC) ya que el modelo tiene una estructura Markovian simple.Xi

Este tipo de modelo se ha utilizado con gran éxito para modelar las dependencias temporales entre los "picos" de las neuronas en el cerebro, y existe una extensa literatura sobre modelos de procesos puntuales autorregresivos. Ver, por ejemplo, Truccolo et al 2005 (aunque este documento usa una probabilidad de Poisson en lugar de Bernoulli, pero el mapeo de uno a otro es sencillo).

jpillow
fuente
1

Si la dependencia se debe a la aglomeración, un modelo compuesto de Poisson podría ser la solución como modelo de . Una referencia algo aleatoria es esta de Barbour y Chryssaphinou.Sj

En una dirección completamente diferente, ya que indica que es 20, y por lo tanto relativamente pequeño, podría ser construir un modelo gráfico de los , pero no sé si su configuración y sus datos lo hacen posible. Como comenta @chl, será útil si describe cuáles son las .NXijXi,j

Si las representan mediciones secuenciales, por ejemplo, a lo largo del tiempo, y la dependencia está relacionada con esto, una tercera posibilidad, y hasta cierto punto un compromiso entre las dos sugerencias anteriores, es usar un modelo oculto de Markov de las 's.Xi,jXi,j

NRH
fuente
Xi,j son resultados aleatorios de Bernoulli. Perdón por la inexactitud. Entonces, son la suma de los puntajes de los equipos deportivos por intervalos de tiempo iguales secuenciales. Resulta que después de que se marca el primer gol, las probabilidades del siguiente gol en el intervalo serán diferentes. Xi
Andrey