¿Cuál es el más grande de un grupo de variables aleatorias distribuidas normalmente?

14

Tengo variables aleatorias X0 0,X1,...,Xnorte . X0 tiene una distribución normal con media μ>0 y varianza 1 . Los X1,,Xn rvs se distribuyen normalmente con media 0 y varianza 1 . Todo es mutuamente independiente.

Supongamos que E denota el evento de que X0 0 es el mayor de estos, es decir, X0>max(X1,,Xn) . Quiero calcular o estimar Pr[E] . Estoy buscando una expresión para Pr[E] , en función de μ,n , o una estimación o aproximación razonable para Pr[E] .

En mi aplicación, es fijo ( n = 61 ) y quiero encontrar el valor más pequeño para μ que haga Pr [ E ] 0.99 , pero también tengo curiosidad sobre la pregunta general.nn=61μPr[E]0.99

DW
fuente
¿Qué tan grande es ? Debería haber algunas buenas expresiones asintóticas basadas en la teoría de muestras grandes.norte
whuber
@whuber, gracias! Edité la pregunta: en mi caso . Incluso si n = 61 no es lo suficientemente grande como para contarlo, si hay buenas estimaciones asintóticas en el caso de que n sea ​​grande, sería interesante. n=61n=61n
DW
55
Usando la integración numérica, . μ4.91912496
whuber

Respuestas:

14

El cálculo de tales probabilidades ha sido estudiado ampliamente por los ingenieros de comunicaciones bajo el nombre de señalización ortogonal -aryM donde el modelo es que una de las señales ortogonales igualmente energéticas igualmente probables se transmiten y el receptor que intenta decidir cuál se transmitió al examinar el salidas de filtros M adaptadas a las señales. Condicionadas a la identidad de la señal transmitida, las salidas de muestra de los filtros coincidentes son (condicionalmente) variables aleatorias normales independientes de varianza unitaria. La salida de muestra del filtro que coincide con la señal transmitida es una N ( μ , 1 )MMN(μ,1)variable aleatoria, mientras que las salidas de todos los demás filtros son variables aleatorias.N(0,1)

La probabilidad condicional de una decisión correcta (que en el presente contexto es el evento ) condicionado a X 0 = α es P ( C X 0 = α ) = n i = 1 P { X i < α X 0 = α } = [ Φ ( α )C={X0>maxiXi}X0=α dondeΦ()

P(CX0=α)=i=1nP{Xi<αX0=α}=[Φ(α)]n
Φ() es la distribución de probabilidad acumulativa de una variable aleatoria normal estándar y, por lo tanto, la probabilidad incondicional es donde ϕ ( ) es la función de densidad normal estándar. No existe una expresión de forma cerrada para el valor de esta integral que debe evaluarse numéricamente. Los ingenieros también están interesados ​​en el evento complementario, que la decisión es errónea, pero no les gusta calcular esto como P { X 0 < max i X i } = P ( E ) = 1 - P ( C ) porque esto requiere una evaluación muy cuidadosa de la integral para P ( C )
PAG(C)=-PAG(CX0 0=α)ϕ(α-μ)reα=-[Φ(α)]norteϕ(α-μ)reα
ϕ()
PAG{X0 0<maxyoXyo}=PAG(mi)=1-PAG(C)
PAG(C) con una precisión de muchos dígitos significativos, y dicha evaluación es difícil y lleva mucho tiempo. En cambio, la integral para puede integrarse por partes para obtener P { X 0 < max i X i } = - n [ Φ ( α ) ] n - 1 ϕ ( α ) Φ ( α - μ )1-PAG(C) Esta integral es más fácil de evaluar numéricamente, y su valor en función de μ está graficado y tabulado (aunque desafortunadamente solo para n 20 ) en el Capítulo 5 deIngeniería de SistemasdeTelecomunicacionespor Lindsey y Simon, Prentice-Hall 1973, Dover Press 1991 Alternativamente, los ingenieros usan launión unidao la desigualdad de Bonferroni P { X 0 < max i X i }
P{X0<maxiXi}=n[Φ(α)]n1ϕ(α)Φ(αμ)dα.
μnorte20
PAG{X0 0<maxyoXyo}=PAG{(X0 0<X1)(X0 0<X2)(X0 0<Xnorte)}yo=1nortePAG{X0 0<Xyo}=norteQ(μ2)
dónde Q(X)=1-Φ(X) es la función de distribución normal acumulativa complementaria.

Desde el límite de la unión, vemos que el valor deseado 0,01 para PAG{X0 0<maxyoXyo} está acotado arriba por 60 60Q(μ/ /2) qué límite tiene valor 0,01 a μ=5.09.... Esto es ligeramente mayor que el valor más exactoμ=4.919... obtenido por @whuber por integración numérica.

Más discusión y detalles sobre METROSe puede encontrar una señalización ortogonal en las páginas 161-179 de mis apuntes para una clase sobre sistemas de comunicación '

Dilip Sarwate
fuente
4

Una respuesta formal:

La distribución de probabilidad (densidad) para el máximo de norte iid varia es: pN(x)=Np(x)ΦN1(x) where p is the probability density and Φ is the cumulative distribution function.

From this you can calculate the probability that X0 is greater than the N1 other ones via P(E)=(N1)yp(x0)p(y)ΦN2(y)dx0dy

You may need to look into various approximations in order to tractably deal with this for your specific application.

Dave
fuente
6
+1 Actually, the double integral simplifies into a single integral since
yp(x0)dx0=1Φ(yμ)
giving
P(E)=1(N1)ΦN2(y)p(y)Φ(yμ)dy
which is the same as in my answer.
Dilip Sarwate