Estadísticas de orden aproximadas para variables aleatorias normales

38

¿Existen fórmulas bien conocidas para las estadísticas de orden de ciertas distribuciones aleatorias? Particularmente las estadísticas de primer y último orden de una variable aleatoria normal, pero también se agradecería una respuesta más general.

Editar: para aclarar, estoy buscando fórmulas aproximadas que puedan evaluarse más o menos explícitamente, no la expresión integral exacta.

Por ejemplo, he visto las siguientes dos aproximaciones para la estadística de primer orden (es decir, el mínimo) de un rv normal:

e1:nμn12n1σ

y

e1:nμ+Φ1(1n+1)σ

El primero de ellos, para , da aproximadamente que parece un límite suelto.e 1 : 200μ - 10 σn=200e1:200μ10σ

El segundo da mientras que un Monte Carlo rápido da , por lo que no es una mala aproximación pero tampoco es excelente, y Más importante aún, no tengo ninguna intuición sobre de dónde viene.e 1 : 200μ - 2.75 σe1:200μ2.58σe1:200μ2.75σ

¿Alguna ayuda?

Chris Taylor
fuente
44
Si usa R, vea la función ppoints .
cardenal
1
@probabilityislogic ha dado una buena intuición para las aproximaciones que enumera. ¿Sería útil si di algo más desde un punto de vista alternativo, o si ha satisfecho su curiosidad sobre este asunto?
cardenal

Respuestas:

31

La referencia clásica es Royston (1982) [1] que tiene algoritmos que van más allá de las fórmulas explícitas. También cita una fórmula bien conocida de Blom (1958): con . Esta fórmula da un multiplicador de -2.73 para .α=0.375n=200,r=1E(r:n)μ+Φ1(rαn2α+1)σα=0.375n=200,r=1

[1]: Algoritmo AS 177: Estadísticas de orden normal esperadas (exactas y aproximadas) JP Royston. Revista de la Real Sociedad Estadística. Serie C (Estadística Aplicada) Vol. 31, núm. 2 (1982), págs. 161-165

Aniko
fuente
21

La distribución de la estadística de orden i de cualquier aleatorio continuo La variable con un PDF viene dada por la distribución compuesta "beta-F". La forma más intuitiva para pensar en esta distribución, es considerar la estadística de orden i en una muestra de . Ahora, para que el valor de la estadística de orden i de una variable aleatoria sea ​​igual a , necesitamos 3 condiciones:X xNXx
  1. x F X ( x ) F X ( x ) = P r ( X < x )i1 valores por debajo de , esto tiene probabilidad para cada observación, donde es el CDF de la variable aleatoria X.xFX(x)FX(x)=Pr(X<x)
  2. x 1 - F X ( x )NiValores de superiores a , esto tiene probabilidadx1FX(x)
  3. 1 valor dentro de un intervalo infinitesimal que contiene , esto tiene probabilidad donde es el PDF de la variable aleatoriaf X ( x ) d x f X ( x ) d x = d F X ( x ) = P r ( x < X < x + d x ) XxfX(x)dxfX(x)dx=dFX(x)=Pr(x<X<x+dx)X

Hay formas de hacer esta elección, por lo que tenemos:(N1)(N1i1)

fi(xi)=N!(i1)!(Ni)!fX(xi)[1FX(xi)]Ni[FX(xi)]i1dx

EDITAR en mi publicación original, hice un intento muy pobre de ir más allá de este punto, y los comentarios a continuación reflejan esto. He tratado de rectificar esto a continuación

Si tomamos el valor medio de este pdf obtenemos:

E(Xi)=xifi(xi)dxi

Y en esta integral, hacemos el siguiente cambio de la variable (tomando la pista de @ henry), y la integral se convierte en:pi=FX(xi)

E(Xi)=01FX1(pi)Beta(pi|i,Ni+1)dpi=EBeta(pi|i,Ni+1)[FX1(pi)]

Entonces, este es el valor esperado del CDF inverso, que puede aproximarse bien utilizando el método delta para dar:

EBeta(pi|i,Ni+1)[FX1(pi)]FX1[EBeta(pi|i,Ni+1)]=FX1[iN+1]

Para hacer una mejor aproximación, podemos expandirnos al segundo orden (primo que denota la diferenciación), y observando que la segunda derivada de un inverso es:

2a2FX1(a)=FX(FX1(a))[FX(FX1(a))]3=fX(FX1(a))[fX(FX1(a))]3

Deje que . Entonces tenemos:νi=FX1[iN+1]

=νi-(i

EBeta(pi|i,Ni+1)[FX1(pi)]FX1[νi]VarBeta(pi|i,Ni+1)[pi]2fX(νi)[fX(νi)]3
=νi(iN+1)(1iN+1)2(N+2)fX(νi)[fX(νi)]3

Ahora, especializándonos en el caso normal, tenemos FX(x)=Φ(x-μ

fX(x)=1σϕ(xμσ)fX(x)=xμσ3ϕ(xμσ)=xμσ2fX(x)
FX(x)=Φ(xμσ)FX1(x)=μ+σΦ1(x)

Tenga en cuenta que Y la expectativa se convierte aproximadamente:fX(νi)=1σϕ[Φ1(iN+1)]

E[xi]μ+σΦ1(iN+1)+(iN+1)(1iN+1)2(N+2)σΦ1(iN+1)[ϕ[Φ1(iN+1)]]2

Y finalmente:

E[xi]μ+σΦ1(iN+1)[1+(iN+1)(1iN+1)2(N+2)[ϕ[Φ1(iN+1)]]2]

Aunque, como ha señalado @whuber, esto no será exacto en las colas. De hecho, creo que puede ser peor, debido a la asimetría de una beta con diferentes parámetros

probabilidadislogica
fuente
1
¿"Estimador de máxima verosimilitud de una variable aleatoria "? No estoy seguro de qué es eso, pero creo que (casi) has calculado el modo .
cardenal
1
Algo misterioso ocurre alrededor de dos tercios del camino cuando de repente y aparecen sin advertencia o definición. σμσ
whuber
2
No me refiero a "apilar", pero también es difícil para mí ver cómo la cantidad entre paréntesis se puede aproximar por un número negativo.
cardenal
1
@probabilityislogic, mientras que a nivel de cálculo, podría decir que en este caso estamos considerando una función bivariada y simplemente maximizando sobre una variable en lugar de otra, creo que hay razones matemáticas, estadísticas y pedagógicas para no llamar a lo que usted llama he hecho "estimación de máxima verosimilitud". Son demasiado numerosos para enumerar en este espacio, pero uno simple que creo que es lo suficientemente convincente es que usamos un vocabulario arcano particular en estadística por una razón. Cambiar eso por capricho por un solo problema puede conducir a malentendidos (s) ... / ...
cardenal
2
@probabilityislogic (+1) para la respuesta revisada. Una sugerencia, tal vez es mejor que que significa "implica". Le tomó mirar un par de líneas durante unos segundos para darse cuenta de que no estaba haciendo un reclamo de convergencia.
cardenal
13

La respuesta de Aniko se basa en la conocida fórmula de Blom que implica una elección de . Resulta que esta fórmula es en sí misma una mera aproximación de una respuesta exacta debido a G. Elfving (1947), La distribución asintótica del rango en muestras de una población normal , Biometrika, vol. 34, págs. 111-119. La fórmula de Elfving está dirigida al mínimo y al máximo de la muestra, para la cual la elección correcta de alfa es . La fórmula de Blom resulta cuando aproximamos por .π / 8 π 3α=3/8π/8π3

Al usar la fórmula de Elfving en lugar de la aproximación de Blom, obtenemos un multiplicador de -2.744165. Este número está más cerca de la respuesta exacta de Erik P. (-2.746) y de la aproximación de Monte Carlo (-2.75) que la aproximación de Blom (-2.73), aunque es más fácil de implementar que la fórmula exacta.

Hal M. Switkay
fuente
¿Podría darnos un poco más de detalles sobre cómo se llega a a través de Elfving (1947)? No es obvio en el artículo. α=π/8
Anthony
1
Anthony - Estoy confiando en el libro de texto Mathematical Statistics, de Samuel Wilks, pub. Wiley (1962). Ejercicio 8.21 en la p. 249 estados: "Si x_ (1), x_ (n) son las estadísticas de orden más pequeño y más grande de una muestra de tamaño n de un cdf continuo F (x) ... la variable aleatoria 2n * sqrt {[F (x_ ( 1))] [1-F (x_ (n))]} tiene una distribución límite como n -> infinito, con media pi / 2 y varianza 4- (pi ^ 2) / 4 ". (Lo siento, ¡no sé el código de marcado!) Para una distribución simétrica, F (x_ (1)) = 1-F (x_ (n)). Así, F (x_ (n)) se trata de pi / (4n), o x_ (n) se trata de F ^ (- 1) (pi / (4n)). La fórmula de Blom usa la aproximación 3 / (4n).
Hal M. Switkay
Esto me recuerda el infame proyecto de ley " " atribuido a la Legislatura del Estado de Indiana. (Aunque el artículo de wikipedia sugiere que la versión popular de la historia no es precisa.)π=3
steveo'america
7

Dependiendo de lo que quiera hacer, esta respuesta puede o no ayudar: obtuve la siguiente fórmula exacta del paquete de estadísticas de Maple .

with(Statistics):
X := OrderStatistic(Normal(0, 1), 1, n):
m := Mean(X):
m;

1/2_t0n!2e1/2_t02(1/21/2erf(1/2_t02))1+n(1+n)!πd_t0

Por sí solo, esto no es muy útil (y probablemente podría derivarse con bastante facilidad a mano, ya que es el mínimo de variables aleatorias), pero permite una aproximación rápida y muy precisa para valores dados de , mucho más preciso que Monte Carlo:nnn

evalf(eval(m, n = 200));
evalf[25](eval(m, n = 200));

da -2.746042447 y -2.746042447451154492412344, respectivamente.

(Divulgación completa: mantengo este paquete).

Erik P.
fuente
1
@ProbabilityIsLogic obtuvo esta integral para todas las estadísticas de pedidos en la primera mitad de su respuesta.
whuber