Suponga que X = ~ , donde .
¿Cómo se calcula la expectativa condicional de , dónde y Cuáles son las estadísticas de pedido más pequeñas y más grandes respectivamente?
Mi primer pensamiento sería que, dado que las estadísticas del pedido limitan el rango, es simplemente , pero no estoy seguro si esto es correcto!
Respuestas:
Considere el caso de una muestra iidX1,X2,…,Xn de un uniforme(0,1) distribución. Escalando estas variables porθ y traduciéndolos por θ les otorga un uniforme(θ,2θ) distribución. Todo lo relevante para este problema cambia de la misma manera: las estadísticas del pedido y las expectativas condicionales. Por lo tanto, la respuesta obtenida en este caso especial se mantendrá en general.
Dejar1<k<n. Al emular el razonamiento en https://stats.stackexchange.com/a/225990/919 (o en otro lugar), descubra que la distribución conjunta de(X(1),X(k),X(n)) tiene función de densidad
Fijación(x,z) y viendo esto en función de y, esto es reconocible como Beta(k−1,n−k) distribución que se ha escalado y traducido al intervalo [x,z]. Por lo tanto, el factor de escala debe ser z−x y la traducción toma 0 a x.
Desde la expectativa de una Beta(k−1,n−k) la distribución es(k−1)/(n−1), encontramos que la expectativa condicional de X(k) debe ser la expectativa traducida y escalada; a saber,
Los casosk=1 y k=n son triviales: sus expectativas condicionales son, respectivamente, X(1) y X(k).
Encontremos la expectativa de la suma de todas las estadísticas de pedidos:
El álgebra se reduce a obtener la suma.∑k=2n−1(k−1)=(n−1)(n−2)/2.
Así
Finalmente, porque elXi están idénticamente distribuidos, todos tienen la misma expectativa, de donde
con la solución única
Merece la pena señalar que este resultado no es una consecuencia única de la simetría de la distribución uniforme: es particular de la familia uniforme de distribuciones. Para cierta intuición, considere los datos extraídos de una Beta(a,a) distribución con a<1. Las probabilidades de esta distribución se concentran cerca 0 y 1 (su densidad tiene forma de U o "bañera"). CuandoX(n)<1/2, podemos estar seguros de que la mayoría de los datos se acumulan cerca de X(1) y por lo tanto tenderá a tener expectativas inferiores al punto medio (X(1)+X(n))/2; y cuando X(1)>1/2, the opposite happens and most of the data are likely piled up close to X(n).
fuente
The following is not a proof but a verification of the desired result once you know that(X(1),X(n)) is a complete statistic for θ :
Joint pdf ofX1,X2,…,Xn is
SoT=(X(1),X(n)) is a sufficient statistic for θ . It can be shown that T is also a complete statistic by proceeding along these lines.
Then by Lehmann-Scheffe theorem,E[X1∣T] is the UMVUE of E(X1)=3θ2 .
Now,1θ(Xi−θ)∼i.i.dU(0,1) , so that 1θ(X(n)−θ)∼Beta(n,1) and 1θ(X(1)−θ)∼Beta(1,n) .
Therefore,E(X(n))=nθn+1+θ=(2n+1)θn+1 and E(X(1))=θn+1+θ=(n+2)θn+1 .
Hence,
This proves that12(X(1)+X(n)) is the UMVUE of 3θ2 by Lehmann-Scheffe.
Since UMVUE is unique whenever it exists, it verifies the claim thatE[X1∣T]=12(X(1)+X(n)) .
fuente