Expectativa de la raíz cuadrada de la suma de variables aleatorias uniformes al cuadrado independientes

9

Deje que X1,,XnU(0,1) sea independiente y identicallly distribuido variables aleatorias uniformes estándar.

Let Yn=inXi2I seek: E[Yn]


La expectativa de es fácil:Yn

E[X2]=01y2y=13E[Yn]=E[inXi2]=inE[Xi2]=n3

Ahora para la parte aburrida. Para aplicar LOTUS, necesitaría el pdf de . Por supuesto, el pdf de la suma de dos variables aleatorias independientes es la convolución de sus pdf. Sin embargo, aquí tenemos variables aleatorias y supongo que la convolución conduciría a una ... expresión enrevesada (juego de palabras horrible). ¿Hay alguna forma más inteligente?Ynn

Preferiría ver la solución correcta , pero si es imposible o demasiado complicado, una aproximación asintótica para grande podría ser aceptable. Por la desigualdad de Jensen, sé quen

E[Yn]=n3E[Yn]

Pero esto no me ayuda mucho, a menos que pueda encontrar también un límite inferior no trivial. Tenga en cuenta que el CLT no se aplica directamente aquí, porque tenemos la raíz cuadrada de la suma de RV independientes, no solo la suma de los RV independientes. Tal vez podría haber otros teoremas de límites (que ignoro) que pueden ser de ayuda aquí.

DeltaIV
fuente
3
Consulte esta pregunta para obtener un resultado asintótico: stats.stackexchange.com/questions/241504/…
S. Catterall
44
Obtengo según la pregunta vinculada anteriormente. E[Yn]n3115
S. Catterall reinstala a Monica el
2
No creo que usaría ninguno de los enfoques descritos en esa respuesta (¡de los cuales hay más de dos!) :-). La razón es que puede aprovechar simulaciones simples y directas para estimar las expectativas, mientras que una solución analítica parece imposible de obtener. Me gusta mucho el enfoque de @ S. Catterall (+1 para esa solución, que no había leído antes). La simulación muestra que funciona bien incluso para pequeños . n
whuber
3
Vale la pena hacer la simulación :-). Trace la diferencia entre la media simulada y la fórmula aproximada contra . Le mostrará claramente qué tan bien funciona la aproximación en función de n . nn
whuber
44
Claramente mientras que la aproximación daE[Y1]=0.5. En ese caso13115=4150.516 habrían sido correctos. Pero la aproximación mejora después de eso. 13112
Henry

Respuestas:

11

Un enfoque es calcular primero la función generadora de momento (mgf) de Yn definida por Yn=U12++Un2 donde Ui,i=1,,n es independiente y está distribuido de manera idéntica uniforme aleatorio estándar variables

Cuando tenemos eso, podemos ver que

EYn
es el momento fraccionada deYnde ordenα=1/2. Luego podemos usar los resultados del artículo Noel Cressie y Marinus Borkent: "La función generadora de momentos tiene sus momentos",Journal of Statistical Planning and Inference13 (1986) 337-344, que proporciona momentos fraccionarios a través de la diferenciación fraccional de la función generadora de momentos. .

Primero el momento que genera la función de U12 , que escribimos M1(t) .

M1(t)=EetU12=01etx2xdx
y lo evalué (con ayuda de Maple y Wolphram Alpha) para dar
M1(t)=erf(t)π2t
dondei=1 es la unidad imaginaria. (Wolphram Alpha da una respuesta similar,pero en términos de la integral de Dawson.) Resulta que en su mayoría necesitaremos el caso parat<0. Ahora es fácil encontrar el mgf deYn:
Mn(t)=M1(t)n
Luego, para los resultados del trabajo citado. Paraμ>0definen laintegral de ordenμde la funciónfcomo
Iμf(t)Γ(μ)1t(tz)μ1f(z)dz
Entonces, paraα>0 y nointegral,n un número entero positivo, y0<λ<1 tal queα=nλ . Entonces la derivada def de ordenα se define como
Dαf(t)Γ(λ)1t(tz)λ1dnf(z)dzndz.
Luego declaran (y prueban) el siguiente resultado, para una variable aleatoria positivaX : Supongamos quese defineMX (mgf). Entonces, paraα>0 ,
DαMX(0)=EXα<
Ahora podemos intentar aplicar estos resultados aYn . Conα=1/2 encontramos
EYn1/2=D1/2Mn(0)=Γ(1/2)10|z|1/2Mn(z)dz
donde el primo denota la derivada. Maple da la siguiente solución:
0n(erf(z)π2ezz)en(2ln2+2ln(erf(z))ln(z)+ln(π))22π(z)3/2erf(z)dz
Mostraré una gráfica de esta expectativa, hecha en arce usando integración numérica, junto con la solución aproximadaA(n)=n/31/15 de algún comentario (y discutido en la respuesta por @Henry). Son notablemente cercanos:

Comparación exacta y aproximada

Como complemento, una gráfica del porcentaje de error:

Error relativo (porcentaje) en la gráfica anterior

Por encima de aproximadamente n=20 la aproximación es casi exacta. Debajo del código de arce utilizado:

int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t>0;
int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t<0;
M := t -> erf(sqrt(-t))*sqrt(Pi)/(2*sqrt(-t))
Mn := (t,n) -> exp(n*log(M(t)))
A  :=  n -> sqrt(n/3 - 1/15)
Ex :=  n ->   int( diff(Mn(z,n),z)/(sqrt(abs(z))*GAMMA(1/2) ), z=-infinity..0 ,numeric=true)

plot([Ex(n),A(n)],n=1..100,color=[blue,red],legend=[exact,approx],labels=[n,expectation],title="expectation of sum of squared uniforms")
plot([((A(n)-Ex(n))/Ex(n))*100],n=1..100,color=[blue],labels=[n,"% error"],title="Percentage error of approximation")
kjetil b halvorsen
fuente
1
muy interesante. Si pudiera agregar algunas parcelas, esta sería una excelente respuesta. Sin embargo, notaré una clara ventaja de la aproximación CLT aquí. La aproximación muestra claramente que crece comoE[Yn] cuandon. La solución Maple no (o al menos no puedo entender eso). nn
DeltaIV
5

Como comentario extendido: parece claro aquí que comienza conE[E[Yn]=E[iXi2] cuandon=1y luego se acerca aE[Yn]=12=n3112n=1 medida queaumentan, relacionado con la varianza den3115n cayendo de1Yn hacia1112 . Mi pregunta vinculada que S. Catterall respondióproporciona una justificación para el115 resultado asintótico basado en cadaX2itener media1n3115Xi2 y varianza413 , y para que la distribución sea aproximadamente y asintóticamente normal.445

n[0,1]nn116n=16n=4

ingrese la descripción de la imagen aquí

n=2n=31iXin=3n

Enrique
fuente
2
norte=400Y4004000 02094%11121013
1
y400y400=20
3
2[1,1]nn=4000.021112
1
U([1,1])