Deje que sea independiente y identicallly distribuido variables aleatorias uniformes estándar.
La expectativa de es fácil:
Ahora para la parte aburrida. Para aplicar LOTUS, necesitaría el pdf de . Por supuesto, el pdf de la suma de dos variables aleatorias independientes es la convolución de sus pdf. Sin embargo, aquí tenemos variables aleatorias y supongo que la convolución conduciría a una ... expresión enrevesada (juego de palabras horrible). ¿Hay alguna forma más inteligente?
Preferiría ver la solución correcta , pero si es imposible o demasiado complicado, una aproximación asintótica para grande podría ser aceptable. Por la desigualdad de Jensen, sé que
Pero esto no me ayuda mucho, a menos que pueda encontrar también un límite inferior no trivial. Tenga en cuenta que el CLT no se aplica directamente aquí, porque tenemos la raíz cuadrada de la suma de RV independientes, no solo la suma de los RV independientes. Tal vez podría haber otros teoremas de límites (que ignoro) que pueden ser de ayuda aquí.
Respuestas:
Un enfoque es calcular primero la función generadora de momento (mgf) deYn definida por Yn=U21+⋯+U2n donde Ui,i=1,…,n es independiente y está distribuido de manera idéntica uniforme aleatorio estándar variables
Cuando tenemos eso, podemos ver queEYn−−√
es el momento fraccionada deYn de ordenα=1/2 . Luego podemos usar los resultados del artículo Noel Cressie y Marinus Borkent: "La función generadora de momentos tiene sus momentos",Journal of Statistical Planning and Inference13 (1986) 337-344, que proporciona momentos fraccionarios a través de la diferenciación fraccional de la función generadora de momentos. .
Primero el momento que genera la función deU21 , que escribimos M1(t) .
M1(t)=EetU21=∫10etx2x−−√dx
y lo evalué (con ayuda de Maple y Wolphram Alpha) para dar
M1(t)=erf(−t−−√)π−−√2−t−−√ dondei=−1−−−√ es la unidad imaginaria. (Wolphram Alpha da una respuesta similar,pero en términos de la integral de Dawson.) Resulta que en su mayoría necesitaremos el caso parat<0 . Ahora es fácil encontrar el mgf deYn :
Mn(t)=M1(t)n
Luego, para los resultados del trabajo citado. Paraμ>0 definen laintegral de ordenμ de la funciónf como
Iμf(t)≡Γ(μ)−1∫t−∞(t−z)μ−1f(z)dz
Entonces, paraα>0 y nointegral,n un número entero positivo, y0<λ<1 tal queα=n−λ . Entonces la derivada def de ordenα se define como
Dαf(t)≡Γ(λ)−1∫t−∞(t−z)λ−1dnf(z)dzndz.
Luego declaran (y prueban) el siguiente resultado, para una variable aleatoria positivaX : Supongamos quese defineMX (mgf). Entonces, paraα>0 ,
DαMX(0)=EXα<∞
Ahora podemos intentar aplicar estos resultados aYn . Conα=1/2 encontramos
EY1/2n=D1/2Mn(0)=Γ(1/2)−1∫0−∞|z|−1/2M′n(z)dz
donde el primo denota la derivada. Maple da la siguiente solución:
∫0−∞n⋅(erf(−z−−−√)π−−√−2ez−z−−−√)en(−2ln2+2ln(erf(−z√))−ln(−z)+ln(π))22π(−z)3/2erf(−z−−−√)dz
Mostraré una gráfica de esta expectativa, hecha en arce usando integración numérica, junto con la solución aproximadaA(n)=n/3−1/15−−−−−−−−−√ de algún comentario (y discutido en la respuesta por @Henry). Son notablemente cercanos:
Como complemento, una gráfica del porcentaje de error:
Por encima de aproximadamenten=20 la aproximación es casi exacta. Debajo del código de arce utilizado:
fuente
Como comentario extendido: parece claro aquí que comienza conE[√E[Yn−−√]=E[∑iX2i−−−−−−√] cuandon=1y luego se acerca a√E[Yn−−√]=12=n3−112−−−−−−√ n=1 medida queaumentan, relacionado con la varianza de√n3−115−−−−−−√ n cayendo de1Yn−−√ hacia1112 . Mi pregunta vinculada que S. Catterall respondióproporciona una justificación para el√115 resultado asintótico basado en cadaX2itener media1n3−115−−−−−−√ X2i y varianza413 , y para que la distribución sea aproximadamente y asintóticamente normal.445
fuente