Deje denotar la mediana y deje que denote la media de una muestra aleatoria de tamaño de una distribución que es N (\ mu, \ sigma ^ 2) . ¿Cómo puedo calcular E (Y | \ bar {X} = \ bar {x}) ?
Intuitivamente, debido al supuesto de normalidad, tiene sentido afirmar que y de hecho esa es la respuesta correcta. ¿Puede eso mostrarse rigurosamente?
Mi pensamiento inicial fue abordar este problema utilizando la distribución normal condicional, que generalmente es un resultado conocido. El problema es que, dado que no conozco el valor esperado y, en consecuencia, la varianza de la mediana, tendría que calcular los que usan la estadística de 1er orden. Pero eso es muy complicado y preferiría no ir a menos que sea absolutamente necesario.
Respuestas:
Deje que denote la muestra original y el vector aleatorio con entradas . Entonces está centrado normalmente (pero sus entradas no son independientes, como se puede ver por el hecho de que su suma es cero con toda probabilidad). Como funcional lineal de , el vector de es normal, por lo tanto el cálculo de sus basta matriz de covarianza para mostrar que es independiente de .X Z Zk=Xk−X¯ Z X (Z,X¯) Z X¯
Volviendo a , se ve que donde es la mediana de . En particular, depende de solo, por lo tanto, es independiente de , y la distribución de es simétrica, por lo tanto, está centrado.Y Y=X¯+T T Z T Z T X¯ Z T
Finalmente,
fuente
La mediana de la muestra es una estadística de orden y tiene una distribución no normal, por lo que la distribución conjunta de muestras finitas de la mediana de la muestra y la media de la muestra (que tiene una distribución normal) no sería bivariada normal. Recurriendo a aproximaciones, asintóticamente las siguientes reservas (ver mi respuesta aquí ):
con
donde es la media muestral y la media poblacional, es la mediana muestral y la mediana poblacional, es la densidad de probabilidad de las variables aleatorias involucradas y es la varianza. μYnvf()σ2X¯n μ Yn v f() σ2
Entonces, aproximadamente para muestras grandes, su distribución conjunta es bivariada normal, por lo que tenemos que
donde es el coeficiente de correlación.ρ
Al manipular la distribución asintótica para que se convierta en la distribución conjunta aproximada de la muestra grande de la media y la mediana muestrales (y no de las cantidades estandarizadas), tenemos
Entonces
Tenemos que debido a la simetría de la densidad normal, por lo que llegamos a2f(v)=2/σ2π−−√
donde hemos usado . Ahora la variable estandarizada es una normal estándar, por lo que su valor absoluto es una distribución medio normal con un valor esperado igual a (ya que la varianza subyacente es la unidad). Entoncesv=μ 2/π−−−√
fuente
La respuesta es .x¯
Deje que tenga una distribución multivariada para la cual todos los marginales son simétricos con respecto a un valor común . (No importa si son independientes o incluso si están distribuidas de forma idéntica). Defina como la media aritmética de escriba para el vector de residuos. El supuesto de simetría en implica que la distribución de es simétrica con respecto a ; es decir, cuando es cualquier evento,x=(x1,x2,…,xn) F μ x¯ xi, x¯=(x1+x2+⋯+xn)/n x−x¯=(x1−x¯,x2−x¯,…,xn−x¯) F x−x¯ 0 E⊂Rn
La aplicación del resultado generalizado en /stats//a/83887 muestra que la mediana de tiene una distribución simétrica de aproximadamente . Suponiendo que exista su expectativa (que ciertamente es el caso cuando las distribuciones marginales de son normales), esa expectativa tiene que ser (porque la simetría implica que es igual a su propia negativa).x−x¯ 0 xi 0
Ahora, al restar el mismo valor de cada uno de un conjunto de valores no cambia su orden, (la mediana de ) es igual a más la mediana de . En consecuencia, su expectativa condicional en es igual a la expectativa de condicional en , más . El último obviamente es mientras que el primero es porque la expectativa incondicional es . Su suma es QED.x¯ Y xi x¯ x−x¯ x¯ x−x¯ x¯ E(x¯ | x¯) x¯ 0 0 x¯,
fuente
Esto es más simple que las respuestas anteriores. La media muestral es una estadística completa y suficiente (cuando se conoce la varianza, pero nuestros resultados no dependen de la varianza, por lo tanto, serán válidos también en la situación en la que se desconoce la varianza). Entonces, Rao-Blackwell junto con los teoremas de Lehmann-Scheffe (ver wikipedia ...) implicarán que la expectativa condicional de la mediana, dada la media aritmética, es el estimador imparcial de varianza mínima única de la expectativa . Pero sabemos que esa es la media aritmética, por lo tanto, el resultado sigue.μ
También utilizamos que la mediana es un estimador imparcial, que se deduce de la simetría.
fuente