Por ley (débil / fuerte) de números grandes, dados algunos puntos de muestra iid de una distribución, su muestra significa converge a la media de distribución tanto en probabilidad como en tamaño de muestra va al infinito
Cuando el tamaño de la muestra es fijo, me pregunto si el estimador LLN es el mejor estimador en algún sentido. Por ejemplo,
- su expectativa es la media de distribución, por lo que es un estimador imparcial. Su varianza es donde es la varianza de distribución. ¿Pero es UMVU?
¿hay alguna función tal que resuelva el problema de minimización:
En otras palabras, es la mejor wrt alguna función de contraste en el marco de contraste mínimo (véase la Sección 2.1 "Heurística básica de estimación" en " Estadística matemática: ideas básicas y temas seleccionados, Volumen 1 " de Bickle y Doksum).
Por ejemplo, si se sabe / restringe la distribución de la familia de distribuciones gaussianas, entonces la media de la muestra será el estimador MLE de la media de distribución, y MLE pertenece al marco de contraste mínimo, y su función de contraste es menos la probabilidad logarítmica función.
¿hay alguna función tal que resuelva el problema de minimización: para cualquier distribución de dentro de alguna familia de distribuciones?
En otras palabras, es la mejor wrt alguna función perdida y alguna familia de distribuciones en el marco teórico de decisión (véase la Sección 1.3 "El Marco Teórico de Decisión" en " Estadística matemática: ideas básicas y temas seleccionados, Volumen 1 " por Bickle y Doksum).
Tenga en cuenta que las anteriores son tres interpretaciones diferentes para una "mejor" estimación que he conocido hasta ahora. Si conoce otras posibles interpretaciones que pueden aplicarse al estimador LLN, no dude en mencionarlo también.
Respuestas:
La respuesta a su segunda pregunta es sí: la media de la muestra es un estimador de contraste mínimo cuando su función es , cuando x y u son números reales, o , cuando x y u son vectores de columna Esto se desprende de la teoría de los mínimos cuadrados o el cálculo diferencial.l0 (x−u)2 (x−u)′(x−u)
Un estimador de contraste mínimo es, bajo ciertas condiciones técnicas, tanto consistente como asintóticamente normal. Para la media muestral, esto ya se desprende del LLN y del teorema del límite central. No sé si los estimadores de contraste mínimo son "óptimos" de ninguna manera. Lo bueno de los estimadores de contraste mínimo es que muchos estimadores robustos (por ejemplo, la mediana, los estimadores de Huber, los cuantiles de muestra) pertenecen a esta familia, y podemos concluir que son consistentes y asintóticamente normales simplemente aplicando el teorema general para estimadores de contraste mínimo, por lo que siempre que verifiquemos algunas condiciones técnicas (aunque a menudo esto es mucho más difícil de lo que parece).
Una noción de optimismo que no menciona en su pregunta es la eficiencia que, en términos generales, se trata de qué tan grande es una muestra que necesita para obtener una estimación de una determinada calidad. Ver http://en.wikipedia.org/wiki/Efficiency_(statistics)#Asymptotic_efficiency para una comparación de la eficiencia de la media y la mediana (la media es más eficiente, pero la mediana es más robusta para los valores atípicos).
Para la tercera pregunta, sin alguna restricción en el conjunto de funciones f sobre las cuales está encontrando el argmin, no creo que la media de la muestra sea óptima. Para cualquier distribución P, puede arreglar f para que sea una constante que ignore las 's y minimice la pérdida para el P. particular La media de la muestra no puede superar eso.xi
La optimización de Minimax es una condición más débil que la que usted da: en lugar de pedir que sea la mejor función para cualquier en una clase, puede pedir que tenga el mejor rendimiento en el peor de los casos. Es decir, entre el argumento y la expectativa, coloque un . Optimalidad Bayesiano es otro enfoque: poner una distribución previa en , y tomar la expectativa sobre , así como la muestra de .f∗ P f∗ maxP∈F P∈F P P
fuente