¿Los estimadores eficientes imparciales son estocásticamente dominantes sobre otros estimadores imparciales (medianos)?

9

Descripción general

¿Un estimador eficiente (que tiene una varianza muestral igual al límite de Cramér-Rao) maximiza la probabilidad de estar cerca del parámetro verdadero ?θ

Digamos que comparamos la diferencia o la diferencia absoluta entre la estimación y el parámetro verdadero

Δ^=θ^-θ

¿Es la distribución de para un estimador eficiente dominante estocásticamente sobre la distribución de para cualquier otro estimador imparcial?Δ^Δ~


Motivación

Estoy pensando en esto debido a la pregunta Estimador que es óptimo bajo todas las funciones de pérdida sensible (evaluación) donde podemos decir que el mejor estimador imparcial con respecto a una función de pérdida convexa también es el mejor estimador imparcial con respecto a otra función de pérdida (De Iosif Pinelis, 2015, Una caracterización de los mejores estimadores insesgados. ArXiv preprint arXiv: 1508.07636 ). El dominio estocástico por estar cerca del parámetro verdadero parece ser similar a mí (es una condición suficiente y una declaración más fuerte).


Expresiones más precisas

El enunciado de la pregunta anterior es amplio, por ejemplo, ¿qué tipo de imparcialidad se considera y tenemos la misma métrica de distancia para las diferencias negativas y positivas?

Consideremos los siguientes dos casos para hacer la pregunta menos amplia:

Conjetura 1: siθ^es un estimador eficiente medio e imparcial medio. Luego, para cualquier estimador medio e imparcial medioθ~

Si X>0 0 entonces PAGS[Δ^X]PAGS[Δ~X]Si X<0 0 entonces PAGS[Δ^X]PAGS[Δ~X]
dónde Δ^=θ^-θ y Δ~=θ~-θ

Conjetura 2: siθ^es un estimador eficiente sin sesgos medios. Entonces para cualquier estimador imparcial medioθ~ y X>0 0

PAGS[El |Δ^El |X]PAGS[El |Δ~El |X]

  • ¿Son ciertas las conjeturas anteriores?
  • Si las proposiciones son demasiado fuertes, ¿podemos adaptarlas para que funcione?

El segundo está relacionado con el primero, pero elimina la restricción para la imparcialidad media (y luego tenemos que tomar ambos lados juntos o, de lo contrario, la proposición sería falsa para cualquier estimador que tenga una mediana diferente que el estimador eficiente).


Ejemplo, ilustración:

Considere la estimación de la media. μ de la distribución de una población (que se supone que está distribuida normalmente) por (1) la mediana de la muestra y (2) la media de la muestra.

En el caso de una muestra de tamaño 5, y cuando la verdadera distribución de la población es norte(0 0,1) esto parece

ejemplo de cdf

En la imagen vemos que el CDF plegado de la muestra media (que es un estimador eficiente para μ) está debajo del CDF plegado de la mediana muestral. La pregunta es si el CDF plegado de la media muestral también está por debajo del CDF plegado de cualquier otro estimador imparcial.

Alternativamente, usando el CDF en lugar de los CDF plegados, podemos hacernos la pregunta de si el CDF de la media maximiza la distancia desde 0.5 en cada punto. Lo sabemos

θ^:El |Fmetromiunanorte(θ^)-0,5El |El |Fmetromireyounanorte(θ^)-0,5El |

¿También tenemos esto cuando reemplazamos Fmetromireyounanorte(θ^) para la distribución de cualquier otro estimador medio e imparcial medio?

Sexto Empírico
fuente
2
Verifique la Pitman nearnesspalabra clave, no es que este criterio me parezca particularmente sensible.
Xi'an
1
A partir de la conjetura, parecería más razonable utilizar estimadores sin sesgos medios que estimadores sin sesgos medios. (Los estimadores imparciales existen en pocos entornos y los mejores imparciales en incluso menos entornos.)
Xi'an
1
El 'criterio de cercanía de Pitman' es realmente interesante. Según la información en Wikipedia, lo veo como "la probabilidad de que la diferencia absoluta esté más cerca". Sin embargo, es un poco diferente. Este criterio de cercanía de Pitman podría crear casos interesantes donde algún estimador tiene en promedio una diferencia absoluta menor pero no gana de acuerdo con este criterio de cercanía.
Sextus Empiricus el
1
El criterio que usted propone es invariable por las transformaciones biotivas monótonas, pero la imparcialidad media no lo es, mientras que la imparcialidad media sí lo es. También es increíblemente fuerte en que el cdf deθ^ tiene que estar por encima del cdf de θ~ encima θ y debajo del cdf de θ~ abajo θ, para todos los valores del parámetro θ.
Xi'an
1
@ Xi'an He añadido un ejemplo visual y ahora recibo tu comentario sobre la parcialidad versus la parcialidad media. He ajustado la pregunta (aunque está divergiendo de mi idea original relacionada con la pregunta vinculada que ahora necesita algunos ajustes más complejos).
Sextus Empiricus el

Respuestas:

5

Aquí hay un experimento en un caso no estándar, el problema de Cauchy de ubicación, donde no estándar significa que no hay un mejor estimador imparcial uniforme. Dejenos considerar(X1,...,Xnorte) una muestra de un Cauchy C(μ,1)distribución y los siguientes cuatro estimadores invariantes deμ:

  1. μ^1=mediana(X1,...,Xnorte)=X(norte/ /2)
  2. μ^2=media(X(norte/ /4 4),...,X(3norte/ /4 4))=2norte(X(norte/ /4 4)+...+X(3norte/ /4 4))
  3. μ^3=μMLE que es eficiente
  4. μ^4 4=μ^1+2norteμ(μ^1)

Luego, la comparación de los cdfs de los cuatro estimadores conduce a esta imagen, donde los cdfs de μ^3 (oro) y μ^4 4 (tomate) son comparables y mejoran μ^1 (azul acero), mejorando μ^2 (tierra de siena). ingrese la descripción de la imagen aquí

Una representación de las diferencias con el cdf empírico del MLE lo hace más claro:

ingrese la descripción de la imagen aquí

Aquí está el código R correspondiente:

T=1e4
N=11
mlechy=function(x){
  return(optimize(function(theta) -sum(dcauchy(x, 
    location=theta, log=TRUE)),  c(-100,100))$minimum)
}
est=matrix(0,T,4)
for (t in 1:T){
cauc=sort(rcauchy(N))
est[t,1]=median(cauc)
est[t,2]=mean(cauc[4:8])
est[t,3]=mlechy(cauc)
est[t,4]=est[t,1]+(4/N)*sum((cauc-est[t,1])/(1+(cauc-est[t,1])^2))
}

plot(ecdf(est[,1]),col="steelblue",cex=.4,xlim=c(-1,1),main="",ylab="F(x)")
plot(ecdf(est[,2]),add=TRUE,col="sienna",cex=.4)
plot(ecdf(est[,3]),add=TRUE,col="gold",cex=.4)
plot(ecdf(est[,4]),add=TRUE,col="tomato",cex=.4)
Xi'an
fuente
1
¿No debería la curva de oro (la diferencia del MLE empírico consigo mismo) ser cero en la gráfica de diferencias.
Sextus Empiricus el
Lo malo es que cambié los códigos de color: tomate es la diferencia con el cuarto, dorado por la diferencia con Pitman, siena por la diferencia con la media recortada y azul por la diferencia con la mediana.
Xi'an