Supongamos que tengo dos estimadores y que son estimadores consistentes del mismo parámetro y tal que con en el sentido psd. Por lo tanto, asintóticamente es más eficiente que . Estos dos estimadores se basan en diferentes funciones de pérdida.
Ahora quiero buscar algunas técnicas de contracción para mejorar las propiedades de muestras finitas de mis estimadores.
Supongamos que encontré una técnica de contracción que mejora el estimador en una muestra finita y me da el valor de MSE igual a . ¿Esto implica que puedo encontrar una técnica de contracción adecuada para aplicar a que me dará el MSE no mayor que ?
En otras palabras, si la contracción se aplica de manera inteligente, ¿siempre funciona mejor para estimadores más eficientes?
Esta es una pregunta interesante donde quiero señalar algunos aspectos destacados primero.
Fundamentalmente, es posible mejorar un estimador en un determinado marco, como la clase imparcial de estimadores. Sin embargo, como señaló usted, las diferentes funciones de pérdida dificultan la situación, ya que una función de pérdida puede minimizar la pérdida cuadrática y la otra minimiza la entropía. Además, usar la palabra "siempre" es muy complicado ya que si un estimador es el mejor en la clase, no se puede reclamar un estimador mejor, lógicamente hablando.
Para un ejemplo simple (en el mismo marco), dejemos dos estimadores, a saber, un Bridge (regresión penalizada con norma ) y Lasso (primera probabilidad penalizada de la norma) y un conjunto escaso de parámetros, a saber, , un modelo lineal , término de normalidad de error, , conocido , función de pérdida cuadrática (errores de mínimos cuadrados) e independencia de covariables en . Elija para para el primer estimador y para los segundos estimadores. Entonces puede mejorar los estimadores eligiendolp β y=xβ+e e∼N(0,σ2<∞) σ x lp p=3 p=2 p→1 eso termina siendo un mejor estimador con menor varianza. Luego, en este ejemplo, existe la posibilidad de mejorar el estimador.
Entonces, mi respuesta a su pregunta es sí, dado que asume la misma familia de estimadores y la misma función de pérdida, así como suposiciones.
fuente