Si la contracción se aplica de manera inteligente, ¿siempre funciona mejor para estimadores más eficientes?

11

Supongamos que tengo dos estimadores y que son estimadores consistentes del mismo parámetro y tal que con en el sentido psd. Por lo tanto, asintóticamente es más eficiente que . Estos dos estimadores se basan en diferentes funciones de pérdida.β^1β^2β0

n(β^1β0)dN(0,V1),n(β^2β0)dN(0,V2)
V1V2β^1β^2

Ahora quiero buscar algunas técnicas de contracción para mejorar las propiedades de muestras finitas de mis estimadores.

Supongamos que encontré una técnica de contracción que mejora el estimador en una muestra finita y me da el valor de MSE igual a . ¿Esto implica que puedo encontrar una técnica de contracción adecuada para aplicar a que me dará el MSE no mayor que ? β^2γ^2β^1 γ^2

En otras palabras, si la contracción se aplica de manera inteligente, ¿siempre funciona mejor para estimadores más eficientes?

Alik
fuente

Respuestas:

4

Permítanme sugerir un contraejemplo ciertamente un poco aburrido. Digamos que no solo es asintóticamente más eficiente que , sino que también alcanza el límite inferior Cramer Rao. Una técnica de contracción inteligente para sería: con . La varianza asintótica de es donde la última igualdad usa el Lemma en el papel de Hausman . Tenemos β 2 β 2 β * 2 =w β 2+(1-w) β 1w(0,1) β * 2 V*=Avunr(w β 2+(1-w) β 1)=β^1β^2β^2

β^2=wβ^2+(1w)β^1
w(0,1)β^2V 2 - V * = V 2 ( 1 - w 2 ) - V 1 ( 1 - w 2 ) 0 β 2
V=Avar(wβ^2+(1w)β^1)=Avar(w(β^2β^1)+β^1)=V1+w2(V2V1)
V2V=V2(1w2)V1(1w2)0
por lo que hay una mejora del riesgo asintótico (no hay términos de sesgo). Así que encontramos una técnica de contracción que proporciona algunas mejoras asintóticas (y, por lo tanto, con suerte de muestras finitas) sobre . Sin embargo, no existe un estimador de contracción similar que se siga de este procedimiento.β^2β^1

El punto aquí, por supuesto, es que la contracción se realiza hacia el estimador eficiente y, por lo tanto, no es aplicable al estimador eficiente en sí. Esto parece bastante obvio en un nivel alto, pero supongo que en un ejemplo específico esto no es tan obvio (¿el estimador de MLE y Método de Momentos para la distribución uniforme puede ser un ejemplo?).

Matthias Schmidtblaicher
fuente
1
¡Gracias por el interesante ejemplo! (+1) Sin embargo, no está claro para mí que esto deba considerarse un contraejemplo: es asintótico y no muestra que no se pueda mejorar para tener el mismo riesgo o un riesgo menor. (De hecho, su automáticamente tiene, en el mejor de los casos, el mismo riesgo que .) Para proporcionar un contraejemplo, el riesgo de un estimador modificado tendrá que ser menor que el riesgo de , y no está claro que esto sea posible con este esquema. β^1β^2β^1β^2β^1
user795305
Gracias y punto (s) tomado (s). Sin embargo, permítanme señalar que en ninguna parte de la pregunta se especificó que el MSE del modificado debería ser inferior al de . Entonces es una técnica de contracción válida en este contexto. Pero estoy de acuerdo en que esta es solo una respuesta parcial y espero ver lo que otras personas tienen que decir sobre esta pregunta. β^2β^1β^2
Matthias Schmidtblaicher
1
En el párrafo que comienza "Supongamos que he encontrado ...", el OP parece especificar eso. ¿Estoy malentendido? En lo que sigue, dejemos que las estrellas denoten los estimadores modificados para que para algunas funciones (quizás de contracción) . Supongamos que encontramos para que el . En el párrafo referenciado, OP pregunta si podemos encontrar algo de para que el . β^j=fj(β^j)fjβ^2risk(β^2)risk(β^2)f1risk(β^1)risk(β^2)
user795305
Veo. Si esta es la pregunta, es simplemente ser la identidad y la respuesta es afirmativa en el ejemplo. Leí la pregunta como "Si podemos encontrar una función para que el , ¿existe ¿existe un para que el ? " f1f(β,x)risk(f(β^2,x))<risk(β^2)g(β,x)risk(g(β^1,x))<risk(β^1)
Matthias Schmidtblaicher
1
gracias por compartir estos créditos, aunque realmente no respondí tu pregunta ...
Matthias Schmidtblaicher
-2

Esta es una pregunta interesante donde quiero señalar algunos aspectos destacados primero.

  • Dos estimadores son consistentes
  • β^1 es más eficiente que ya que logra menos variaciónβ^2
  • Las funciones de pérdida no son lo mismo
  • un método de contracción se aplica a uno para que reduzca la variación que por sí sola termina siendo un mejor estimador
  • Pregunta : En otras palabras, si la contracción se aplica de manera inteligente, ¿ siempre funciona mejor para estimadores más eficientes?

Fundamentalmente, es posible mejorar un estimador en un determinado marco, como la clase imparcial de estimadores. Sin embargo, como señaló usted, las diferentes funciones de pérdida dificultan la situación, ya que una función de pérdida puede minimizar la pérdida cuadrática y la otra minimiza la entropía. Además, usar la palabra "siempre" es muy complicado ya que si un estimador es el mejor en la clase, no se puede reclamar un estimador mejor, lógicamente hablando.

Para un ejemplo simple (en el mismo marco), dejemos dos estimadores, a saber, un Bridge (regresión penalizada con norma ) y Lasso (primera probabilidad penalizada de la norma) y un conjunto escaso de parámetros, a saber, , un modelo lineal , término de normalidad de error, , conocido , función de pérdida cuadrática (errores de mínimos cuadrados) e independencia de covariables en . Elija para para el primer estimador y para los segundos estimadores. Entonces puede mejorar los estimadores eligiendolpβy=xβ+eeN(0,σ2<)σxlpp=3p=2p1eso termina siendo un mejor estimador con menor varianza. Luego, en este ejemplo, existe la posibilidad de mejorar el estimador.

Entonces, mi respuesta a su pregunta es sí, dado que asume la misma familia de estimadores y la misma función de pérdida, así como suposiciones.

TPArrow
fuente
No me queda claro a qué te refieres con tomar . Dados dos estimadores (digamos, por tener y en regularización de mínimos cuadrados, como se discute en su respuesta), la pregunta pregunta acerca de las formas de postprocesar estos estimadores (a través, por ejemplo, de la contracción). Específicamente, pregunta si existen métodos que puedan producir una mejora similar (en términos de MSE) en estimadores consistentes y asintóticamente normales. No me queda claro qué se supone que transmite tu respuesta en relación con esto. p1p=3p=2p
user795305
@Ben Gracias. la pregunta es acerca de la contracción y traté de tomar un ejemplo simple donde aplica la contracción al imponer la norma en el estimador. Lo veo bastante relacionado. PD: LASSO ( probabilidad penalizada por la norma ) significa Operador de selección y contracción menos absolutalpl1
TPArrow
Todavía no está muy claro para mí. ¿Está proponiendo que tomemos las estimaciones iniciales y y luego el operador proximal de ellas, de modo que las nuevas estimaciones sean , para ? Si es así, ¿podría proporcionar una prueba (o algún otro argumento) para sus reclamos con respecto a la mejora de MSE? Intenté enfatizar antes que la pregunta es acerca de los estimadores posteriores al procesamiento : ¿cuáles son exactamente sus estimaciones para postprocesamiento? β^1β^2pα^jp=argminααβ^j22+λαpj{1,2}p=2,3
user795305
gracias @Ben, siento que no tenemos un consenso en la definición de contracción. Lo tomas como un postproceso pero yo como un procesamiento en línea. Creo que ambos tenemos razón, ya que la pregunta no tiene en cuenta el tipo de contracción. PD: Supongo que lo que quieres decir con contracción es como un umbral duro.
TPArrow
La contracción puede ser tanto en línea como post-procesamiento. Los ejemplos que mencionó en su respuesta son sobre "contracción en línea", mientras que la pregunta se refiere a "contracción posterior al procesamiento". Observe que la pregunta proporciona dos estimadores y , luego solicita una técnica de contracción para aplicar a o . Creo que valdría la pena releer la pregunta a la luz de esto. β^1β^2 β^1β^2
user795305