¿Por qué un estimador debe ser independiente del parámetro?

10

ingrese la descripción de la imagen aquí

Este es un extracto de "Estadística matemática moderna con aplicaciones" de Devore et al. Lo que me desconcierta es que el estimador no puede evitar depender de , ya que la muestra depende del parámetro.θ

qed
fuente

Respuestas:

6

Tiene razón en que cualquier estimador sensible será una función (no constante) de los datos (excepto en algunos casos especiales, posiblemente patológicos, como mi ejemplo aquí ). Entonces, es correcto decir que un estimador razonable depende de través de su dependencia de los datos. Pero estoy bastante seguro de todo lo que significa la oraciónθ

Demuestre que es de hecho un estimador, que es una función de los X i que no depende de θUXyoθ

es que la fórmula para un estimador no puede contener el parámetro. Se trata de excluir cosas como θ = θ , lo que sería un estimador perfecta (incluso si no tuviera los datos !!) pero que había necesidad de ser psíquicos con el fin de calcular que :-)θ^=θ

Como se señaló en el pasaje que pegó, dado que es una estadística suficiente, la distribución de cualquier estadística, por ejemplo , U , condicional en T , no dependerá de θ . Por lo tanto, U = E ( U | T ) no puede depender de θ , lo que garantiza que tendrá la propiedad en cuestión.TUTθU=mi(UEl |T)θ

Macro
fuente
1
+1 Esta pregunta descubre una ambigüedad interesante en el lenguaje de este libro de texto (bien recibido y popular): "depender de " podría significar al menos tres cosas distintas. (1) θ no aparece explícitamente en la fórmula. (2) Aunque θ puede aparecer en la fórmula, la fórmula es invariable bajo cambios en θ . (3) θ se ve como una variable aleatoria (tal vez constante) y "depender" podría concebirse en el sentido de dependencia de variables aleatorias. Desafortunadamente, el intento de aclaración ("la distribución ... no involucra θ ") es demasiado vago para ayudar mucho. θθθθθθ
whuber
Hola @whuber: no estoy muy seguro de lo que quieres decir con (2). Estoy tratando de pensar en un estimador que tenga esa propiedad. ¿Quiere decir que la forma de calcular el estimador sería la misma independientemente de ? Eso parece ser equivalente a que θ no aparece en la fórmula. De lo contrario, nuevamente necesitarías ser psíquico para calcular el estimador, ¿verdad? Si quisiste decir invariante en el sentido de que el valor numérico del estimador sigue siendo el mismo independientemente del valor θ, entonces eso no suena como un muy buen estimador :-) ¿Puedes aclararlo? θθθ
Macro
1
Es una diferencia sutil, pero es real. Como ejemplo trivial, después de observar éxitos en n iid Binomial ensayos con el parámetro θ , obviamente θ aparece en el estimador (admisible) " ( k + 1 ) / ( n + log ( exp ( θ ) 2 ) / θ ) " pero, sin embargo, es válido porque no varía con θ . De manera más sutil (y todavía trivialmente) en un problema de muestreo normal iid, el estimador μ = ˉ x +knorteθθ(k+1)/ /(norte+Iniciar sesión(Exp(θ)2)/ /θ)θμ^=X¯+1000yoX¯Qθμ^
Supongo que todavía me estoy perdiendo tu punto. En el primer estimador, , por lo que θ cancela la expresión y parece mejor escribirla como ( k + 1 ) / ( n + 2 ) . Creo que realmente estoy perdiendo tu punto con el segundo. No veo un μ allí y parece que P ( ¯ xQ ) = 0 ya que la probabilidad de ¯Iniciar sesión(Exp(θ)2)=2θθ(k+1)/ /(norte+2)μPAG(X¯Q)=0 0 ser un número entero es cero. Así, μ = ¯ x con probabilidad1, que no implicaθ. Probablemente estoy siendo denso. Si es demasiado largo para un comentario, tal vez podamos hacerlo en el chat en algún momento. X¯μ^=X¯1θ
Macro
μ^=X¯+1000μyoX¯QIniciar sesión(Exp(θ)2)/ /θ2θ=0 0