El teorema de Rao-Blackwell afirma
Sea un estimador de \ theta con \ Bbb E (\ hat {\ theta} ^ 2) <\ infty para todos \ theta . Suponga que T es suficiente para \ theta , y deje que \ theta ^ * = \ Bbb E (\ hat {\ theta} | T) Entonces para todos \ theta , \ Bbb E (\ theta ^ * - \ theta) ^ 2 \ leq \ Bbb E (\ hat {\ theta} - \ theta) ^ 2 La desigualdad es estricta a menos que \ hat {\ theta} sea una función de TE ( θ 2 ) < ∞ θ T θ θ * = E ( θ | T ) θ E ( θ * - θ ) 2 ≤ E ( θ - θ ) 2 θ
Si entiendo este teorema correctamente, esto indica que, si tengo una estadística T suficiente para , entonces el valor condicional esperado de dado es la solución a ( θ - θ ) 2
Mis preguntas
- ¿Estoy en lo cierto que minimiza ( θ - θ ) 2 ?
- ¿Por qué el teorema de Rao-Blackwell requiere ?
- ¿Por qué es estricta la desigualdad a menos que sea una función de ?
rao-blackwell
Stan Shunpike
fuente
fuente
Respuestas:
fuente
Tenga en cuenta que ser una estadística suficiente no es única. Trivialmente, todos los datos son suficientes, pero condicionar un estimador sobre ellos no cambia nada. Por lo tanto, una estadística suficiente por sí sola no es suficiente (¡juego de palabras!) Para tener un error cuadrático medio mínimo. Vea el teorema de Lehmann-Scheffé, que usa el teorema de Rao-Blackwell en la demostración, para una suficiencia suficiente (de hecho, es suficiente y completa).
Si ambos son infinitos, la desigualdad débil siempre es cierta. Pero luego, como contraejemplo, puede construir una estadística suficiente que no sea una función de pero que tenga una varianza infinita (de modo que solo se mantenga ).≤T ≤
Tomemos, por ejemplo, , una variable aleatoria t_2 con y , y como otra variable aleatoria independiente . El parámetro a estimar es . El estimador original es . Una estadística suficiente es, por supuesto, . Tanto el estimador Rao-Blackwell como tienen una varianza infinita. Entonces la desigualdad se mantendría débilmente. Por otro lado, no es una mera función det 2 E ( C 1 ) = μ V un r ( C 1 ) = ∞ C 2 ~ t 2 μ theta = C 1 + C 2 C 1 E ( theta | C 1 ) = C 1 θ C 1 + C 2 C 1C1∼t2+μ t2 E(C1)=μ Var(C1)=∞ C2∼t2 μ θ^=C1+C2 C1 E(θ^|C1)=C1 θ^ C1+C2 C1 : Implica la otra variable aleatoria, por lo que sería una contradicción con la última oración sobre la que hizo su tercera pregunta. De hecho, algunos libros de texto admiten una varianza infinita para el estimador original, pero a su vez no pueden indicar cuándo mantiene.<
fuente