Tengo un parámetro que se encuentra entre . Digamos que puedo ejecutar un experimento y obtener , donde es un gaussiano estándar. Lo que necesito es una estimación de que es 1) imparcial 2) casi seguramente acotada. El requisito (2) es crucial para mí.
Lo natural es construir un nuevo estimador estableciendo en si está por encima de y en si está por debajo de . Pero entonces el estimador no será imparcial. ¿Entonces qué debo hacer?
Formalmente, la pregunta es si existe una función tal que satisfaga (1) y (2) arriba. Además, ¿la situación sería diferente si obtuviera más de una muestra?
Respuestas:
Presentaré las condiciones bajo las cuales un estimador imparcial permanece imparcial, incluso después de que esté limitado. Pero no estoy seguro de que sean algo interesante o útil.
Deje un estimadorθ^ del parámetro desconocido θ de una distribución continua, y E(θ^)=θ .
Suponga que, por algunas razones, bajo muestreo repetido queremos que el estimador produzca estimaciones que oscilan en[δl,δu] . Asumimos queθ∈[δl,δu] y así podemos escribir cuando sea conveniente el intervalo como [θ−a,θ+b] con {a,b} números positivos pero por supuesto desconocidos.
Entonces el estimador restringido es
y su valor esperado es
Definir ahora las funciones del indicador
y tenga en cuenta que
usando estas funciones indicadoras e integrales, podemos escribir el valor esperado del estimador restringido como (f(θ^) es la función de densidad de θ^ ),
Descomponiendo el límite superior e inferior, tenemos
y usando(1) ,
Ahora desdeE(θ^)=θ tenemos
Pero
Por lo tanto,E[(θ^−θ)Im]=0 y entonces
o alternativamente
Por lo tanto de(4) , we see that for the constrained estimator to also be unbiased, we must have
What is the problem with condition(5) ? It involves the unknown numbers {a,b} , so in practice we will not be able to actually determine an interval to bound the estimator and keep it unbiased.
But let's say this is some controlled simulation experiment, where we want to investigate other properties of estimators, given unbiasedness. Then we can "neutralize"a and b by setting a=b , which essentially creates a symmetric interval around the value of θ ... In this case, to achieve unbiasedness, we must more over have P(θ^≤δl)=P(θ^>δu) , i.e. we must have that the probability mass of the unconstrained estimator is equal to the left and to the right of the (symmetric around θ ) interval...
...and so we learn that (as sufficient conditions), if the distribution of the unconstrained estimator is symmetric around the true value, then the estimator constrained in an interval symmetric around the true value will also be unbiased... but this is almost trivially evident or intuitive, isn't it?
It becomes a little more interesting, if we realize that the necessary and sufficient condition (given a symmetric interval) a) does not require a symmetric distribution, only equal probability mass "in the tails" (and this in turn does not imply that the distribution of the mass in each tail has to be identical) and b) permits that inside the interval, the estimator's density can have any non-symmetric shape that is consistent with maintaining unbiasedness -it will still make the constrained estimator unbiased.
APPLICATION: The OP's caseθ^=θ+w,w∼N(0,1) and so θ^∼N(θ,1) .
Then, using (4) while writing a,b in terms of θ,δ , we have, for bounding interval [0,1] ,
Our estimator is
The distribution is symmetric aroundθ . Transforming (Φ() is the standard normal CDF)
One can verify that the additional terms cancel off only ifθ=1/2 , namely, only if the bounding interval is also symmetric around θ .
fuente