Confunde / me sorprende que el Binomial tenga una varianza proporcional a . De manera equivalente, la información de Fisher es proporcional a 1 . ¿Cuál es la razón para esto? ¿Por qué se minimiza la información de Fisher enp=0.5? Es decir, ¿por qué la inferencia es más difícil enp=0.5?
Contexto:
Estoy trabajando en una calculadora de tamaño de muestra, y la fórmula para , el tamaño de muestra necesario, es un factor creciente de p ( 1 - p ) , el resultado de una estimación de varianza en la derivación.
variance
binomial
interpretation
Cam.Davidson.Pilon
fuente
fuente
Respuestas:
Para ver, de manera intuitiva, que la varianza se maximiza en , tome p igual a 0.99 (resp. P = 0.01 ). Entonces, una muestra de X ∼ Bernoulli ( p ) probablemente contendrá muchos 1 's (resp. 0 ' s) y solo unos pocos 0 's (resp. 1 ' s). No hay mucha variación allí.p = 0.5 pag 0,99 p=0.01 X∼Bernoulli(p) 1 0 0 1
fuente
Sin embargo, creo que la intuición es más fácil cuando se mira en términos de variación.
Las funciones de probabilidad correspondientes:
En cada caso, preste atención a las líneas que marcan la media. A medida que la línea media se atasca más contra la barrera, los puntos por debajo de la media solo pueden llegar un poco más abajo.
[Esta forma de intuición no nos dice por qué toma esa forma funcional exacta, pero deja en claro por qué la varianza debe ser pequeña cerca de los extremos, y hacerse más pequeña cuanto más se acerque a los extremos.]
fuente
La información de Fisher es la varianza de la función de puntuación. Y está relacionado con la entropía. Para una prueba de Bernoulli, estamos obteniendo un bit por cada prueba. Entonces, esta información de Fisher tiene propiedades similares a la entropía de Shannon, como era de esperar. En particular, la entropía tiene un máximo de 1/2 y la información tiene un mínimo de 1/2.
fuente