Estimador para una distribución binomial

12

¿Cómo definimos un estimador para datos provenientes de una distribución binomial? Para bernoulli puedo pensar en un estimador que estima un parámetro p, pero para binomio no puedo ver qué parámetros estimar cuando tenemos n caracterizando la distribución.

Actualizar:

Por estimador me refiero a una función de los datos observados. Se utiliza un estimador para estimar los parámetros de la distribución que genera los datos.

Rohit Banga
fuente
¿Cuál es su comprensión de un "estimador"? Me pregunto sobre eso, porque los estimadores no tienen "parámetros". Me preocupa que no estés comunicando claramente tu pregunta. Tal vez podría dar un ejemplo concreto de una situación real que está considerando.
whuber
@whuber agregó más información. avíseme si desea que agregue más detalles o si mi comprensión es errónea.
Rohit Banga
La edición es correcta, pero un ejemplo concreto aún ayudaría. En muchas aplicaciones de la distribución binomial, no es un parámetro: se da y p es el único parámetro a estimar. Por ejemplo, el recuento k de éxitos en n ensayos independientes de Bernoulli distribuidos idénticamente tiene una distribución binomial ( n , p ) y un estimador del único parámetro p es k / n . npknnppk/n
whuber
2
Me encantaría ver un ejemplo, incluso artificial, de estimar tanto como p (en un entorno frecuentista). Piénselo: observa un solo recuento, k , digamos k = 5 . Esperamos que k sea aproximadamente igual a n p . Entonces, ¿estimamos n = 10 , p = 0.5 ? O tal vez n = 5000 , p = 0.001 ? O casi cualquier otra cosa? :-) ¿O estás sugiriendo que podrías tener una serie de observaciones independientes k 1 ,npk=5knpn=10p=0.5n=5000p=0.001 todos de unadistribuciónbinomial común ( n , p ) con p y n desconocidos? k1,k2,,km(n,p)pn
whuber
1
Estoy sugiriendo lo último: tanto p como n son desconocidos. Quiero un estimador para n y p en función de N puntos de datos observados.
Rohit Banga

Respuestas:

1

Cada distribución tiene algunos parámetros desconocidos. Por ejemplo, en la distribución de Bernoulli tiene un parámetro desconocido probabilidad de éxito (p). Asimismo en la distribución Binomial tiene dos parámetros desconocidos n y p. Depende de su objetivo qué parámetro desconocido desea estimar. puede arreglar un parámetro y estimar otro. Para más información ver esto

estadísticas de amor
fuente
¿Qué pasa si quiero estimar ambos parámetros?
Rohit Banga
1
Para la estimación de máxima verosimilitud, debe tomar la derivada de la función de verosimilitud con respecto a los parámetros interesados ​​y equiparar esa ecuación a cero, y resolver la ecuación. Quiero decir que el procedimiento es el mismo que hiciste al estimar 'p'. Tienes que hacer lo mismo con 'n'. mira este www.montana.edu/rotella/502/binom_like.pdf
love-stats
@love Su referencia estima solo , tomando N como fijo. pN
whuber
-1 @ love-stats Para ver un ejemplo de una situación en la que tomar la derivada de la función de probabilidad, igualarla a , etc. no funciona , vea este intento y la solución correcta0
Dilip Sarwate
1

Digamos que tiene datos .k1,,kmiid binomial(n,p)

Desde aquí se puede Derivar estimadores de método de momento por el ajuste y s 2 k = n p ( 1 - p ) y resolviendo para n y pk¯=n^p^sk2=n^p^(1p^)n^p^ .

O puede calcular los MLE (quizás solo numéricamente), por ejemplo, utilizando optimen R.

Karl
fuente
Resulta que los MLEs son realmente horrible para --Son sesgadas y enormemente variables, incluso con muestras grandes. No he estudiado los estimadores MM, en parte porque con frecuencia ni siquiera están definidos (siempre que s 2 / ˉ k > 1 , lo que sucede). p<1/2s2/k¯>1
Whuber
@whuber: no pidió un buen estimador. ;)
Karl
1
¿Por qué no acaba de proponer n = 17 y p = 1 / 2 no importa qué, entonces? :-) Pero tienes un punto: la pregunta ni siquiera especifica qué se debe estimar. Si solo necesitamos un estimador para n p , entonces hay un obvio bueno disponible. n^p^=1/2np
whuber
@whuber - De hecho. Y no me sorprendería encontrar nmax k i para el MLE. n^maxki
Karl
p1pnn
0

Creo que podríamos usar el método de estimación de momentos para estimar los parámetros de la distribución binomial por la media y la varianza.


pmmp

mp=X¯,mp(1p)=S2.
Por lo tanto, nuestras ecuaciones para el método de los momentos son: [\ overline {X} = mp] [S ^ 2 = mp (1-p).]

La aritmética simple muestra: [S ^ 2 = mp \ left (1 - p \ right) = \ bar {X} \ left (1 - p \ right)] [S ^ 2 = \ bar {X} - \ bar {X } p] [\ bar {X} p = \ bar {X} -S ^ 2, \ mbox {por lo tanto} \ hat {p} = \ frac {\ bar {X} -S ^ 2} {\ bar {X }}.] Entonces, [\ bar {X} = mp, \ mbox {es decir,} m \ left (\ frac {\ bar {X} -S ^ 2} {\ bar {X}} \ right)] [\ bar {X} = m \ left (\ frac {\ bar {X} -S ^ 2} {\ bar {X}} \ right), \ mbox {o} \ hat {m} = \ frac {\ barra {X} ^ 2} {\ bar {X} -S ^ 2}. ]

salma
fuente
1
Sería bueno si pudiera ampliar esto, por ejemplo, escribiendo la fórmula para el estimador MoM. De lo contrario, la respuesta no es autónoma; otros (que aún no conocen la respuesta) tendrán que buscar en línea "método de momentos", etc., hasta que encuentren la respuesta real .
jbowman
¿Hay alguna manera de representar las matemáticas aquí correctamente?
David Refaeli