Estimador de máxima verosimilitud para la distribución binomial negativa

11

La pregunta es la siguiente:

Se recoge una muestra aleatoria de n valores de una distribución binomial negativa con el parámetro k = 3.

  1. Encuentre el estimador de máxima verosimilitud del parámetro π.
  2. Encuentre una fórmula asintótica para el error estándar de este estimador.
  3. Explique por qué la distribución binomial negativa será aproximadamente normal si el parámetro k es lo suficientemente grande. ¿Cuáles son los parámetros de esta aproximación normal?

Mi trabajo ha sido el siguiente:
1. Siento que esto es lo que se desea, pero no estoy seguro de si soy exacto aquí o si posiblemente puedo llevar esto más lejos, dada la información proporcionada.

pag(X)=(X-1k-1)πk(1-π)X-kL(π)=Πyonortepag(XnorteEl |π)(π)=ΣyonorteEn(pag(XnorteEl |π))'(π)=Σyonortekπ-(X-k)(1-π)
  1. Creo que lo siguiente es lo que se pide. Para la parte final Siento que tengo que sustituir π con kπ^kX

    ''(π^)=-kπ^2+X(1-π^)2smi(π^)=-1''(π^)smi(π^)=π^2k-(1-π^)2X
  2. No estoy realmente seguro de cómo probarlo y todavía lo estoy investigando. Cualquier sugerencia o enlaces útiles serán muy apreciados. Siento que está relacionado con el hecho de que una distribución binomial negativa puede verse como una colección de distribuciones geométricas o lo inverso de una distribución binomial, pero no estoy seguro de cómo abordarla.

Cualquier ayuda sería muy apreciada

Syzorr
fuente
(1) para encontrar la estimación de máxima probabilidad π es necesario encontrar donde la función de probabilidad logarítmica alcanza su máximo. Calcular el puntaje (la primera derivada de la función log-verosimilitud con respecto a π ) es un comienzo: ¿qué valor tomará esto al máximo? (Y recuerda que no necesitas estimar k .)π^πk
Scortchi - Restablece a Monica
Olvidé agregar la derivada de log-likelihood = 0 con el propósito de calcular el máximo. Si he calculado esto correctamente (he estado trabajando en ello desde la publicación), lo que tengo es kπ-Σyo=0 0norte(Xyo-k)(1-π)=0 0
Syzorr
Tenga cuidado: También tenga en cuenta queicomienza en 1.i=1nkπi=1n(xik)(1π)= ?i
Scortchi - Restablecer Mónica
En (2), rara vez ocurre que el recíproco de una diferencia sea la diferencia de los recíprocos. Este error enorme afecta a su fórmula final para . smi(π^)
whuber

Respuestas:

6

1)

pag(X)=(Xyo-1k-1)πk(1-π)Xyo-k

L(π;Xyo)=yo=1norte(Xyo-1k-1)πk(1-π)Xyo-k

(π;Xyo)=yo=1norte[losol(Xyo-1k-1)+klosol(π)+(Xyo-k)losol(1-π)]re(π;Xyo)reπ=yo=1norte[kπ-(Xyo-k)(1-π)]

Ponlo a cero,

nortekπ=yo=1norteXyo-nortek1-π

pi = n k π^=nortekyo=1norteX

    2)

Para la segunda parte, debes usar el teorema de que ,I(θ)es la información del pescador aquí. Por lo tanto, la desviación estándar de la θ será[nI(θ)]-1/2. O lo llama como error estándar ya que usa CLT aquí.norte(θ^-θ)renorte(0 0,1yo(θ))I(θ)θ^[nI(θ)]1/2

Entonces necesitamos calcular la información de Fisher para la distribución binomial negativa.

2Iniciar sesión(PAG(X;π))π2=-kπ2-X-k(1-π)2

yo(θ)=-mi(-kπ2-X-k(1-π)2)=kπ2+k(1-π)(1-π)2π

Nota: para el binomio negativo pmfmi(X)=kπ

Por lo tanto, el error estándar para π es [ n ( kπ^[norte(kπ2+k(1-π)(1-π)2π)]-1/ /2

Simplificamos obtenemos obtenemos smi(π)=π2(π-1)knorte

    3)

La distribución geométrica es un caso especial de distribución binomial negativa cuando k = 1. Nota es una distribución geométricaπ(1-π)X-1

Por lo tanto, la variable binomial negativa se puede escribir como una suma de k variables aleatorias independientes (geométricas) distribuidas idénticamente.

Entonces, por CLT, la distribución binomial negativa será aproximadamente normal si el parámetro k es lo suficientemente grande

Norte profundo
fuente
1
Lea ¿Qué temas puedo preguntar aquí? sobre preguntas de autoaprendizaje: en lugar de hacer la tarea de la gente por ellos, tratamos de ayudarlos a hacerlo ellos mismos.
Scortchi - Restablece a Monica
2
Usted no necesita tener en cuenta el tamaño de la muestra en el cálculo de la MLE. Puede estar confundiendo una cuenta de n observaciones independientes, cada una de las no. de ensayos requeridos para alcanzar k fallas ( x 1 , x 2 , ... , x n ) con una cuenta de una sola observación del no. de ensayos necesarios para alcanzar k fallas ( n ). El primero da una probabilidad de n i = 1 π ( 1 - π ) x i - knortenortekX1,X2,...,Xnorteknorteyo=1norteπ(1-π)Xyo-k; el último, . πk(1-π)norte-k
Scortchi - Restablece a Monica
1
Tienes razón, siempre soy confuso en esta parte. Muchas gracias. También hago muchas preguntas en este foro, pero realmente espero que la gente pueda darme una respuesta muy detallada, luego puedo estudiarlo yo mismo paso a paso.
Deep North
Si. Entiendo por qué la regla en contra de proporcionar demasiados detalles, pero esta respuesta combinada con mis propias notas de la conferencia me ha permitido atar muchos de los cabos sueltos. Tengo la intención de ir y hablar con mi profesor hoy sobre esto para que pueda obtener una aclaración de él. Es viernes aquí ahora. Asignación debida el lunes como se indicó anteriormente. Aprendimos esto el miércoles y solo tenemos un solo ejemplo usando una distribución binomial. Muchas gracias por el detalle.
Syzorr
smi(π)=π2(π-1)knorte