¿Cuánto cálculo es necesario para comprender la estimación de máxima verosimilitud?

11

Estoy tratando de planificar un plan de estudio para aprender MLE. Para hacer esto, estoy tratando de averiguar cuál es el nivel mínimo de cálculo que es necesario para comprender MLE.

¿Es suficiente entender los conceptos básicos del cálculo (es decir, encontrar el mínimo y el máximo de funciones) para comprender MLE?

Histelheim
fuente
2
Como siempre, depende . Si solo está tratando de comprender los conceptos básicos, ser capaz de encontrar funciones extremas lo hace de una manera justa (aunque en muchos casos prácticos de MLE, la L es M numéricamente, en cuyo caso también necesita otras habilidades) como algunos cálculos básicos).
Glen_b -Reinstala a Monica
Gracias. ¿Podría explicar el caso que mencionó con mayor detalle? Suena interesante.
histelheim
Está bien, pero ahora tengo que responder. Aférrate.
Glen_b -Reinstala a Monica

Respuestas:

20

Para ampliar mi comentario, depende. Si solo está tratando de comprender los conceptos básicos, ser capaz de encontrar funciones extremas lo hace de una manera justa (aunque en muchos casos prácticos de MLE, la probabilidad se maximiza numéricamente, en cuyo caso necesita algunas otras habilidades además de algunas cálculo básico).

Dejaré de lado los casos simples y agradables en los que obtienes soluciones algebraicas explícitas. Aun así, el cálculo suele ser muy útil.

Asumiré independencia en todo momento. Tomemos el caso más simple posible de optimización de 1 parámetro. Primero veremos un caso en el que podemos tomar derivados y separar una función del parámetro y una estadística.

Considere la densidad Gamma(α,1)

fX(x;α)=1Γ(α)xα1exp(x);x>0;α>0

Luego para una muestra de tamaño n , la probabilidad es

L(α;x)=i=1nfX(xi;α)

y entonces la probabilidad logarítmica es

l(α;x)=i=1nlnfX(xi;α)=i=1nln(1Γ(α)xiα1exp(xi))
=i=1nlnΓ(α)+(α1)lnxixi
=nlnΓ(α)+(α1)Sxnx¯
dondeSx=i=1nlnxi . Tomando derivados,

ddαl(α;x)=ddα(nlnΓ(α)+(α1)Sxnx¯)
=nΓ(α)Γ(α)+Sx
=-norteψ(α)+SX

Así que si establecemos que en cero y tratar de resolver para α , podemos conseguir esto: ψ ( α )α^

ψ(α^)=Ensol(X)

donde ψ() es el función digamma y sol() es la media geométrica . No debemos olvidar que, en general, no puede simplemente establecer la derivada en cero y estar seguro de que localizará la argmax ; todavía tiene que mostrar de alguna manera que la solución es máxima (en este caso lo es). En términos más generales, puede obtener mínimos o puntos horizontales de inflexión, e incluso si tiene un máximo local, es posible que no tenga un máximo global (que toco cerca del final).

Entonces nuestra tarea ahora es encontrar el valor de α^ para el cual

ψ(α^)=sol

donde sol=Ensol(X) .

Esto no tiene una solución en términos de funciones elementales, debe calcularse numéricamente; al menos pudimos obtener una función del parámetro en un lado y una función de los datos en el otro. Hay varios algoritmos de búsqueda cero que podrían usarse si no tiene una forma explícita de resolver la ecuación (incluso si no tiene derivadas, hay una sección binaria, por ejemplo).

A menudo, no es tan bueno como eso. Considere la densidad logística con escala unitaria:

F(X;μ)=14 4sech2(X-μ2).
Ni la argmax de la verosimilitud ni la función log-verosimilitud pueden obtenerse fácilmente algebraicamente; debe utilizar métodos de optimización numérica. En este caso, la función se comporta bastante bien yel método Newton-Raphsondebería ser suficiente para localizar la estimación de ML deμ . Si la derivada no estaba disponible o si Newton-Raphson no converge, es posible que se necesiten otros métodos de optimización numérica, como la sección dorada (esto no pretende ser una descripción general de los mejores métodos disponibles, solo mencionando algunos métodos) probable encontrar en un nivel básico).

En términos más generales, es posible que ni siquiera pueda hacer tanto. Considere un Cauchy con mediana θ y escala de unidad:

FX(X;θ)=1π(1+(X-θ)2).

En general, la probabilidad aquí no tiene un máximo local único, sino varios máximos locales. Si encuentra un máximo local, puede haber otro más grande en otro lugar. (A veces las personas se centran en identificar el máximo local más cercano a la mediana, o algo así).

Es fácil para los principiantes suponer que si encuentran un punto de inflexión cóncavo que tienen el argumento máximo de la función, pero además de los modos múltiples (ya discutidos), puede haber máximos que no están asociados con ningún punto de inflexión. Tomar derivados y ponerlos a cero no es suficiente; considere estimar el parámetro para un uniforme en (0 0,θ)

En otros casos, el espacio del parámetro puede ser discreto.

A veces, encontrar el máximo puede ser bastante complicado.

Y eso es solo una muestra de los problemas con un solo parámetro. Cuando tienes múltiples parámetros, las cosas se vuelven más complicadas nuevamente.

Glen_b -Reinstate a Monica
fuente
4

RpagR para maximizar (es decir, la probabilidad), por lo que esto es un poco más avanzado que el caso unidimensional.

Definitivamente será útil alguna instalación con logaritmos, ya que maximizar el logaritmo de la probabilidad suele ser mucho más fácil que maximizar la probabilidad en sí.

RpagR

Stephan Kolassa
fuente