¿Por qué los GLM predicen la media y no la moda?

8

¿Por qué un GLM predice la media y no el modo de una señal? ¿Esto no contradice la base misma detrás del GLM, es decir, la máxima probabilidad? Las ecuaciones para resolver los parámetros del modelo en un GLM se basan en la maximización de la probabilidad según lo descrito por la distribución de probabilidad de la señal modelada. Esta distribución de probabilidad es máxima para el modo, no para la media (la distribución normal es una excepción: tanto el modo como la media son iguales). Por lo tanto, un GLM debe predecir el modo , ¡no la media de una señal! (Para algunos antecedentes de esta pregunta, ver aquí ).

nukimov
fuente
Estoy un poco demasiado oxidado para dar esto como respuesta, pero creo que la idea es que hay una distribución de medios condicionales probables, y el GLM proporciona el modo de esa distribución. (Entonces es la estimación modal de la media.)
Shea Parkes
1
He editado su título para reflejar el modelo StackExchange: las preguntas son preguntas, no artículos de opinión. (Usted debe tratar de evitar que el cuerpo de su pregunta suena como una especie de queja.)
Glen_b -Reinstate Monica
77
Tenga en cuenta que la probabilidad es una función de los parámetros, mientras que el modelo intenta describir la distribución de los datos. No hay inconsistencia. De hecho, considere una regresión logística para datos binarios, donde las proporciones ajustadas oscilan entre 0.2 y 0.475. El modo de la distribución de Bernoulli es en cada caso 0, ¿entonces está diciendo que el modelo debe consistir completamente en 0? Eso es mucho menos útil que un modelo para la media.
Glen_b -Reinstate Monica
3
Solo una nota al margen: el modo de su respuesta puede ser extremadamente poco informativo. En el ejemplo más extremo, el modo de una distribución de Bernoulli siempre será 0 o 1.
Cliff AB
99
Lo que se maximiza con la máxima probabilidad no es la densidad de la distribución de los datos, sino la probabilidad del parámetro.
Glen_b -Reinstate Monica

Respuestas:

13

El objetivo del ajuste de máxima verosimilitud es determinar los parámetros de alguna distribución que mejor se ajuste a los datos y, en general, cómo dichos parámetros pueden variar con las covariables. En el caso de GLMs, queremos determinar los parámetrosθ de alguna distribución familiar exponencial, y cómo son función de algunas covariables X.

Para cualquier distribución de probabilidad en la familia exponencial sobredispersada, la media μ se garantiza que está relacionado con el parámetro de la familia exponencial canónica θ a través de la función de enlace canónico, θ=g(μ). Incluso podemos determinar una fórmula general paragy típicamente gEs invertible también. Si simplemente establecemosμ=g1(θ) y θ=Xβ, obtenemos automáticamente un modelo de cómo μ y θ cambia con X, sin importar con qué distribución estamos tratando, y ese modelo puede ajustarse fácil y confiablemente a los datos mediante la optimización convexa . La respuesta de Matt muestra cómo funciona para la distribución de Bernoulli, pero la verdadera magia es que funciona para todas las distribuciones de la familia.

El modo no disfruta de estas propiedades. De hecho, como señala Cliff AB, es posible que el modo ni siquiera tenga una relación biyectiva con el parámetro de distribución, por lo que la inferencia del modo es de una potencia muy limitada. Tome la distribución de Bernoulli, por ejemplo. Su modo es 0 o 1, y conocer el modo solo te dice sip, la probabilidad de 1 es mayor o menor que 1/2. En contraste, la media te dice exactamente quép es.

Ahora, para aclarar cierta confusión en la pregunta: la probabilidad máxima no se trata de encontrar el modo de una distribución, porque la probabilidad no es la misma función que la distribución. La probabilidad implica la distribución de su modelo en su fórmula, pero ahí es donde terminan las similitudes. La función de probabilidadL(θ) toma un valor de parámetro θcomo entrada, y le dice cuán "probable" es todo su conjunto de datos , dada la distribución del modeloθ. La distribución del modelo.fθ(y) depende de θ, pero como función, toma un valor y como entrada y le dice con qué frecuencia una muestra aleatoria de esa distribución será igual y. El máximo deL(θ) y el modo de fθ(y) No son lo mismo.

Tal vez sea útil ver la fórmula de probabilidad. En el caso de datos IIDy1,y2,,yn, tenemos

L(θ)=i=1nfθ(yi)
Los valores de yison todos fijos: son los valores de sus datos. La máxima probabilidad es encontrar elθ que maximiza L(θ). Encontrar el modo de distribución sería encontrar ely que maximiza fθ(y), que no es lo que queremos: y se fija en la probabilidad, no una variable.

Por lo tanto, encontrar el máximo de la función de probabilidad no es, en general, lo mismo que encontrar el modo de distribución del modelo. (Es el modo de otra distribución, si le preguntas a un Bayesiano objetivo, ¡pero esa es una historia muy diferente!)

Pablo
fuente
14

Hay dos cosas para discutir aquí:

  • Los hechos que un glm intenta predecir y como la media de una distribución condicional, y estima sus parámetros β por máxima probabilidad son consistentes.
  • Estimar los parámetros por máxima probabilidad no es determinar el modo de ninguna distribución. Al menos no en la formulación clásica de una película.

Tomemos la película no trivial más simple como ejemplo de trabajo, el modelo logístico. En regresión logística tenemos una respuestayque es 0, 1 valorado. Postulamos quey se distribuye bernoulli condicional en nuestros datos

yXBernoulli(p(X))

E intentamos estimar la media de esta distribución condicional (que en este caso es solo p) al vincularlo a una función lineal de X

log(p1p)=Xβ

Haciendo una pausa y reflexionando, vemos en este caso que es natural querer saberp, que es una media de una distribución condicional.

En la configuración de glm, p no se estima directamente, es βque el procedimiento de estimación apunta. Para llegar aβUsamos la máxima probabilidad. La probabilidad de observar un punto de datosy de la distribución condicional de bernoulli, dado el valor de X observado, y un conjunto específico de parámetros β ,es

P(yX,β)=py(1p)1y

dónde p es una función de β y X a través de la relación de vinculación.

Tenga en cuenta que es yque se muestra a partir de una distribución de probabilidad aquí, no beta.

Para aplicar la máxima verosimilitud, cambiamos esto a una función de βconsiderando ambos X y y como fijo y observado:

L(β)=py(1p)1y

Pero, LNo es una función de densidad , es una probabilidad. Al maximizar la probabilidad de que está no la estimación de la forma de una distribución porque simplemente no hay distribución, así, el modo-ize.

Puede producir una densidad de L proporcionando una distribución previa de los parámetros β y usando la regla de Bayes, pero en la formulación clásica de glm, esto no se hace.

Matthew Drury
fuente
4

Gracias por todos los comentarios y respuestas. Aunque en ninguno de ellos es 100% la respuesta a mi pregunta, todos me ayudaron a ver a través de la aparente contradicción. Por lo tanto, decidí formular la respuesta yo mismo, creo que este es un resumen de todas las ideas involucradas en los comentarios y respuestas:

Maximización de probabilidad a través de los datos PDF f(y;θ,ϕ)en GLMs no está relacionado con el modo def (pero a su media) debido a 2 razones:

  1. Cuando maximizas f(y;θ,ϕ)tu no considerasf como una función de y, pero en función de β(los parámetros del modelo lineal). Más específicamente, cuando diferenciasf para obtener un sistema de ecuaciones que conduzca a determinar β, no lo haces con respecto a y; lo haces con respecto aβ. Por lo tanto, el proceso de maximización le brindaβ que maximiza f. Un óptimoβ, y no un óptimo y (que, de hecho, sería el modo), es el resultado del proceso de maximización.

  2. Además, en el proceso de maximización, la media, μ, es una función de β. Por lo tanto, a través del proceso de maximización también obtenemos el óptimoμ.

nukimov
fuente