El teorema de Bayes va
Todo esta bien. Pero, he leído en alguna parte:
Básicamente, P (datos) no es más que una constante de normalización, es decir, una constante que hace que la densidad posterior se integre a una.
Sabemos que y . 0 ≤ P ( datos | modelo ) ≤ 1
Por lo tanto, debe estar entre 0 y 1. En tal caso, ¿por qué necesitamos una constante de normalización para que la parte posterior se integre a una?
probability
bayesian
conditional-probability
bayes
Sreejith Ramakrishnan
fuente
fuente
0 <= P(model) <= 1
ni0 <= P(data/model) <= 1
, porque cualquiera de ellos (¡o incluso ambos!) Podría exceder (e incluso ser infinito). Ver stats.stackexchange.com/questions/4220 .Respuestas:
Primero , la integral de "verosimilitud x anterior" no es necesariamente 1 .
No es cierto que si:
0 ≤ P ( datos | modelo ) ≤ 10 ≤ P( modelo ) ≤ 1 y0 ≤ P( datos | modelo ) ≤ 1
entonces la integral de este producto con respecto al modelo (a los parámetros del modelo, de hecho) es 1.
Demostración. Imagine dos densidades discretas:
Si los multiplica a ambos, obtiene: que no es una densidad válida ya que no se integra en uno: 0.40 + 0.25 = 0.65
Entonces, ¿qué debemos hacer para forzar que la integral sea 1? Utilice el factor de normalización, que es:
(Perdón por la mala notación. Escribí tres expresiones diferentes para la misma cosa, ya que puedes verlas todas en la literatura)
En segundo lugar , la "probabilidad" puede ser cualquier cosa, e incluso si es una densidad, puede tener valores superiores a 1 .
Como dijo @whuber, estos factores no necesitan estar entre 0 y 1. Necesitan que su integral (o suma) sea 1.
Tercero [extra], los "conjugados" son tus amigos para ayudarte a encontrar la constante de normalización .
A menudo verá: porque el denominador faltante puede ser fácilmente consigue integrando este producto. Tenga en cuenta que esta integración tendrá un resultado bien conocido si el anterior y la probabilidad son conjugados .
fuente
La respuesta corta a su pregunta es que sin el denominador, la expresión en el lado derecho es simplemente una probabilidad , no una probabilidad , que solo puede variar de 0 a 1. La "constante de normalización" nos permite obtener la probabilidad de la ocurrencia de un evento, en lugar de simplemente la probabilidad relativa de ese evento en comparación con otro.
fuente
Ya tienes dos respuestas válidas, pero déjame agregar mis dos centavos.
El teorema de Bayes a menudo se define como:
porque la única razón por la que necesita la constante es para que se integre a 1 (vea las respuestas de otros). Esto no es necesario en la mayoría de los enfoques de simulación MCMC para el análisis bayesiano y, por lo tanto, la constante se elimina de la ecuación. Entonces, para la mayoría de las simulaciones ni siquiera es necesario.
Me encanta la descripción de Kruschke : el último cachorro (constante) tiene sueño porque no tiene nada que hacer en la fórmula.
Además, algunos, como Andrew Gelman, consideran la constante como "sobrevalorada" y "básicamente sin sentido cuando las personas usan anteriores planos" (consulte la discusión aquí ).
fuente