Constante de normalización en el teorema de Bayes

15

Pr(data)

Pr(parametersdata)=Pr(dataparameters)Pr(parameters)Pr(data)

se llama una constante de normalización . ¿Qué es exactamente? ¿Cual es su propósito? ¿Por qué se ve como ? ¿Por qué no depende de los parámetros?Pr(data)

aficionado
fuente
44
Cuando integra , se está integrando sobre los parámetros y, por lo tanto, el resultado no tiene un término que dependa de los parámetros, de la misma manera que x = 2 x = 0 x yf(data|params)f(params) no depende de x . x=0x=2xydx=2yx
Henry

Respuestas:

16

El denominador, , se obtiene integrando los parámetros de la probabilidad de unión, Pr ( datos , parámetros ) . Esta es la probabilidad marginal de los datos y, por supuesto, no depende de los parámetros ya que estos se han integrado.Pr(data)Pr(data,parameters)

Ahora, desde:

  • no depende de los parámetros para los que se quiere hacer inferencia;Pr(data)
  • es generalmente difícil de calcular en forma cerrada;Pr(data)

a menudo se usa la siguiente adaptación de la fórmula de Baye:

Pr(parametersdata)Pr(dataparameters)Pr(parameters)

Básicamente, no es más que una "constante de normalización", es decir, una constante que hace que la densidad posterior se integre a una .Pr(data)

ocram
fuente
2
¿Qué quiere decir exactamente con " integrando los parámetros"? ¿Cuál es el significado preciso de "integrarse" en este contexto?
nbro
2
@nbro: Me refiero a Pr (datos) = integral sobre los parámetros de Pr (datos, parámetros)
ocram
2

Al aplicar la regla de Bayes, generalmente deseamos inferir los "parámetros" y los "datos" ya están dados. Por lo tanto, es una constante y podemos suponer que es solo un factor de normalización.Pr(data)

Duro
fuente