Tengo dificultades con las probabilidades . Entiendo el teorema de Bayes
que puede deducirse directamente de la solicitud . Así, en mi interpretación, elLas funciones en el teorema de Bayes son de alguna manera todas las probabilidades, ya sean marginales o condicionales. Así que realmente pensé que la probabilidad como concepto era más una visión frecuentista de la probabilidad inversa.
Sin embargo, ahora he visto repetidamente declaraciones en los libros bayesianistas que dicen que la probabilidad no es una distribución de probabilidad. Al leer el libro de MacKay ayer, me topé con la siguiente declaración
"[...] es importante tener en cuenta que los términos probabilidad y probabilidad no son sinónimos. La cantidad es una función de ambos y . Para fijo, define una probabilidad sobre , para fijo , define la similitud de ".
Entiendo esto de la siguiente manera: es una probabilidad de bajo dado , por lo tanto una función . Pero considerando un valor dado y evaluando Dependencia de diferentes estamos usando una función diferente .
¿Es correcta esta interpretación?
¿Se puede decir entonces que los métodos de máxima verosimilitud podrían estar motivados por el teorema bayesiano, donde se elige el anterior como constante?
fuente
Respuestas:
Creo que quizás la mejor manera de explicar la noción de probabilidad es considerar un ejemplo concreto. Supongamos que tengo una muestra de observaciones IID extraídas de una distribución de Bernoulli con probabilidad desconocida de éxitop : Xi∼Bernoulli(p) , i=1,…,n , entonces la función de masa de probabilidad conjunta de la muestra es Esta expresión también caracteriza la probabilidad de , dada una muestra observada : Pero si pensamos en como una variable aleatoria, esta probabilidad no es una densidad: Sin embargo, es proporcional a una densidad de probabilidad, por lo que decimos que es una probabilidad de
Por ejemplo, suponga que y la muestra fue . Intuitivamente, concluiríamos que es más probable que esté más cerca de que de , porque observamos más. De hecho, tenemos Si trazamos esta función en , podemos ver cómo la probabilidad confirma nuestra intuición. Por supuesto, no sabemos el verdadero valor de - podría haber sido lugar de , pero la función de probabilidad nos dice que el primero es mucho menos probable que el segundo. Pero si queremos determinar una probabilidadn=5 x=(1,1,0,1,1) p 1 0
Entonces, lo que esencialmente hemos hecho aquí es aplicar la regla de Bayes: Aquí, es una distribución previa del parámetro (s) , el numerador es la probabilidad que es también la distribución conjunta de
fuente