Definir "la moneda tiene probabilidad 1 de aterrizar cabezas" Suponga que uno tiene la creencia previa: . Sin embargo, después de lanzar la moneda una vez que aterriza cruz ("Colas de monedas"). ¿Cómo debe un bayesiano actualizar sus creencias para mantenerse coherente? es indefinido, como . Sin embargo, me parece que, dado que sus creencias anteriores son bastante inverosímiles (por supuesto, la probabilidad 0 no significa imposible), de alguna manera debería poder actualizar su creencia de acuerdo con alguna regla.
¿Es este un caso patológico en el que la actualización bayesiana no funciona o no conozco una solución a este problema?
probability
bayesian
philosophical
Sebastian
fuente
fuente
Respuestas:
Cualquier probabilidad posterior es válida en este caso
Esta es una pregunta interesante, que se mete en el territorio de los fundamentos de la probabilidad. Aquí hay algunos enfoques posibles, pero por razones que explicaré más adelante, el enfoque que prefiero es dar una definición más amplia de probabilidad condicional que sea análoga a su definición cuando se trata de variables aleatorias continuas. (Los detalles de este método se muestran a continuación.) En este caso particular, esto lleva a la conclusión de que el Bayesiano puede tener cualquier creencia posterior sobreX , y esto produce un conjunto coherente de creencias (a pesar de que han observado un evento que creen que tiene probabilidad cero).
La ventaja de este enfoque es que proporciona una distribución posterior bien definida y permite a los bayesianos actualizar sus creencias condicionadas a observar un evento que se estipuló que ocurría con probabilidad cero. El posterior se actualiza esencialmente de manera arbitraria (cualquier probabilidad posterior es igualmente coherente), pero esa flexibilidad no es sorprendente dado lo que ha ocurrido. En este caso, diferentes bayesianos con las mismas creencias previas podrían llegar legítimamente a conclusiones posteriores diferentes, debido al hecho de que todos han observado un evento con probabilidad cero a priori .
Probabilidad condicional para variables aleatorias continuas: cuando se trata de variables aleatorias continuas, la función de probabilidad condicional se define a través de la derivada de Radon-Nikodym , y esencialmente solo requiere que la función satisfaga la ley de probabilidad conjunta. SiX y E fueron variables aleatorias continuas (en lugar de eventos discretos) en un espacio de probabilidad (Ω,G,P) entonces definiríamos la función de probabilidad condicional p(x|e) como cualquier función medible no negativa que satisfaga la ecuación integral:
Ya quep(x) también se define a través de la derivada Radon-Nikodym, esto significa implícitamente que p(x|e) puede ser cualquier función medible no negativa que satisfaga la ecuación integral:
Esto proporciona una solución no única para la función de probabilidad condicional, aunque en la práctica, cada solución es "casi segura" equivalente (es decir, difieren solo en un conjunto de resultados con probabilidad cero), por lo que no hay problema con la no unicidad .
Definición de probabilidad condicional para eventos discretos: La definición estándar de probabilidad condicional para eventos discretos es la fórmula de razón bien conocida, donde el denominador es la probabilidad del evento de condicionamiento. Obviamente, en el caso de que el evento de condicionamiento tenga probabilidad cero, este objeto no está definido. La solución obvia aquí es ampliar la definición de manera análoga al método utilizado en el caso continuo. Es decir, definimos el par de probabilidad condicionalP(X|E) y P(X|E¯) como cualquier par de valores entre cero y uno que satisfagan la ecuación:
En el caso estipulado en la pregunta tenemos la creencia previaP(X)=1 y la distribución de muestreo P(E|X)=0 , lo que lleva a P(E)=0 . Sustituyendo estos valores en la ecuación anterior se obtiene:
Podemos ver que esta ecuación se satisface tomandoP(X|E¯)=1 y cualquier 0⩽P(X|E)⩽1 . Por lo tanto, la probabilidad condicional (posterior) puede ser coherentemente cualquier valor entre cero y uno. Cuando decimos que esto es "coherente", simplemente queremos decir que la probabilidad posterior no es inconsistente con las otras probabilidades estipuladas en el problema (es decir, las probabilidades anteriores y de muestreo).P(X|E)
Por qué este enfoque tiene más sentido: es completamente posible que un análisis bayesiano pueda involucrar la observación de un evento discreto que tiene cero probabilidad estipulada en la distribución anterior. Por ejemplo, en un modelo estándar de lanzamiento de monedas, estipulamos una distribución de Bernoulli para el resultado de cara / cruz, pero es posible que la moneda descanse en su borde (por lo tanto, no es cara ni cruz). Los cerebros no deberían explotar en este caso y, por lo tanto, corresponde al razonamiento bayesiano tener una forma bien definida de proceder en este caso.
La principal ventaja del enfoque que he esbozado es que siempre conduce a al menos un valor permitido para la probabilidad posterior (es decir, la probabilidad posterior está bien definida ). La probabilidad posterior no está definida de manera única, pero eso es una consecuencia natural del hecho de que hay varios valores que son igualmente coherentes con la observación de muestreo de probabilidad cero. Este enfoque significa que el Bayesiano es libre de estipular cualquier probabilidad posterior, y esto es tan coherente como cualquier otro. (Tenga en cuenta que cuando decimos "coherente" aquí, estamos hablando de coherencia con una creencia previa que estipulaba probabilidad cero para un evento discreto que realmente sucedió, ¡por lo que la coherencia con eso no es una barra alta!)
Hay otro beneficio importante de este enfoque , que es que le permite al Bayesiano actualizar sus creencias en respuesta a la observación de un evento que tenía cero probabilidad de muestreo bajo el anterior, y en particular, el Bayesiano ahora puede revisar sus creencias. para que ya no atribuyan probabilidad cero a este evento . En el ejemplo que da, el Bayesiano tenía una creencia previa de que es cierto casi con certeza, luego compro un evento con probabilidad de muestreo cero condicional en este evento. Ahora el Bayesiano es libre de actualizar su creencia a una probabilidad posterior para que no es una (y, por lo tanto, una probabilidad posterior correspondiente paraX X X¯ eso no es cero). Entonces, en esencia, el Bayesiano ahora puede decir "¡Oh, mierda! ¡Fue un tonto antes! ¡Permítanme actualizar mi creencia en ese evento para que ya no ocurra con mayor seguridad!" Además, este no es un cambio ad hoc , sino una actualización legítima "coherente" realizada bajo el teorema de Bayes.
fuente
Hay una suposición implícita en todo razonamiento, bayesiano o de otro tipo, de que sabemos todo lo que podría suceder y lo explicamos. Si sucede algo que es imposible bajo el modelo, solo significa que esa suposición es falsa. Lo que se debe hacer en principio es retroceder y expandir el modelo, y comenzar de nuevo. Al menos en un marco bayesiano, este proceso es relativamente fácil de formalizar: en lugar de inferencia dentro de un solo modelo, uno haría inferencia en un conjunto de modelos.
En algún momento, nuestra capacidad humana para anidar modelos dentro de modelos debe agotarse. Incluso con ayuda automatizada (es decir, computadoras o lo que sea), debe haber un límite superior para la complejidad de la "madre de todos los modelos". No tengo ni idea de qué hacer en esa circunstancia, pero ciertamente estamos muy lejos de eso, cuando estamos trabajando con modelos paramétricos típicos que se encuentran en las aplicaciones.
fuente
Esto está relacionado con el campo de la lógica. en particular, una declaración falsa implica todas las demás declaraciones, verdaderas o falsas. En su escenarioX es una declaración falsa. Esto significa que podemos escribir X⟹S para cualquier otra proposición S . Por ejemplo, tenemosX⟹E (implica colas) y también X⟹Ec (¡implica no colas también!)
Esto también es consistente con la solución de Ben (establezca la parte posterior a cualquier valor que desee). Obviamente, esto no es realmente útil en aplicaciones. Porque estoy bastante seguro de no necesitar ningún marco matemático para inventar los resultados que quiero.
Lo que sí significa es que no se deben incluir declaraciones falsas conocidas en sus probabilidades anteriores. Esto es lo mismo, ya que no se deben usar declaraciones falsas sobre los datos. En términos de tratar con el tipo de problemas de "cisne negro", podemos tratar esto conceptualmente asignando una pequeña, pero no nula posibilidad de que nuestros "supuestos de trabajo" estén equivocados. Si llamas a esta declaraciónAw como "mis suposiciones de trabajo son correctas" y establece que es igual a p(Aw)=1−ϵ . Hay algunas situaciones imposibles bajo el supuesto de trabajo, lo que significa que la probabilidadp(d∈Dimpossible|Aw)=0 para algunos valores de los "datos" d que existen en la región "imposible" Dimpossible cuando se cumplen los supuestos de trabajo. Llamar a este eventoQ:=d∈Dimpossible . Esto también significa quep(Qc|Aw)=1−p(Q|Aw)=1 . Asumimos quep(Q|Acw)=δ>0 (es decir, los datos "imposibles" son posibles si la suposición de trabajo es incorrecta). Y finalmente esop(Qc|Acw)=1−p(Q|Acw)=1−δ .
Ahora tenemos dos escenarios. El primero es que los datos son "normales" (lo que significaQc es verdad)
El segundo es que los datos son "imposibles" (lo que significaQ es verdad)
Ahora, con suerte, esto muestra muy claramente que si se cumplen sus suposiciones y usted ya tenía una probabilidad previa muy alta, la posterior es al menos igual de alta (y a menudo más alta). Entonces, cualquier valor paraϵ que usa para representar "básicamente imposible" antes de ver los datos, debe usar un valor que sea más pequeño después de ver confirmadas las predicciones.
Al hacer cálculos, suponiendop(Aw|Qc)=1 no te llevará por mal camino. Entonces te "absorbes"Aw,Qc en la información previa
Ahora, ¿qué pasa cuando sucede lo imposible? Bueno, entonces debe desempacar y cambiar su probabilidad y antes de acuerdo con lo que estaba mal con su suposición.
fuente