¿Cómo demostrar que un evento ocurre infinitamente a menudo (casi seguro)?

8

Ejercicio: hay un dado de 6 caras y una moneda sesgada que tiene una probabilidad p> 0 de aparecer cara en cada lanzamiento. El dado se lanza infinitamente a menudo, y cada vez que tira un 6, arroja la moneda. Demuestre que con probabilidad 1, arroja "cabezas" infinitamente a menudo.

Ahora, recibo esta pregunta intuitivamente; las tiradas infinitas de los dados significan infinitas apariciones de cada número en el dado, incluido el 6, lo que significa que la moneda también se lanzará un número infinito de veces y dado que hay una posibilidad garantizada de que las caras sean un resultado, también obtendremos un número infinito de cabezas

Sin embargo, no estoy seguro de cómo expresar esto en notación matemática y espero que alguien aquí pueda ayudarme.

FaxDogTitanicSoccer
fuente
¿Qué ya sabes que puedes usar? Por ejemplo, ¿ya ha establecido que el número de caras que aparecen en infinitos lanzamientos de una moneda sesgada será infinito casi con seguridad?
whuber
No, esto todavía necesita ser establecido. He estado tratando de usar la distribución binomial cuando n va al infinito, pero eso no lleva a ninguna parte ...
FaxDogTitanicSoccer
Creo que esta es una aplicación del resultado inverso del lema de Borel-Cantelli ... en.wikipedia.org/wiki/Borel%E2%80%93Cantelli_lemma ¿Ayuda esto?
RayVelcoro

Respuestas:

7

El espacio muestral consta de siete resultados posibles: "1" a "5" en el dado, "6" y "colas", y "6" y "cabezas". Vamos a abreviar estos comoΩ={1,2,3,4,5,6T,6H}.

Los eventos serán generados por los átomos. {1},{2},,{6H} y por lo tanto todos los subconjuntos de Ω son medibles

La medida de probabilidad Pestá determinado por sus valores en estos átomos. La información en la pregunta, junto con la suposición (razonable) de que el lanzamiento de la moneda es independiente del lanzamiento del dado, nos dice que esas probabilidades son las que se dan en esta tabla:

OutcomeProbability1162163164165166T1p66Hp6

Una secuencia de realizaciones independientes de X es una secuencia (ω1,ω2,,ωn,) todos cuyos elementos están en Ω. Llamemos al conjunto de todas esas secuenciasΩ. El problema básico aquí radica en tratar con secuencias infinitas . La idea motivadora detrás de la siguiente solución es seguir simplificando el cálculo de probabilidad hasta que pueda reducirse a calcular la probabilidad de un evento finito . Esto se hace por etapas.

Primero, para discutir las probabilidades, necesitamos definir una medida sobre Ω que hace eventos como "6H ocurre infinitamente a menudo "en conjuntos medibles. Esto puede hacerse en términos de conjuntos" básicos "que no implican una especificación infinita de valores. Ya que sabemos cómo definir probabilidades Pnen el conjunto de secuencias finitas de longitudn, Ωn, definamos la "extensión" de cualquier medida EΩn consistir en todas las secuencias infinitas ωΩ que tienen algún elemento de E como su prefijo:

E={(ωi)Ω|(ω1,,ωn)E}.

El más pequeño sigma-álgebra en Ω que contiene todos esos conjuntos es con el que trabajaremos.

La medida de probabilidad P en Ω está determinado por las probabilidades finitas Pn. Es decir, para todosn y todo EΩn,

P(E)=Pn(E).

(Las declaraciones anteriores sobre el álgebra sigma en Ω y la medida P son formas elegantes de llevar a cabo lo que equivaldrá a argumentos limitantes).

Una vez gestionados estos trámites, podemos hacer los cálculos. Para comenzar, necesitamos establecer que incluso tiene sentido discutir la "probabilidad" de6Hocurriendo infinitamente a menudo. Este evento se puede construir como la intersección de eventos del tipo "6H ocurre al menos n veces ", para n=1,2,. Debido a que es una intersección contable de conjuntos medibles, es medible, por lo que su probabilidad existe.

En segundo lugar, tenemos que calcular esta probabilidad de 6Hocurriendo infinitamente a menudo. Una forma es calcular la probabilidad del evento complementario: ¿cuál es la probabilidad de que6Hocurre solo finitamente muchas veces? Este eventoE será medible, porque es el complemento de un conjunto medible, como ya hemos establecido. E se puede dividir en eventos En de la forma "6H ocurre exactamente n veces ", para n=0,1,2,. Debido a que solo hay muchos de estos, la probabilidad deE será la suma (contable) de las probabilidades de la En. ¿Cuáles son estas probabilidades?

Una vez más podemos hacer una partición: En rompe en eventos En,N de la forma "6H ocurre exactamente n veces al rodar Ny nunca ocurre de nuevo ". Estos eventos son disjuntos y contables en número, por lo que todo lo que tenemos que hacer (¡otra vez!) es calcular sus posibilidades y sumarlas. Pero finalmente hemos reducido el problema a un cálculo finito :P(En,N)no es mayor que la posibilidad de cualquier evento finito de la forma "6H ocurre para el nth tiempo al rodar N y no ocurre entre rollos N y M>N"El cálculo es fácil porque realmente no necesitamos conocer los detalles: cada vez M aumenta en 1, la posibilidad, cualquiera que sea, se multiplica aún más por la posibilidad de que 6H no está enrollado, que es 1p/6. De este modo obtenemos una secuencia geométrica con relación comúnr=1p/6<1. Independientemente del valor inicial, crece arbitrariamente a medida queM se hace grande

(Note que no necesitamos tomar un límite de probabilidades: solo necesitamos mostrar que la probabilidad de En,N está limitado anteriormente por números que convergen a cero).

Por consiguiente P(En,N) no puede tener ningún valor mayor que 0, de donde debe ser igual 0. En consecuencia,

P(En)=N=0P(En,N)=0.

¿Dónde estamos? Acabamos de establecer que para cualquiern0, la posibilidad de observar exactamente n resultados de 6Hes nulo Al sumar todos estos ceros, concluimos que

P(E)=n=0P(En)=0.
Esta es la posibilidad de que 6Hocurre solo finitamente muchas veces. En consecuencia, la posibilidad de que6H ocurre infinitamente muchas veces es 10=1, QED .

Cada enunciado en el párrafo anterior es tan obvio que es intuitivamente trivial. El ejercicio de demostrar sus conclusiones con cierto rigor, usando las definiciones de álgebras sigma y medidas de probabilidad, ayuda a mostrar que estas definiciones son las correctas para trabajar con probabilidades, incluso cuando están involucradas secuencias infinitas.

whuber
fuente
7

Tiene dos buenas respuestas para abordar la pregunta utilizando principios básicos de probabilidad. Aquí hay dos teoremas que lo ayudan a responder esta pregunta rápidamente en situaciones donde tales soluciones son apropiadas:

La Ley Fuerte de Números Grandes (SLLN) le dice que para variables aleatorias independientes e idénticamente distribuidas con media finita, la media de la muestra converge a la media verdadera casi con seguridad.

El segundo lema de Borel-Cantelli (BC2) le dice que si la suma de probabilidades de una secuencia de eventos independientes es infinita, entonces infinitamente muchos de esos eventos sucederán casi con seguridad.

Así es como esto responde su pregunta usando SLLN:

Dejar Yi toma el valor 1 si sacas 6 y giras cabezas de prueba i, y cero en caso contrario. EntoncesYi es una variable aleatoria de Bernoulli con probabilidad de éxito θ:=p/6>0. Por el SLLN,i=1nYi/nθcasi seguro Pero entonces debemos teneri=1nYi casi seguro, que es lo que queríamos mostrar.

Así es como esto responde su pregunta usando BC2:

Dejar Ei sea ​​el caso de que saque 6 y voltee cabezas en el juicio i. EntoncesP(Ei)=p/6>0, para cada i, y consecuentemente i=1nP(Ei). Así, por BC2 infinitamente muchos de los eventosEi ocurrirá casi con seguridad, que es lo que queríamos mostrar.

Insisto en que ambas respuestas requieren una gran cantidad de maquinaria oculta en dos teoremas, y cualquier persona interesada en responder a esta y otras preguntas similares tendrá que decidir si son apropiadas.

ekvall
fuente
2
+1 Estas observaciones establecen conexiones muy claras con resultados estándar e importantes.
whuber
1

Sin depender de ningún tipo de teoría de probabilidad avanzada como en la respuesta de RayVelcoro, se podría proceder de la siguiente manera. DejarIj denotar el evento de que las cabezas finales se obtuvieron en el jthLanzamiento del dado. Entonces, por aditividad contable, la probabilidad de un número finito de cabezas es

j=0P(Ij)=?0.
Ahora es suficiente demostrar que P(Ij)=0 para todos j. Para hacer esto, dejeAj,n denotar el evento que "después n tira el dado, la última cabeza ocurrió en el jth rodar ". Ahora, claramente IjAj,n para todos n, y por lo tanto P(Ij)P(Aj,n); tomarn para ver eso P(Ij)limnP(Aj,n)=0. P(Aj,n) se puede calcular directamente de la manera obvia (es la probabilidad de un éxito seguido de nj1 fallas por independencia).

(EDITAR: Esto puede ser más o menos equivalente a la respuesta de @whuber, pero con un poco menos de formalidad / detalle, ya que supongo que OP no está en un marco de medida teórica).

chico
fuente