Nunca he asimilado la diferencia entre estas dos medidas de convergencia. (O, de hecho, cualquiera de los diferentes tipos de convergencia, pero menciono estos dos en particular debido a las leyes débiles y fuertes de los números grandes).
Claro, puedo citar la definición de cada uno y dar un ejemplo en el que difieren, pero aún no lo entiendo.
¿Cuál es una buena manera de entender la diferencia? ¿Por qué es importante la diferencia? ¿Hay un ejemplo particularmente memorable en el que difieren?
probability
random-variable
raegtin
fuente
fuente
Respuestas:
Desde mi punto de vista, la diferencia es importante, pero en gran medida por razones filosóficas. Supongamos que tiene algún dispositivo, que mejora con el tiempo. Por lo tanto, cada vez que usa el dispositivo, la probabilidad de que falle es menor que antes.
La convergencia en la probabilidad dice que la probabilidad de falla va a cero a medida que el número de usos va al infinito. Entonces, después de usar el dispositivo una gran cantidad de veces, puede estar seguro de que funcionará correctamente, aún podría fallar, es muy poco probable.
La convergencia casi seguramente es un poco más fuerte. Dice que el número total de fallas es finito . Es decir, si cuenta el número de fallas a medida que el número de usos llega al infinito, obtendrá un número finito. El impacto de esto es el siguiente: a medida que usa el dispositivo cada vez más, después de un número finito de usos, agota todas las fallas. A partir de entonces, el dispositivo funcionará perfectamente .
Como señala Srikant, en realidad no sabes cuándo has agotado todas las fallas, por lo que desde un punto de vista puramente práctico, no hay mucha diferencia entre los dos modos de convergencia.
Sin embargo, personalmente estoy muy contento de que, por ejemplo, exista una ley fuerte de grandes números, en lugar de solo la ley débil. Porque ahora, un experimento científico para obtener, por ejemplo, la velocidad de la luz, está justificado para tomar promedios. Al menos en teoría, después de obtener suficientes datos, puede acercarse arbitrariamente a la verdadera velocidad de la luz. No habrá fallas (por improbables que sean) en el proceso de promedio.
fuente
Sé que esta pregunta ya ha sido respondida (y bastante bien, en mi opinión), pero había una pregunta diferente aquí que tenía un comentario @NRH que mencionaba la explicación gráfica, y en lugar de poner las imágenes allí , parecería más apropiado ponlos aquí.
Entonces, aquí va. No es tan genial como un paquete R. Pero es autónomo y no requiere una suscripción a JSTOR.
El SLLN (convergencia casi segura) dice que podemos estar 100% seguros de que esta curva que se extiende hacia la derecha eventualmente, en algún momento finito, caerá completamente dentro de las bandas para siempre (hacia la derecha).
El código R utilizado para generar este gráfico está debajo (las etiquetas de la trama se omiten por brevedad).
El código R para el gráfico sigue (nuevamente, omitiendo etiquetas).
fuente
Lo entiendo de la siguiente manera,
Convergencia en probabilidad
La probabilidad de que la secuencia de variables aleatorias sea igual al valor objetivo disminuye asintóticamente y se aproxima a 0, pero en realidad nunca alcanza 0.
Convergencia casi segura
La secuencia de variables aleatorias será igual al valor objetivo asintóticamente, pero no puede predecir en qué punto sucederá.
La wiki tiene algunos ejemplos de ambos que deberían ayudar a aclarar lo anterior (en particular, ver el ejemplo del arquero en el contexto de convergencia en prob y el ejemplo de la caridad en el contexto de una convergencia casi segura).
Desde un punto de vista práctico, la convergencia en la probabilidad es suficiente ya que no nos preocupamos particularmente por eventos muy poco probables. Como ejemplo, la consistencia de un estimador es esencialmente convergencia en la probabilidad. Por lo tanto, cuando usamos una estimación consistente, reconocemos implícitamente el hecho de que en muestras grandes hay una probabilidad muy pequeña de que nuestra estimación esté lejos del valor verdadero. Vivimos con este 'defecto' de convergencia en la probabilidad, ya que sabemos que asintóticamente la probabilidad de que el estimador esté lejos de la verdad es muy pequeña.
fuente
Si disfrutas de las explicaciones visuales, en el American Statistician hay un buen artículo sobre 'El rincón del profesor' (cita abajo). Como beneficio adicional, los autores incluyeron un paquete R para facilitar el aprendizaje.
fuente
Este último tipo lo explica muy bien. Si toma una secuencia de variables aleatorias Xn = 1 con probabilidad 1 / ny cero en caso contrario. Es fácil ver tomando límites que esto converge a cero en probabilidad, pero no logra converger casi con seguridad. Como él dijo, a la probabilidad no le importa que podamos obtener uno más adelante. Casi seguro que sí.
Casi seguramente implica convergencia en la probabilidad, pero no al revés yah?
fuente
Una cosa que me ayudó a comprender la diferencia es la siguiente equivalencia
∀ ϵ > 0P(limn→∞|Xn−X|=0)=1⇐⇒limn→∞(supm>=n|Xm−X|>ϵ)=0 ∀ϵ>0
En comparación, la convergencia estocástica:
∀ ϵ > 0limn→∞P(|Xn−X|>ϵ)=0 ∀ϵ>0
Al comparar el lado derecho de la equivalencia superior con la convergencia estocástica, creo que la diferencia se hace más clara.
fuente