Número esperado de lanzamientos hasta que aparezca la primera cabeza

18

Suponga que se lanza una moneda justa varias veces hasta que se obtiene una cara por primera vez.

  • ¿Cuál es el número esperado de lanzamientos que se requerirán?
  • ¿Cuál es el número esperado de colas que se obtendrán antes de obtener la primera cabeza?
nicole900
fuente
2
Este enlace tiene las respuestas para ambas preguntas: en.wikipedia.org/wiki/Geometric_distribution
swmo
2
Si se trata de una pregunta de autoestudio, agregue la etiqueta.
Xi'an

Respuestas:

17

Esto se puede responder utilizando la distribución geométrica de la siguiente manera:

El número de fallas k - 1 antes del primer éxito (caras) con una probabilidad de éxito p ("cabezas") viene dado por:

p(X=k)=(1p)k1p

siendo k el número total de lanzamientos, incluidas las primeras 'cabezas' que finalizan el experimento.

Y el valor esperado de X para una p dada es .1/p=2

La derivación del valor esperado se puede encontrar aquí . Los últimos pasos que quedan implícitos deben ser los siguientes:

para ser conectado a la expresión:ddr11r=1(1r)2

. Conr=1-p, se simplifica aE(X)=p1px=1x rx=p1p r (ddr11r)=p1p r 1(1r)2r=1p

, justificando su uso arriba.]E(X)=1p

Alternativamente, podríamos usar la distribución binomial negativa interpretada como el número de fallas antes del primer éxito. La función de masa de probabilidad se da como p (número de fallas, n , antes de alcanzar r éxitos | dada una cierta probabilidad, p , de éxito en cada ensayo de Bernoulli):

p(n;r,p)=(n+r1r1)pr(1p)n

La expectativa para el número de ensayos, n + r viene dada por la fórmula general

r(1p)

Dados nuestros parámetros conocidos: r = 1 y p = 0.5 ,

E(n+r;1,0.5)=r1p=110.5=2

Por lo tanto, podemos esperar hacer dos lanzamientos antes de obtener la primera cara con el número esperado de colas que es .E(n+r)r=1

Podemos ejecutar una simulación de Monte Carlo para demostrarlo:

   set.seed(1)

p <- 1/2

reps <- 10000                         # Total number of simulations.

tosses_to_HEAD <- 0                   # Setting up an empty vector to add output to.

for (i in 1:reps) {
  head <- 0                           # Set the variable 'head' to 0 with every loop.
  counter <- 0                        # Same forlocal variable 'counter'.
  while (head == 0) {
    head <- head + rbinom(1, 1, p)    # Toss a coin and add to 'head'
    counter <- counter + 1            # Add 1 to 'counter'
  }
  tosses_to_HEAD[i] <- counter        # Append number in counter after getting heads.
}

mean(tosses_to_HEAD)
[1] 2.0097
Antoni Parellada
fuente
1
G(p)
And the expected value of X for a given p is 1/p
Hay una buena derivación en math.stackexchange.com/questions/235927/… Pero puedo incluir el final de esa derivación en mi respuesta.
Antoni Parellada
4

0x

Escriba estas expectativas en sus boletos respectivos: estos son los valores de los boletos.

Las tres cosas que sí sabemos son:

  1. 0p

  2. x1p

  3. La expectativa de este sorteo único es, por definición, la suma de los valores ponderados por la probabilidad en todo tipo de tickets:

    p×0+(1p)×x=(1p)x.

x

x=1+(1p)x.

xx1


npnhpnnxn/hn/(h+1)n/(pn)x

Esto conduce a una forma extremadamente eficiente de simular la distribución de las duraciones de los juegos . Aquí está el Rcódigo. Registra "cabezas" como valores verdaderos en una matriz booleana y calcula los lanzamientos entre valores verdaderos sucesivos.

p <- 1/3                                           # Set the chance of heads
tosses <- runif(1e6) < p                           # Make a million tosses
sim <- diff(c(TRUE, which(tosses)))                # Compute game lengths
hist(sim, xlab="Game length", main="Distribution") # Graph their distribution
mean(sim)                                          # Report the average length

17set.seed(17)x

whuber
fuente
¿Podrías ayudarme a entender por qué la "x" del juego de dibujo y la "x" en la segunda ecuación representan la misma cosa? No tengo idea de cómo se obtiene la segunda ecuación. Muchas gracias.
Luz
@Light La segunda ecuación se explica en el párrafo que la precede.
whuber
♦ Gracias por su respuesta. He leído la definición de xy el párrafo que dijiste una y otra vez, pero aún no entiendo. Déjame decirte mi comprensión y por favor, ayúdame a saber si no entiendo algo. Según tengo entendido, x es el número esperado "adicional" en el juego de boletos de sorteo, que es un juego diferente del juego original, porque la expectativa (déjame llamarlo "E") del juego de monedas incluye el primer lanzamiento. En mi opinión, E debería ser "x + 1", pero no son lo mismo. En la ecuación, hiciste que x y E fueran lo mismo que me confunden. Gracias.
Luz
2

Sea X el número de lanzamientos de monedas necesarios hasta obtener una cabeza. Entonces, necesitamos calcular E (X) (es decir, el valor esperado de X).

Podemos condicionar E (X) en cualquiera de nuestros primeros cambios. Deje que E (X | H) denote el número de lanzamientos de monedas restantes dado que obtuve una cabeza en el primer lanzamiento. Del mismo modo, deje que E (X | T) denote el número de lanzamientos de monedas restantes dado que obtuve una cola en el primer lanzamiento.

Por el primer paso de acondicionamiento, tenemos

mi(X)=12(1+mi(XEl |H))+12(1+mi(XEl |T))

No fue mi(XEl |H) denotó los lanzamientos restantes después de recibir la cabeza en el primero, será igual a 0 ya que no necesito dar la vuelta después de obtener 1 cabeza.

Y, mi(XEl |T)=mi(X), ya que no progresamos para obtener 1 cabeza.

Entonces, E(X)=12(1+0)+12(1+E(X))

=> E(X)=2

grijesh agrawal
fuente