Tengo un detector que detectará un evento con cierta probabilidad p . Si el detector dice que ocurrió un evento, entonces ese es siempre el caso, por lo que no hay falsos positivos. Después de ejecutarlo durante algún tiempo, me detectan k eventos. Me gustaría calcular cuál fue el número total de eventos que ocurrieron, detectados o no, con cierta confianza, digamos 95%.
Entonces, por ejemplo, digamos que tengo 13 eventos detectados. Me gustaría poder calcular que hubo entre 13 y 19 eventos con un 95% de confianza basado en p .
Esto es lo que he probado hasta ahora:
La probabilidad de detectar k eventos si hubiera n total es:
binomial(n, k) * p^k * (1 - p)^(n - k)
La suma de eso sobre n desde k hasta el infinito es:
1/p
Lo que significa que la probabilidad de que haya n eventos totales es:
f(n) = binomial(n, k) * p^(k + 1) * (1 - p)^(n - k)
Entonces, si quiero estar 95% seguro, debería encontrar la primera suma parcial f(k) + f(k+1) + f(k+2) ... + f(k+m)
que es al menos 0.95 y la respuesta es [k, k+m]
. ¿Es este el enfoque correcto? ¿También hay una fórmula cerrada para la respuesta?
fuente
Creo que entendiste mal el propósito de los intervalos de confianza. Los intervalos de confianza le permiten evaluar dónde se encuentra el verdadero valor del parámetro. Entonces, en su caso, puede construir un intervalo de confianza para . No tiene sentido construir un intervalo para los datos.p
Dicho esto, una vez que tenga una estimación de , puede calcular la probabilidad de observar diferentes realizaciones, como 14, 15, etc. utilizando el binomial pdf.p
fuente