Tenemos un proceso aleatorio que puede-o-no-puede aparecer varias veces en un período determinado de tiempo . Tenemos una fuente de datos de un modelo preexistente de este proceso, que proporciona la probabilidad de que ocurran varios eventos en el período . Este modelo existente es antiguo y necesitamos ejecutar verificaciones en vivo en los datos de alimentación para detectar errores de estimación. El modelo anterior que produce el suministro de datos (que proporciona la probabilidad de que ocurran eventos en el tiempo restante ) es aproximadamente distribuido por Poisson.
Entonces, para verificar anomalías / errores, dejamos que sea el tiempo restante y sea el número total de eventos que ocurrirán en el tiempo restante . El modelo anterior implica las estimaciones . Entonces, bajo nuestro supuesto tenemos:
Este enfoque funciona fantásticamente bien para detectar errores en los recuentos de eventos estimados durante todo el período de tiempo , pero no tan bien si queremos hacer lo mismo para otro período donde . Para evitar esto, hemos decidido que ahora queremos cambiar para usar la distribución binomial negativa, de modo que supongamos ahora y tenemos:
1. ¿Podemos simplemente establecer en la distribución binomial negativa? ¿Si no, porque no?
2. Suponiendo que podemos establecer donde es alguna función, ¿cómo podemos establecer correctamente (¿necesitamos ajustar usando conjuntos de datos pasados)?
3. ¿ Depende del número de eventos que esperamos que ocurran durante un proceso dado?
Anexo a la extracción de estimaciones para (y ):
Soy consciente de que si de hecho este problema se revirtiera y tuviéramos el recuento de eventos para cada proceso, podríamos adoptar el estimador de máxima verosimilitud para y . Por supuesto, el estimador de máxima verosimilitud solo existe para muestras para las cuales la varianza muestral es mayor que la media muestral, pero si este fuera el caso, podríamos establecer la función de verosimilitud para observaciones independientes distribuidas idénticamente como: desde el cual podemos escribir la función log-verosimilitud como: p N k 1 , k 2 , … , k N L ( r , p ) = N ∏ i = 1 P ( k i ; r , p ) , l ( r , p ) = N ∑ i = 1 ln ( Γ ( k i + r ) ) - N ∑ i
fuente
Respuestas:
La distribución binomial negativa es muy similar al modelo de probabilidad binomial. es aplicable cuando los siguientes supuestos (condiciones) son válidos 1) Cualquier experimento se realiza en las mismas condiciones hasta que se alcanza un número fijo de éxitos, digamos C 2) El resultado de cada experimento se puede clasificar en una de las dos categorías , éxito o fracaso 3) La probabilidad P de éxito es la misma para cada experimento 40Cada experimento es independiente de todos los demás. La primera condición es el único factor clave de diferenciación entre binomial y binomial negativo.
fuente
La distribución de Poisson puede ser una aproximación razonable del binomio bajo ciertas condiciones como 1) La probabilidad de éxito para cada ensayo es muy pequeña. P -> 0 2) np = m (digamos) está bien La regla más utilizada por los estadísticos es que el poisson es una buena aproximación del binomio cuando n es igual o mayor que 20 y p es igual o menor que 5 %
fuente