¿Por qué se elige la distribución de Poisson para modelar procesos de llegada en problemas de teoría de colas?
15
Cuando consideramos los escenarios de la teoría de colas donde los individuos llegan a un nodo de servicio y hacen cola, generalmente se usa un proceso de Poisson para modelar los tiempos de llegada. Estos escenarios surgen en problemas de enrutamiento de red. Agradecería una explicación intuitiva de por qué un proceso de Poisson es el más adecuado para modelar las llegadas.
El proceso de Poisson implica un tiempo de espera "sin memoria" hasta la llegada del próximo cliente. Supongamos que el tiempo promedio de un cliente al siguiente es θ . Una distribución de probabilidad continua sin memoria hasta la próxima llegada es aquella en la que la probabilidad de esperar un minuto, o segundo, u hora adicional, etc., hasta la próxima llegada, no depende de cuánto tiempo haya estado esperando desde la última. . El hecho de que haya esperado cinco minutos desde la última llegada no hace que sea más probable que llegue un cliente en el siguiente minuto, de lo que sería si solo hubiera esperado 10 segundos desde la última llegada.
Esto implica automáticamente que el tiempo de espera hasta la próxima llegada satisface Pr ( T > t ) = e - t / θ , es decir, es una distribución exponencial.TPr(T>t)=e−t/θ
Y eso a su vez se puede demostrar que implica que el número de clientes que llegan durante cualquier intervalo de tiempo de longitud t satisface Pr ( X = x ) = e - t / θ ( t / θ ) xXt, es decir, tiene una distribución de Poisson con el valor esperadot/θ. Además, implica que el número de clientes que llegan en intervalos de tiempo no superpuestos es probabilísticamente independiente.Pr(X=x)=e−t/θ(t/θ)xx!t/θ
Entonces, la falta de memoria de los tiempos de espera conduce al proceso de Poisson.
Independientemente de lo que digan los teoremas, es un hecho experimental que, en situaciones normales, las llegadas no tienen memoria. No se puede demostrar que la cantidad de clientes que llegan en algún período no sea nada, en realidad.
La intención de la pregunta no era pedir una prueba formal. Muchas veces, se hacen observaciones que conducen a un teorema y luego la intuición se 'desarrolla' para ajustarse a las observaciones y así ayudar a cimentar el teorema en la comprensión popular. Estaba buscando algo similar. He editado mi pregunta para incluir lo mismo.
Vighnesh
gracias por la respuesta. No entendí cómo la memoria menos llegadas conduce a . ¿Podría por favor elaborar o citar una referencia que hable sobre esto en detalle? Gracias. Pr(T>t)=e−t/θ
Vighnesh
44
La falta de memoria dice . Eso es lo mismo que Pr ( T > t + s y t > t ) = Pr ( T > s ) . El evento [ T > t + s y T > t ] es el mismo que el evento T >Pr(T>t+s∣T>t)=Pr(T>s)Pr(T>t+s and T>t)=Pr(T>s)[T>t+s and T>t] . Por lo tanto, la probabilidad condicional es Pr ( T > t + s ) / Pr ( T > t ) . La falta de memoria dice que esto es lo mismo que Pr ( T > s ) . Por lo tanto, tenemos Pr ( T > t + s ) = Pr ( T > t ) Pr ( T > s ) . Una función monótona g que satisface gT>t+sPr(T>t+s)/Pr(T>t)Pr(T>s)Pr(T>t+s)=Pr(T>t)Pr(T>s)gg(t+s)=g(t)g(s)Pr(T>t+s)Pr(T>t)
Shouldn't it be Pr ( T> t ) = 1 / θ ∗ e- t / θ?
vonjd
4
Pretty much any intro to queuing theory or stochastic processes book will cover this, e.g., Ross, Stochastic Processes, or the Kleinrock, Queuing Theory.
For an outline of a proof that memoryless arrivals lead to an exponential dist'n:
Let G(x) = P(X > x) = 1 - F(x). Now, if the distribution is memoryless,
G(s+t) = G(s)G(t)
es decir, la probabilidad de que x> s + t = la probabilidad de que sea mayor que s, y de que, ahora que es mayor que s, es mayor que (s + t). La propiedad sin memoria significa que la segunda probabilidad (condicional) es igual a la probabilidad de que un rv diferente con la misma distribución> t.
Para citar a Ross:
"Las únicas soluciones de la ecuación anterior que satisfacen cualquier tipo de condiciones razonables (como la monotonicidad, la continuidad derecha o izquierda, o incluso la mensurabilidad) son de la siguiente forma:"
El PROYECTO DE PROCESOS ESTOCÁSTICOS: TEORÍA DE APLICACIONES de Robert Gallager ( rle.mit.edu/rgallager/notes.htm ) es una buena alternativa gratuita para una introducción a los procesos estocásticos, incluida una discusión sobre el proceso de Poisson
Martin Van der Linden,
BALSA DE PROCESOS ESTOCÁSTICOS DE Robert Gallager: TEORÍA DE APLICACIONES
Pretty much any intro to queuing theory or stochastic processes book will cover this, e.g., Ross, Stochastic Processes, or the Kleinrock, Queuing Theory.
For an outline of a proof that memoryless arrivals lead to an exponential dist'n:
Let G(x) = P(X > x) = 1 - F(x). Now, if the distribution is memoryless,
G(s+t) = G(s)G(t)
es decir, la probabilidad de que x> s + t = la probabilidad de que sea mayor que s, y de que, ahora que es mayor que s, es mayor que (s + t). La propiedad sin memoria significa que la segunda probabilidad (condicional) es igual a la probabilidad de que un rv diferente con la misma distribución> t.
Para citar a Ross:
"Las únicas soluciones de la ecuación anterior que satisfacen cualquier tipo de condiciones razonables (como la monotonicidad, la continuidad derecha o izquierda, o incluso la mensurabilidad) son de la siguiente forma:"
G (x) = exp (-ax) para algún valor adecuado de a.
y estamos en la distribución exponencial.
fuente