La suma de dos variables aleatorias gamma independientes

13

Según el artículo de Wikipedia sobre la distribución Gamma :

Si e , donde e son variables aleatorias independientes, entonces .XGamma(a,θ)YGamma(b,θ)XYX+YGamma(a+b,θ)

Pero no veo ninguna prueba. ¿Alguien puede señalarme su prueba por favor?

Editar: Muchas gracias a Zen, y también encontré la respuesta como ejemplo en la página de Wikipedia sobre funciones características .

Dexter12
fuente
3
La intuición: Gamma surgen distribuciones como las sumas de n distribuciones exponenciales independientes, de donde es inmediato en este contexto que X + Y tendrá una Gamma ( un + b , θ ) de distribución proporcionan un y b son ambos números enteros positivos. (n)nX+Y(a+b,θ)ab
whuber

Respuestas:

15

La prueba es la siguiente: (1) Recuerde que la función característica de la suma de variables aleatorias independientes es el producto de sus funciones características individuales; (2) Obtenga la función característica de una variable aleatoria gamma aquí ; (3) Haz el álgebra simple.

Para obtener algo de intuición más allá de este argumento algebraico, revise el comentario de whuber.

Nota: El OP preguntó cómo calcular la función característica de una variable aleatoria gamma. Si , entonces (puede tratar i como una constante ordinaria, en este caso)XExp(λ)i

ψX(t)=E[eitX]=0eitxλeλxdx=11it/λ.

Ahora use la sugerencia de Huber: Si , entonces Y = X 1 + + X k , donde los X i son independientes E x p ( λ = 1 / θ ) . Por lo tanto, usando la propiedad (1), tenemos ψ Y ( t ) = ( 1YGamma(k,θ)Y=X1++XkXiExp(λ=1/θ)

ψY(t)=(11itθ)k.

Consejo: no aprenderá estas cosas mirando los resultados y las pruebas: manténgase hambriento, calcule todo, trate de encontrar sus propias pruebas. Incluso si fallas, tu aprecio por la respuesta de otra persona estará en un nivel mucho más alto. Y sí, fallar está bien: ¡nadie está mirando! La única forma de aprender matemáticas es luchando con los puños por cada concepto y resultado.

zen
fuente
La declaración a la que se hace referencia explícitamente establece "siempre que todos los Xi sean independientes".
whuber
Sin embargo, una cosa que no entiendo es cómo llegamos a las funciones características.
Dexter12
Lo agregaré a la respuesta. Echar un vistazo.
Zen
¿Quizás pueda incluir una referencia para la función característica de a para valores no enteros de a ? Γ(a,θ)a
Dilip Sarwate
14

Aquí hay una respuesta que no necesita usar funciones características, sino que refuerza algunas ideas que tienen otros usos en estadística. La densidad de la suma de variables aleatorias independientes son las convoluciones de las densidades. Entonces, tomando para facilitar la exposición, tenemos para z > 0 , f X + Y ( z )θ=1z>0

fX+Y(z)=0zfX(x)fY(zx)dx=0zxa1exΓ(a)(zx)b1e(zx)Γ(b)dx=ez0zxa1(zx)b1Γ(a)Γ(b)dxnow substitute x=zt and think=ezza+b101ta1(1t)b1Γ(a)Γ(b)dtof Beta(a,b) random variables=ezza+b1Γ(a+b)
Dilip Sarwate
fuente
3
(+1) It is ideal to have more than one way to prove everything. Maybe someone will post an answer considering the transformation (X,Y)(U,V)=(X+Y,X).
Zen
Can we similarly find the density of XY in a closed form expression? I'm unable to simplify the integrals in that case.
pikachuchameleon
@pikachuchameleon See this answer of mine.
Dilip Sarwate
3

On a more heuristic level: If a and b are integers, the Gamma distribution is an Erlang distribution, and so X and Y describe the waiting times for respectively a and b occurrences in a Poisson process with rate θ. The two waiting times X and Y are

  1. independent
  2. sum up to a waiting time for a+b occurrences

and the waiting time for a+b occurrences is distributed Gamma(a+b,θ).

None of this is a mathematical proof, but it puts some flesh on the bones of the connection, and can be used if you want to flesh it out in a mathematical proof.

Svein Olav Nyberg
fuente