Puede encontrar más información sobre este tema de la que probablemente necesite en Goodman (1962): "La varianza del producto de las variables aleatorias K" , que deriva fórmulas para variables aleatorias independientes y variables aleatorias potencialmente correlacionadas, junto con algunas aproximaciones. En un artículo anterior ( Goodman, 1960 ), se derivó la fórmula para el producto de exactamente dos variables aleatorias, que es algo más simple (aunque todavía bastante retorcido), por lo que podría ser un mejor lugar para comenzar si desea comprender la derivación .
Para completar, sin embargo, va así.
Dos variables
Suponga lo siguiente:
- y y son dos variables aleatoriasXy
- e Y son sus expectativas (distintas de cero)XY
- y V ( y ) son sus variacionesV( x )V( y)
- (y del mismo modo para δ y )δX= ( x - X) / Xδy
- rei , j= E[(δx)i(δy)j]
- (e igualmente para Δ y )Δx=x−XΔy
- Ei,j=E[(Δx)i(Δy)j]
- es el coeficiente de variación al cuadrado: V ( x ) / X 2 (igualmente para G ( Y ) )G(x)V(x)/X2G(Y)
Entonces:
o equivalente:
V( x y) = ( XY)2[ G ( y) + G ( x ) + 2 D1 , 1+ 2 D1 , 2+ 2 D2 , 1+ D2 , 2- D21 , 1]
V( x y) = X2V( y) + Y2V( x ) + 2 XYmi1 , 1+ 2 Xmi1 , 2+ 2 Ymi2 , 1+ E2 , 2- E21 , 1
Más de dos variables
El artículo de 1960 sugiere que este es un ejercicio para el lector (¡que parece haber motivado el artículo de 1962!).
La notación es similar, con algunas extensiones:
- sean las variables aleatorias en lugar de x e y( x1, x2, ... xnorte)Xy
- METRO= E( ∏ki = 1Xyo)
- A = ( M/ ∏ki = 1Xyo) -1
- = 0, 1 o 2 para i = 1 , 2 , … ksyoi = 1 , 2 , ... k
- = número de 1 en ( s 1 , s 2 , ... s k )tu( s1, s2, ... sk)
- = número de 2 en ( s 1 , s 2 , ... s k )metro( s1, s2, ... sk)
- para m = 0 y 2 u para m > 1 ,D ( u , m ) = 2tu- 2m = 02tum > 1
- C( s1, s2, ... , sk) = D ( u , m ) ⋅ E( ∏ki = 1δsyoXyo)
- indica la suma de la 3 k - k - 1 grupos de ( s 1 , s 2 , ... s k ) donde 2 m + u > 1∑s1⋯ sk3k- k - 1( s1, s2, ... sk)2 m + u > 1
Entonces, por fin:
V( ∏i = 1kXyo) =∏ X2yo( ∑s1⋯ skC( s1, s2... sk) - A2)
¡Vea los documentos para más detalles y aproximaciones ligeramente más manejables!
Solo para agregar a la increíble respuesta de Matt Krause (de hecho, fácilmente derivable de allí). Si x, y son independientes, entonces,
fuente
Además de la fórmula general dada por Matt, vale la pena señalar que hay una fórmula algo más explícita para las variables aleatorias gaussianas de media cero. Se sigue del teorema de Isserlis , ver también Momentos más altos para la distribución normal multivariada centrada.
setparts
partitions
fuente