¿La varianza de una suma es igual a la suma de las varianzas?

62

¿Es (siempre) cierto que

Var(i=1mXi)=i=1mVar(Xi)?
Abe
fuente
3
Las respuestas a continuación proporcionan la prueba. La intuición se puede ver en el caso simple var (x + y): si x e y están positivamente correlacionadas, ambas tenderán a ser grandes / pequeñas juntas, aumentando la variación total. Si están correlacionados negativamente, tenderán a cancelarse entre sí, disminuyendo la variación total.
Assad Ebrahim

Respuestas:

91

La respuesta a su pregunta es "A veces, pero no en general".

Para ver esto, dejemos que sean variables aleatorias (con variaciones finitas). Entonces,X1,...,Xn

var(i=1nXi)=E([i=1nXi]2)[E(i=1nXi)]2

Ahora tenga en cuenta que , que está claro si usted piensa en lo que estás haciendo cuando calculas a mano. Por lo tanto,(i=1nai)2=i=1nj=1naiaj(a1+...+an)(a1+...+an)

E([i=1nXi]2)=E(i=1nj=1nXiXj)=i=1nj=1nE(XiXj)

similar,

[E(i=1nXi)]2=[i=1nE(Xi)]2=i=1nj=1nE(Xi)E(Xj)

entonces

var(i=1nXi)=i=1nj=1n(E(XiXj)E(Xi)E(Xj))=i=1nj=1ncov(Xi,Xj)

por la definición de covarianza.

Ahora con respecto ¿La varianza de una suma es igual a la suma de las varianzas? :

  • Si las variables no están correlacionadas, sí : es decir, para , entoncescov(Xi,Xj)=0ij

    var(i=1nXi)=i=1nj=1ncov(Xi,Xj)=i=1ncov(Xi,Xi)=i=1nvar(Xi)
  • Si las variables están correlacionadas, no, no en general : por ejemplo, supongamos que son dos variables aleatorias, cada una con varianza y donde . Entonces , por lo que la identidad falla.X1,X2σ2cov(X1,X2)=ρ0<ρ<σ2var(X1+X2)=2(σ2+ρ)2σ2

  • pero es posible para ciertos ejemplos : que tienen matriz de covarianza luegoX1,X2,X3

    (10.40.60.410.20.60.21)
    var(X1+X2+X3)=3=var(X1)+var(X2)+var(X3)

Por lo tanto, si las variables no están correlacionadas, entonces la varianza de la suma es la suma de las varianzas, pero lo contrario no es cierto en general.

Macro
fuente
Con respecto a la matriz de covarianza de ejemplo, es la siguiente correcta: la simetría entre los triángulos superior derecho e inferior izquierdo refleja el hecho de que , pero la simetría entre la esquina superior izquierda y la inferior derecha (en este caso, es solo parte del ejemplo, pero podría reemplazarse por dos diferentes números que suman por ejemplo, y ? Gracias de nuevo.cov(Xi,Xj)=cov(Xj,Xi)cov(X1,X2)=cov(X2,X3)=0.30.6cov(X1,X2)=acov(X2,X,3)=0.6a
Abe
41

Var(i=1mXi)=i=1mVar(Xi)+2i<jCov(Xi,Xj).

Entonces, si las covarianzas promedian , lo que sería una consecuencia si las variables no están correlacionadas por pares o si son independientes, entonces la varianza de la suma es la suma de las varianzas.0

Un ejemplo donde esto no es cierto: Let . Deje . Entonces .Var(X1)=1X2=X1Var(X1+X2)=Var(2X1)=4

Douglas Zare
fuente
Rara vez será cierto para las variaciones de muestra.
DWin
1
@DWin, "raro" es un eufemismo: si las tienen una distribución continua, la probabilidad de que la varianza muestral de la suma sea igual a la suma de las varianzas muestrales en exactamente 0 :)X
Macro
15

Solo quería agregar una versión más sucinta de la prueba dada por Macro, para que sea más fácil ver lo que está sucediendo.

Tenga en cuenta que desdeVar(X)=Cov(X,X)

Para cualquiera de las dos variables aleatorias tenemos:X,Y

Var(X+Y)=Cov(X+Y,X+Y)=E((X+Y)2)E(X+Y)E(X+Y)by expanding,=E(X2)(E(X))2+E(Y2)(E(Y))2+2(E(XY)E(X)E(Y))=Var(X)+Var(Y)+2(E(XY))E(X)E(Y))
Por lo tanto, en general, la varianza de la suma de dos variables aleatorias no es la suma de las varianzas. Sin embargo, si son independientes, entonces , y tenemos .X,YE(XY)=E(X)E(Y)Var(X+Y)=Var(X)+Var(Y)

Observe que podemos producir el resultado para la suma de variables aleatorias mediante una simple inducción.n

Omar Haque
fuente