¿Cómo se encuentra la media de una suma de variables dependientes?

13

Sé que la media de la suma de variables independientes es la suma de las medias de cada variable independiente. ¿Esto se aplica también a las variables dependientes?

Gh75m
fuente
@feetwet, simplemente eliminar "gracias" no es lo suficientemente importante como para romper un hilo de hace 18 meses. FWIW, voté para rechazar esta edición (pero otros 2 aprobaron, por lo que no habrían visto mi comentario).
gung - Restablece a Monica
1
@gung: todo tipo de cosas pueden interferir con la vista de pregunta "Activa". Su observación se ha hecho a menudo, y AFAIK la política de intercambio de pila es que, a pesar de ese inconveniente, las ediciones menores válidas son algo bueno .
Footwet
1
@feetwet, no estoy seguro de cuán relevante es una publicación meta.Fotografía aquí. Cada sitio de SE tiene su propio meta y sus propias políticas, decididas por la comunidad. Es posible que desee ver los hilos meta.CV relevantes, por ejemplo, este: Manejo de "ediciones sugeridas" a las publicaciones . Podrías notar que la respuesta de Whuber cita a Jeff Atwood, "pequeñas [s] ediciones, como ... eliminar solo el saludo de una publicación ... rechazarlas, con prejuicios extremos", y joran dice: "Mi umbral para cuando una edición es demasiado pequeña está inversamente relacionada con la edad de la pregunta ".
gung - Restablece a Monica
1
@gung la publicación de Fotografía hice referencia a enlaces a un importante y más reciente Preguntas y Respuestas de Meta Stack Exchange sobre el tema . Pero si la respuesta de Whuber de 4 años sigue siendo canónica para Cross Validated , respetaré eso en el futuro.
Footwet

Respuestas:

18

La expectativa (tomando la media) es un operador lineal .

Esto significa que , entre otras cosas, E(X+Y)=E(X)+E(Y) para cualquiera de las dos variables aleatorias X e Y (para las cuales existen las expectativas), independientemente de si son independientes o no.

Podemos generalizar (por ejemplo, por inducción ) de modo que E(i=1nXi)=i=1nE(Xi) siempre que exista cada expectativa E(Xi) .

Entonces sí, la media de la suma es la misma que la suma de la media, incluso si las variables son dependientes. ¡Pero tenga en cuenta que esto no se aplica a la variación! Entonces, mientras Var(X+Y)=Var(X)+Var(Y) para variables independientes, o incluso variables que son dependientes pero no correlacionadas , la fórmula general es Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) dondeCov es lacovarianzade las variables.

Lepisma
fuente
10

TL; DR:
Suponiendo que existe, la media es un valor esperado, y el valor esperado es una integral, y las integrales tienen la propiedad de linealidad con respecto a las sumas.

TS; DR:
Dado que estamos tratando con la suma de variables aleatorias , es decir, de una función de muchas de ellas, la media de la suma E ( Y n ) es con respecto a su distribución conjunta ( suponemos que existen todos los medios y son finitos) que denota X el vector multivariante de la n de rv, su densidad conjunta se puede escribir como f X ( x ) = f X 1 , . . . , XYn=i=1nXiE(Yn)Xny su apoyo conjunto D=S X 1 ×. . . ×S X n Usando laLey del Estadístico Inconsciente tenemos laintegralmúltiplefX(x)=fX1,...,Xn(x1,...,xn)D=SX1×...×SXn

.

E[Yn]=DYnfX(x)dx

Bajo algunas condiciones de regularidad podemos descomponer la integral múltiple en una integral iterativa:n

E[Yn]=SXn...SX1[i=1nXi]fX1,...,Xn(x1,...,xn)dx1...dxn

y usando la linealidad de las integrales podemos descomponernos en

=SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn+......+SXn...SX1xnfX1,...,Xn(x1,...,xn)dx1...dxn

n

SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn=SX1x1SXn...SX2fX1,...,Xn(x1,...,xn)dx2...dxndx1

y en general

j x j S X n . . .

SXn...SXj...SX1xjfX1,...,Xn(x1,...,xn)dx1...dxj...dxn=
=SXjxjSXn...SXj1SXj+1...SX1fX1,...,Xn(x1,...,xn)dx1...dxj1dxj+1......dxndxj

nnSXjxjfXj(xj)dxj

Reuniendo todo llegamos a

E[Yn]=E[i=1nXi]=SX1x1fX1(x1)dx1+...+SXnxnfXn(xn)dxn

Pero ahora cada integral simple es el valor esperado de cada variable aleatoria por separado, entonces

E[i=1nXi]=E(X1)+...+E(Xn)
=i=1nE(Xi)

Tenga en cuenta que nunca invocamos la independencia o no independencia de las variables aleatorias involucradas, pero trabajamos únicamente con su distribución conjunta.

Alecos Papadopoulos
fuente
@ssdecontrol Esta es una upvote Aprecio, de hecho .
Alecos Papadopoulos
1
La expansión en integrales iteradas y viceversa es innecesaria. Se complica un argumento simple. Puede reemplazar la sección "TS; DR" con su última oración y tener una buena respuesta.
whuber
@whuber Un año y medio después, todavía se me escapa (quiero decir, sin usar el hecho de "linealidad del operador de expectativas", que ya ha sido utilizado por la otra respuesta). ¿Alguna pista para que pueda reelaborar la respuesta a este simple argumento?
Alecos Papadopoulos
Creo que el argumento es superfluo. La clave de todo el asunto es su observación en la última oración.
whuber