Momentos centrales de distribuciones simétricas

9

Estoy tratando de mostrar que el momento central de una distribución simétrica: es cero para los números impares. Así, por ejemplo, el tercer momento centralComencé tratando de mostrar queNo estoy seguro de a dónde ir desde aquí, ¿alguna sugerencia? ¿Hay una mejor manera de probar esto?E [ ( X - u ) 3 ] = 0 . E [ ( X - u ) 3 ] = E [ X 3 ] - 3 u E [ X 2 ] + 3 u 2 E [ X ] - u 3

fx(a+x)=fx(ax)
E[(Xu)3]=0.
E[(Xu)3]=E[X3]3uE[X2]+3u2E[X]u3.
usuario18262
fuente
55
Sugerencia: por simplicidad, suponga que es simétrica con respecto a . Luego puede mostrar que dividiendo la integral entre y y utilizando el supuesto de simetría. A continuación, sólo tiene que demostrar que para . Esto se puede hacer nuevamente dividiendo la integral y usando un argumento similar. f0E[X]=u=0(,0)[0,)E[Xk]=0k=3,5,7,9,...
55
Pero, pista , ¡ten cuidado con la sugerencia de @ Procrastinator (+1)! De lo contrario, ¡puede "probar" algo falso! Debe mostrar que cada pieza de la integral dividida es finita. (Si uno es, el otro también debe serlo.)
Cardenal
1
¿Cuál es la diferencia entre y ? au
Henry
2
@DilipSarwate ¿Por qué no captura todos esos pensamientos en una respuesta en lugar de buscar minucias en los comentarios que no pretenden ser respuestas completas?
2
@Macro: Una pena, de verdad. Procrastinator ahora se une a una lista de varios contribuyentes muy valiosos (en mi opinión) que aparentemente hemos perdido en los últimos meses (o que han reducido severamente su actividad). En el lado positivo, ¡es muy agradable ver tu reciente aumento en la participación! Espero que continúe.
Cardenal

Respuestas:

8

Esta respuesta tiene como objetivo hacer una demostración que sea lo más elemental posible, porque tales cosas con frecuencia llegan a la idea esencial. Los únicos hechos necesarios (más allá del tipo más simple de manipulaciones algebraicas) son la linealidad de la integración (o, de manera equivalente, de la expectativa), el cambio de fórmula de variables para integrales y el resultado axiomático que un PDF se integra a la unidad.

Motivando esta demostración está la intuición de que cuando es simétrico respecto de , entonces la contribución de cualquier cantidad a la expectativa tendrá el mismo peso que la cantidad , porque y están en lados opuestos de e igualmente lejos de ella. Siempre, entonces, que para todo , todo se cancela y la expectativa debe ser cero. La relación entre y , entonces, es nuestro punto de partida.fXaG(x)EX(G(X))G(2ax)x2axaG(x)=G(2ax)xx2ax


Observe, escribiendo , que la simetría también puede expresarse por la relacióny=x+a

fX(y)=fX(2ay)

por todo . Para cualquier función medible , el cambio de variable de uno a uno de a cambia a , mientras que invierte la dirección de integración, lo que implicayGx2axdxdx

EX(G(X))=G(x)fX(x)dx=G(x)fX(2ax)dx=G(2ax)fX(x)dx.

Suponiendo que exista esta expectativa (es decir, la integral converge), la linealidad de la integral implica

(G(x)G(2ax))fX(x)dx=0.

Considere los momentos impares sobre , que se definen como las expectativas de , . En estos casosaGk,a(X)=(Xa)kk=1,3,5,

Gk,a(x)Gk,a(2ax)=(xa)k(2axa)k=(xa)k(ax)k=(1k(1)k)(xa)k=2(xa)k,

precisamente porque es extraño. Aplicar el resultado anterior dak

0=(Gk,a(x)Gk,a(2ax))fX(x)dx=2(xa)kfX(x)dx.

Debido a que el lado derecho es el doble de la ésimo momento acerca de , dividiendo por muestra que este momento es cero siempre que exista.ka2

Finalmente, la media (suponiendo que exista) es

μX=EX(X)=xfX(x)dx=(2ax)fX(x)dx.

Una vez más, explotando la linealidad, y recordando que porque es una distribución de probabilidad, podemos reorganizar la última igualdad para leerfX(x)dx=1fX

2μX=2xfX(x)dx=2afX(x)dx=2a×1=2a

con la solución única . Por lo tanto, todos nuestros cálculos previos de momentos sobre son realmente los momentos centrales, QED.aμX=aa


Postword

La necesidad de dividir por en varios lugares está relacionada con el hecho de que hay un grupo de orden actúa sobre las funciones medibles (es decir, el grupo generado por la reflexión en la línea alrededor de ). De manera más general, la idea de una simetría puede generalizarse a la acción de cualquier grupo. La teoría de las representaciones grupales implica que cuando el personaje2 a22ade esa acción en una función no es trivial, es ortogonal al carácter trivial, y eso significa que la expectativa de la función debe ser cero. Las relaciones de ortogonalidad implican agregar (o integrar) sobre el grupo, de donde el tamaño del grupo aparece constantemente en denominadores: su cardinalidad cuando es finito o su volumen cuando es compacto.

La belleza de esta generalización se hace evidente en aplicaciones con simetría manifiesta , como en las ecuaciones mecánicas (o mecánicas cuánticas) de movimiento de sistemas simétricos ejemplificados por una molécula de benceno (que tiene un grupo de simetría de 12 elementos). (La aplicación QM es más relevante aquí porque calcula explícitamente las expectativas). Los valores de interés físico, que generalmente involucran integrales multidimensionales de tensores, pueden calcularse sin más trabajo del que estaba involucrado aquí, simplemente conociendo los caracteres asociados con el integrandos Por ejemplo, los "colores" de varias moléculas simétricas, sus espectros en varias longitudes de onda, pueden determinarse ab initio con este enfoque.

whuber
fuente
2
(+1) En la sección que comienza "Considere los momentos extraños sobre ...", creo que la tercera línea debería leer . = ( 1 k - ( - 1 ) k ) ( x - a ) ka=(1k(1)k)(xa)k
asumido el
1
@Max Sí: ¡Gracias por leer tan cuidadosamente! (Ahora está arreglado.)
whuber