Estoy tratando de mostrar que el momento central de una distribución simétrica: es cero para los números impares. Así, por ejemplo, el tercer momento centralComencé tratando de mostrar queNo estoy seguro de a dónde ir desde aquí, ¿alguna sugerencia? ¿Hay una mejor manera de probar esto?E [ ( X - u ) 3 ] = 0 . E [ ( X - u ) 3 ] = E [ X 3 ] - 3 u E [ X 2 ] + 3 u 2 E [ X ] - u 3
mathematical-statistics
expected-value
moments
usuario18262
fuente
fuente
Respuestas:
Esta respuesta tiene como objetivo hacer una demostración que sea lo más elemental posible, porque tales cosas con frecuencia llegan a la idea esencial. Los únicos hechos necesarios (más allá del tipo más simple de manipulaciones algebraicas) son la linealidad de la integración (o, de manera equivalente, de la expectativa), el cambio de fórmula de variables para integrales y el resultado axiomático que un PDF se integra a la unidad.
Motivando esta demostración está la intuición de que cuando es simétrico respecto de , entonces la contribución de cualquier cantidad a la expectativa tendrá el mismo peso que la cantidad , porque y están en lados opuestos de e igualmente lejos de ella. Siempre, entonces, que para todo , todo se cancela y la expectativa debe ser cero. La relación entre y , entonces, es nuestro punto de partida.fX a G(x) EX(G(X)) G(2a−x) x 2a−x a G(x)=−G(2a−x) x x 2a−x
Observe, escribiendo , que la simetría también puede expresarse por la relacióny=x+a
por todo . Para cualquier función medible , el cambio de variable de uno a uno de a cambia a , mientras que invierte la dirección de integración, lo que implicay G x 2a−x dx −dx
Suponiendo que exista esta expectativa (es decir, la integral converge), la linealidad de la integral implica
Considere los momentos impares sobre , que se definen como las expectativas de , . En estos casosa Gk,a(X)=(X−a)k k=1,3,5,…
precisamente porque es extraño. Aplicar el resultado anterior dak
Debido a que el lado derecho es el doble de la ésimo momento acerca de , dividiendo por muestra que este momento es cero siempre que exista.k a 2
Finalmente, la media (suponiendo que exista) es
Una vez más, explotando la linealidad, y recordando que porque es una distribución de probabilidad, podemos reorganizar la última igualdad para leer∫fX(x)dx=1 fX
con la solución única . Por lo tanto, todos nuestros cálculos previos de momentos sobre son realmente los momentos centrales, QED.aμX=a a
Postword
La necesidad de dividir por en varios lugares está relacionada con el hecho de que hay un grupo de orden actúa sobre las funciones medibles (es decir, el grupo generado por la reflexión en la línea alrededor de ). De manera más general, la idea de una simetría puede generalizarse a la acción de cualquier grupo. La teoría de las representaciones grupales implica que cuando el personaje2 a2 2 a de esa acción en una función no es trivial, es ortogonal al carácter trivial, y eso significa que la expectativa de la función debe ser cero. Las relaciones de ortogonalidad implican agregar (o integrar) sobre el grupo, de donde el tamaño del grupo aparece constantemente en denominadores: su cardinalidad cuando es finito o su volumen cuando es compacto.
La belleza de esta generalización se hace evidente en aplicaciones con simetría manifiesta , como en las ecuaciones mecánicas (o mecánicas cuánticas) de movimiento de sistemas simétricos ejemplificados por una molécula de benceno (que tiene un grupo de simetría de 12 elementos). (La aplicación QM es más relevante aquí porque calcula explícitamente las expectativas). Los valores de interés físico, que generalmente involucran integrales multidimensionales de tensores, pueden calcularse sin más trabajo del que estaba involucrado aquí, simplemente conociendo los caracteres asociados con el integrandos Por ejemplo, los "colores" de varias moléculas simétricas, sus espectros en varias longitudes de onda, pueden determinarse ab initio con este enfoque.
fuente