¿Cuál es la caracterización más sorprendente de la distribución gaussiana (normal)?

52

Una distribución gaussiana estandarizada en se puede definir dando explícitamente su densidad: R

12πex2/2

o su función característica.

Como se recuerda en esta pregunta, también es la única distribución para la cual la media y la varianza de la muestra son independientes.

¿Cuáles son otras caracterizaciones alternativas sorprendentes de las medidas gaussianas que conoces? Aceptaré la respuesta más sorprendente

robin girard
fuente

Respuestas:

39

Lo que más me sorprende es el de la media y la varianza de la muestra, pero aquí hay otra (quizás) caracterización sorprendente: si e son IID con varianza finita con e independientes, entonces e son normales.XYX+YXYXY

Intuitivamente, generalmente podemos identificar cuándo las variables no son independientes con un diagrama de dispersión. Así que imagine un diagrama de dispersión de pares que parece independiente. Ahora gire 45 grados y mire de nuevo: si todavía se ve independiente, entonces las coordenadas e individualmente deben ser normales (todo esto habla libremente, por supuesto).X Y(X,Y)XY

Para ver por qué funciona el bit intuitivo, eche un vistazo a

[cos45sin45sin45cos45][xy]=12[xyx+y]
usuario1108
fuente
3
Jay: esto es básicamente una reformulación de la media y la varianza como independientes. es una media reescalada y es una desviación estándar reescalada. X - YX+YXY
probabilidadislogica
55
@probabilityislogic: me gusta la intuición de lo que dijiste, pero no creo que sea exactamente una reformulación porque no es exactamente un cambio de escala de la SD: la SD olvida el signo. Por lo tanto, la independencia de la media y la DE se deriva de la independencia de , (cuando ), pero no al revés. Eso puede haber sido lo que quisiste decir con "básicamente". De todos modos, es algo bueno. X + Y X - Y n = 2XYX+YXYn=2
44
¿Dónde podemos encontrar pruebas de esta propiedad?
Royi
1
@Royi ver 16. aquí . Para (a), tenga en cuenta que . Para (b) tenga en cuenta que que anhela la sustitución de donde obtiene . Si , entonces , por lo tanto, para todos , y hay una secuencia tal que y para todo , lo que contradice la continuidad de enφ ( 2 t ) φ ( - 2 t ) = ( φ ( t ) φ ( - t ) ) 4 ψ ( t ) = φ ( t ) φ ( - t ) ψ ( t ) = ψ 2 2 n2X=(X+Y)+(XY)φ(2t)φ(2t)=(φ(t)φ(t))4ψ(t)=φ(t)φ(t)φ(t0)=0ψ(t0)=0nψ(t0ψ(t)=ψ22n(t2n)φ(t0)=0ψ(t0)=0ntntn0φ(tn)=0nφ0ψ(t02n)=0tntn0φ(tn)=0nφ0. (c) es directo [continuación]
Gabriel Romon
1
Para (d), . Tenga en cuenta que , por lo tanto, . Conecte esto en la igualdad anterior y pruebe que para fijo , que implica para todo . Esto significa que es real, y la igualdad en (a) se convierte en lo que se pide. Nuevamente, pruebe que y use para obtener . Por lo tanto, yφ(t)=1-t2γ(t)=γ2n(t2n)γ(t)=1+o(t2)tlimnγ2n(tφ(t)=1t22+o(t2)γ(t)=1+o(t2)tγ(t)=1tφφ(t)=φ22n(tlimnγ2n(t2n)=1γ(t)=1tφφ(t)=1-t2φ(t)=φ22n(t2n)limnφ2 2 n (tφ(t)=1t22+o(t2)φ(t)=e-t2/2Xlimnφ22n(t2n)=et2/2φ(t)=et2/2X es normal.
Gabriel Romon
27

La distribución continua con varianza fija que maximiza la entropía diferencial es la distribución gaussiana.

shabbychef
fuente
22

Hay un libro completo escrito sobre esto: "Caracterizaciones de la ley de probabilidad normal", AM Mathai y G. Perderzoli. Una breve revisión en JASA (diciembre de 1978) menciona lo siguiente:

Deje ser variables aleatorias independientes. Entonces y son independientes, donde , si y solo si [están] normalmente distribuidos.n i = 1 a i x in i = 1 b i x i a i b i0 X iX1,,Xni=1naixii=1nbixiaibi0Xi

whuber
fuente
3
debe haber una condición como falta? por ejemplo si n = 2 y no son independientes. a i = b i = 1 X 1 + X 2 X 1 + X 2<a,b>=0ai=bi=1 X1+X2X1+X2
robin girard
1
@robin buena captura. También he estado desconcertado sobre los cuantificadores implícitos. Desafortunadamente, todo lo que tengo acceso es esa cita (emocionante) de la reseña, no el libro. Sería divertido encontrarlo en una biblioteca y examinarlo ...
whuber
Esto se siente como una generalización de la respuesta de G. Jay Kerns (actualmente # 1).
vqv
Creo que puede estar buscando el artículo de Lukacs y King (1954). Vea esta respuesta en matemáticas. SE con un enlace al documento antes mencionado.
cardenal
2
Cuando esta proposición dice "donde ", ¿significa para CADA conjunto de escalares donde "? Odio ver" donde "se usa en lugar de" para cada "o" para algunos "." Donde "debe usarse para explicar la propia notación, como en" donde es la velocidad de la luz es el producto interno bruto ", etc.a iaibi0c gaibi0cg
Michael Hardy
17

Las distribuciones gaussianas son las únicas distribuciones de suma estable con varianza finita.

shabbychef
fuente
8
El CLT nos impone que son absolutamente estables y que son los únicos con variación finita. ¡La parte interesante de esta afirmación es que existen otras distribuciones de suma estable!
whuber
1
@whuber: de hecho! esta caracterización está un poco retorcida, y las otras distribuciones de suma estable son quizás más curiosas.
shabbychef
@whuber en realidad, no veo cómo el CLT implica este hecho. Solo parece decirnos que asintóticamente , la suma de las normales es normal, no que cualquier suma finita se distribuya normalmente. ¿O tienes que usar de alguna manera el teorema de Slutsky también?
shabbychef
3
Adoptando la normalización habitual, una suma de dos normales es la suma de una distribución normal X_0 más la distribución limitante de una serie X_1, X_2, ..., de donde la suma es la distribución limitante de X_0, X_1, ..., que por el Lindeberg-Levy CLT es normal.
whuber
17

Stemma Lemma proporciona una caracterización muy útil. es Gaussiano estándar iff para todas las funciones absolutamente continuas con .E f ( Z ) = E Z f ( Z ) f E | f ( Z ) | < Z

Ef(Z)=EZf(Z)
fE|f(Z)|<
revs vqv
fuente
12

Teorema [Herschel-Maxwell]: Sea un vector aleatorio para el cual (i) las proyecciones en subespacios ortogonales son independientes y (ii) la distribución de depende solo de la longitud. Entonces se distribuye normalmente. Z Z ZZRnZZZ

Citado por George Cobb en Enseñanza de estadísticas: Algunas tensiones importantes (Chileno J. Estadísticas Vol. 2, No. 1, abril de 2011) en la pág. 54)

Cobb usa esta caracterización como un punto de partida para derivar las , y , sin usar Cálculo (o mucha teoría de probabilidad). t Fχ2tF

whuber
fuente
9

Sea y dos variables aleatorias independientes con una distribución simétrica común tal queξηξ

P(|ξ+η2|t)P(|ξ|t).

Entonces estas variables aleatorias son gaussianas. (Obviamente, si y están centrados en gauss, es cierto).ξη

Este es el teorema de Bobkov-Houdre

robin girard
fuente
9

Esto no es una caracterización sino una conjetura, que data de 1917 y se debe a Cantelli:

Si es una función positiva en y e son variables aleatorias independientes tales que es normal, entonces es una constante en casi todas partes.fRXYN(0,1)X+f(X)Yf

Mencionado por Gérard Letac aquí .

Quizás
fuente
es bueno que lo menciones! No puedo entender la intuición, ¿verdad?
robin girard
@robin Esto es lo que hace que esta conjetura sea tan especial: una declaración completamente elemental, algunos enfoques obvios que fallan miserablemente (funciones características), y uno no tiene nada que entender ... Por cierto, si uno apuesta a que la conjetura sea cierta ¿o falso? Incluso eso no es obvio (para mí).
Hizo
2
Si Gérard Letac no ha logrado demostrarlo, ¡podría ser una conjetura abierta durante bastante tiempo ...!
Xi'an
@ Xi'an: Estoy totalmente de acuerdo, por supuesto. (No sabía que estabas en roaming en estos cuartos de la web ... Buenas noticias que sí.)
Lo hizo el
66
@ Xi'an Aquí hay una preimpresión de Victor Kleptsyn y Aline Kurtzmann con un contraejemplo a la conjetura de Cantelli. La construcción utiliza una nueva herramienta, que los autores llaman el transporte de masas browniano, y produce una función discontinua . Los autores afirman que creen que la conjetura de Cantelli se cumple si uno pregunta que es continua (la suya es una mezcla de dos funciones continuas). ff
¿Se
8

Supongamos que uno está estimando un parámetro de ubicación utilizando los datos de iid . Si es el estimador de máxima verosimilitud, entonces la distribución de muestreo es gaussiana. De acuerdo con la Teoría de la probabilidad de Jaynes : la lógica de la ciencia, páginas 202-4, así fue como Gauss la derivó originalmente.{x1,...,xn}x¯

Cian
fuente
No estoy seguro de entender esto como una caracterización de la distribución normal, por lo que probablemente me falta algo. ¿Qué pasaría si tuviéramos datos de iid Poisson y quisiéramos estimar ? El MLE es pero la distribución de muestreo de no es gaussiana; en primer lugar, tiene que ser racional; en segundo lugar, si fuera gaussiano, también sería pero eso es . μx¯x¯x¯xiPoisson(nμ)
Silverfish
2
¡La media de Poisson no es un parámetro de ubicación!
kjetil b halvorsen
6

Steutel y Van Harn (2004) presentan una caracterización más particular de la distribución normal entre la clase de distribuciones infinitamente divisibles .

Una variable aleatoria no degenerada divisible infinitamente tiene una distribución normal si y solo si satisface X

lim supxlogP(|X|>x)xlog(x)=.

Este resultado caracteriza la distribución normal en términos de su comportamiento de cola.

usuario10525
fuente
1
Una breve prueba del límite establecido es el siguiente: si es normal estándar, entonces como , entonces . Pero y así el resultado sigue. Un bosquejo aproximado para el caso del Poisson parece indicar que el límite dado es , pero no lo comprobé demasiado de cerca. XxP(X>x)/φ(x)1xlogP(X>x)logφ(x)+logx02logφ(x)x2λ
Cardenal
6

En el contexto del suavizado de imágenes (p. Ej. , Espacio de escala ), el gaussiano es el único núcleo separable * rotacionalmente simétrico.

Es decir, si requerimos donde , entonces la simetría rotacional requiere que es equivalente a .

F[x,y]=f[x]f[y]
[x,y]=r[cosθ,sinθ]
Fθ=f[x]f[y]xθ+f[x]f[y]yθ=f[x]f[y]y+f[x]f[y]x=0f[x]xf[x]=f[y]yf[y]=const.
log[f[x]]=cx

Requerir que sea ​​un núcleo adecuado requiere que la constante sea negativa y el valor inicial positivo, produciendo el núcleo gaussiano.f[x]


* En el contexto de las distribuciones de probabilidad, separable significa independiente, mientras que en el contexto del filtrado de imágenes permite que la convolución 2D se reduzca computacionalmente a dos convoluciones 1D.

GeoMatt22
fuente
2
+1 ¿Pero esto no se sigue de una aplicación inmediata del teorema de Herschel-Maxwell en 2D?
whuber
@whuber De hecho, ¡de alguna manera logré pasar por alto tu respuesta al leer este hilo!
ameba dice Reinstate Monica
@whuber Sí. No había leído este viejo hilo en detalle, y solo estaba agregando esta respuesta por solicitud.
GeoMatt22
1
@amoeba ver también aquí .
GeoMatt22
3

Recientemente, Ejsmont [1] publicó un artículo con una nueva caracterización del gaussiano:

Deje que sean vectores aleatorios independientes con todos los momentos, donde no son degenerados, y deje estadística tiene una distribución que depende solo de , donde y . Entonces son independientes y tienen la misma distribución normal con medias cero y para .(X1,,Xm,Y) and (Xm+1,,Xn,Z)Xii=1naiXi+Y+Zi=1nai2aiR1m<nXii { 1 , , n }cov(Xi,Y)=cov(Xi,Z)=0i{1,,n}

[1] Ejsmont, Wiktor. "Una caracterización de la distribución normal por la independencia de un par de vectores aleatorios". Estadísticas y cartas de probabilidad 114 (2016): 1-5.

Daniel
fuente
1
Esa es una caracterización delicada y fascinante. ¡Gracias por mejorar este hilo compartiéndolo!
whuber
1

Su función característica tiene la misma forma que su pdf. No estoy seguro de otra distribución que haga eso.

Jason
fuente
44
Vea esta respuesta mía para conocer las formas de construir variables aleatorias cuyas funciones características son las mismas que sus archivos PDF.
Dilip Sarwate
-1

La expectativa más menos la desviación estándar son los puntos de silla de la función.

Tal Galili
fuente
11
Esta es una propiedad de la distribución Normal, sin duda, pero no la caracteriza , porque muchas otras distribuciones también tienen esta propiedad.
whuber