Una distribución gaussiana estandarizada en se puede definir dando explícitamente su densidad:
o su función característica.
Como se recuerda en esta pregunta, también es la única distribución para la cual la media y la varianza de la muestra son independientes.
¿Cuáles son otras caracterizaciones alternativas sorprendentes de las medidas gaussianas que conoces? Aceptaré la respuesta más sorprendente
La distribución continua con varianza fija que maximiza la entropía diferencial es la distribución gaussiana.
fuente
Hay un libro completo escrito sobre esto: "Caracterizaciones de la ley de probabilidad normal", AM Mathai y G. Perderzoli. Una breve revisión en JASA (diciembre de 1978) menciona lo siguiente:
fuente
Las distribuciones gaussianas son las únicas distribuciones de suma estable con varianza finita.
fuente
Stemma Lemma proporciona una caracterización muy útil. es Gaussiano estándar iff para todas las funciones absolutamente continuas con .E f ′ ( Z ) = E Z f ( Z ) f E | f ′ ( Z ) | < ∞Z
fuente
Teorema [Herschel-Maxwell]: Sea un vector aleatorio para el cual (i) las proyecciones en subespacios ortogonales son independientes y (ii) la distribución de depende solo de la longitud. Entonces se distribuye normalmente. Z ‖ Z ‖ ZZ∈Rn Z ∥Z∥ Z
Citado por George Cobb en Enseñanza de estadísticas: Algunas tensiones importantes (Chileno J. Estadísticas Vol. 2, No. 1, abril de 2011) en la pág. 54)
Cobb usa esta caracterización como un punto de partida para derivar las , y , sin usar Cálculo (o mucha teoría de probabilidad). t Fχ2 t F
fuente
Sea y dos variables aleatorias independientes con una distribución simétrica común tal queξη ξ
Entonces estas variables aleatorias son gaussianas. (Obviamente, si y están centrados en gauss, es cierto).ξ η
Este es el teorema de Bobkov-Houdre
fuente
Esto no es una caracterización sino una conjetura, que data de 1917 y se debe a Cantelli:
Mencionado por Gérard Letac aquí .
fuente
Supongamos que uno está estimando un parámetro de ubicación utilizando los datos de iid . Si es el estimador de máxima verosimilitud, entonces la distribución de muestreo es gaussiana. De acuerdo con la Teoría de la probabilidad de Jaynes : la lógica de la ciencia, páginas 202-4, así fue como Gauss la derivó originalmente.{x1,...,xn} x¯
fuente
Steutel y Van Harn (2004) presentan una caracterización más particular de la distribución normal entre la clase de distribuciones infinitamente divisibles .
Este resultado caracteriza la distribución normal en términos de su comportamiento de cola.
fuente
En el contexto del suavizado de imágenes (p. Ej. , Espacio de escala ), el gaussiano es el único núcleo separable * rotacionalmente simétrico.
Es decir, si requerimos donde , entonces la simetría rotacional requiere que es equivalente a .
Requerir que sea un núcleo adecuado requiere que la constante sea negativa y el valor inicial positivo, produciendo el núcleo gaussiano.f[x]
* En el contexto de las distribuciones de probabilidad, separable significa independiente, mientras que en el contexto del filtrado de imágenes permite que la convolución 2D se reduzca computacionalmente a dos convoluciones 1D.
fuente
Recientemente, Ejsmont [1] publicó un artículo con una nueva caracterización del gaussiano:
Deje que sean vectores aleatorios independientes con todos los momentos, donde no son degenerados, y deje estadística tiene una distribución que depende solo de , donde y . Entonces son independientes y tienen la misma distribución normal con medias cero y para .(X1,…,Xm,Y) and (Xm+1,…,Xn,Z) Xi ∑ni=1aiXi+Y+Z ∑ni=1a2i ai∈R 1≤m<n Xi i ∈ { 1 , … , n }cov(Xi,Y)=cov(Xi,Z)=0 i∈{1,…,n}
[1] Ejsmont, Wiktor. "Una caracterización de la distribución normal por la independencia de un par de vectores aleatorios". Estadísticas y cartas de probabilidad 114 (2016): 1-5.
fuente
Su función característica tiene la misma forma que su pdf. No estoy seguro de otra distribución que haga eso.
fuente
La expectativa más menos la desviación estándar son los puntos de silla de la función.
fuente