Distribuciones distintas a la normal donde la media y la varianza son independientes

32

Me preguntaba si hay distribuciones además de la normal donde la media y la varianza son independientes entre sí (o en otras palabras, donde la varianza no es una función de la media).

Wolfgang
fuente
1
No estoy seguro si entiendo la pregunta correctamente. ¿Está preguntando si hay alguna distribución aparte de la normal que esté completamente especificada por la media y la varianza? En cierto sentido, la varianza es una función de la media, ya que es una medida de la dispersión alrededor de la media, pero supongo que esto no es lo que tienes en mente.
te refieres a la media muestral y la varianza muestral son independientes. Buena pregunta ! ¿quizás proyectar una variable aleatoria gaussiana mantendrá la independencia? X¯=1ni=1nXi1ni=1n(XiX¯)2
robin girard
44
Srikant tiene razón. Si la pregunta es sobre "muestra de media y varianza", entonces la respuesta es "no". Si la pregunta es sobre la media y la varianza de la población, entonces la respuesta es sí; David da buenos ejemplos a continuación.
1
Solo para aclarar, lo que quise decir es esto. Para la distribución normal, la media y la varianza σ 2 caracterizan completamente la distribución y σ 2 no es una función de μ . Para muchas otras distribuciones, esto no es así. Por ejemplo, para la distribución binomial, tenemos la media π y la varianza n π ( 1 - π ) , por lo que la varianza es una función de la media. Otros ejemplos son la distribución gamma con parámetros θ (escala) y κ (forma), donde la media es μ = κ θμσ2σ2μπnπ(1π)θκμ=κθ y la varianza es , por lo que la varianza es en realidad μ θ . κtheta2μθ
Wolfgang el
77
Considere modificar su pregunta, entonces, porque la respuesta que marcó como su respuesta preferida no responde la pregunta tal como está (y la otra sí). Actualmente está utilizando la palabra "independiente" de manera idiosincrásica. Su ejemplo con Gamma muestra esto: uno simplemente podría volver a parametrizar Gamma en términos de la media (mu) y la varianza (sigma), porque podemos recuperar theta = sigma / mu y kappa = mu ^ 2 / sigma. En otras palabras, funcional "independencia" de los parámetros es por lo general sin sentido (a excepción de familias con un solo parámetro).
whuber

Respuestas:

11

Nota: Lea la respuesta de @G. Jay Kerns, y vea a Carlin y Lewis 1996 o su referencia de probabilidad favorita para obtener información sobre el cálculo de la media y la varianza como el valor esperado y el segundo momento de una variable aleatoria.

Una exploración rápida del Apéndice A en Carlin y Lewis (1996) proporciona las siguientes distribuciones que son similares en este aspecto a lo normal, en el sentido de que los mismos parámetros de distribución no se utilizan en los cálculos de la media y la varianza. Como señaló @robin, al calcular las estimaciones de parámetros de una muestra, se requiere la media de la muestra para calcular sigma.

Normal multivariante

V a r ( X ) = Σ

E(X)=μ
Var(X)=Σ

t y t multivariante:

V a r ( X ) = ν σ 2 / ( ν - 2 )

E(X)=μ
Var(X)=νσ2/(ν2)

Doble exponencial: V a r ( X ) = 2 σ 2

E(X)=μ
Var(X)=2σ2

Cauchy: Con alguna calificación se podría argumentar que la media y la varianza de Cauchy no son dependientes.

E(X)Var(X)

Referencia

Carlin, Bradley P. y Thomas A. Louis. 1996. Bayes and Empirical bayes Methods for Data Analysis, 2nd ed. Chapman and Hall / CRC, Nueva York

David LeBauer
fuente
77
¡En cualquier familia de escala de ubicación, la media y la varianza serán funcionalmente independientes de esta manera!
whuber
1
David, el doble exponencial es un excelente ejemplo. ¡Gracias! No pensé en eso. La distribución t también es un buen ejemplo, pero ¿no es E (X) = 0 y Var (X) = v / (v-2)? O Carlin et al. (1996) definen una versión generalizada de la distribución t que se desplaza en su media y se escala por sigma ^ 2?
Wolfgang el
Tiene razón, la distribución t parece caracterizarse frecuentemente con una media = 0 y una varianza = 1, pero el pdf general para t proporcionado por Carlin y Louis incluye explícitamente tanto sigma como mu; el parámetro nu explica la diferencia entre lo normal y lo t.
David LeBauer el
27

De hecho, la respuesta es "no". La independencia de la muestra media y la varianza caracteriza la distribución normal. Eugene Lukacs lo demostró en "Una caracterización de la distribución normal", The Annals of Mathematical Statistics, vol. 13, N ° 1 (marzo de 1942), págs. 91-93.

No sabía esto, pero Feller, "Introducción a la teoría de la probabilidad y sus aplicaciones, Volumen II" (1966, pág. 86) dice que RC Geary también lo demostró.


fuente
3
@onestop Supongo que es un artefacto desafortunado de mi edad. No es un eufemismo decir que los libros de Feller revolucionaron cómo se hizo la probabilidad en todo el mundo. Gran parte de nuestra notación moderna se debe a él. Durante décadas, sus libros fueron los libros de probabilidad para estudiar. Quizás aún deberían serlo. Por cierto: he agregado el título para aquellos que no han oído hablar de sus libros.
1
He hecho la pregunta sobre otra caracterización divertida
robin girard
2
Jay, gracias por la referencia al documento de Lukacs, quien muestra muy bien que las distribuciones de muestreo de la media y la varianza de la muestra son solo independientes de la distribución normal. En cuanto al segundo momento central, hay algunas distribuciones en las que no es una función del primer momento (David dio algunos buenos ejemplos).
Wolfgang el
1
Geary, RC (1936), "La distribución de la proporción de" estudiantes "para muestras no normales", Journal of the Royal Statistical Society, Suppl. 3, 178-184.
vqv