¿Cómo se relaciona la distribución gamma inversa con y ?

8

Dado que la estimación posterior de de una probabilidad normal y una gamma inversa antes de es:σ2σ2

σ2IG(α+n2,β+i=1n(yiμ)22)

que es equivalente a

σ2IG(n2,nσ22)

dado que un débil en elimina y de la ecuación 1:IG(α,β)σ2αβ

σ2IG(n2,i=1n(yiμ)22)

Es evidente que la estimación posterior de es una función del tamaño de la muestra y la suma de los cuadrados de la probabilidad. Pero ¿qué significa esto? Hay una derivación en Wikipedia que no sigo del todo.σ2

Tengo las siguientes preguntas

  1. ¿Puedo llegar a esta segunda ecuación sin invocar la regla de Bayes? Tengo curiosidad por saber si hay algo inherente en los parámetros de un IG que esté relacionado con la media y la varianza independientemente de la probabilidad normal.
  2. ¿Puedo usar el tamaño de la muestra y la desviación estándar de un estudio anterior para estimar un previo informado en y luego actualizar el anterior con nuevos datos? Esto parece sencillo, pero no puedo encontrar ningún ejemplo de ello, ni la razón por la cual este sería un enfoque legítimo, aparte de lo que se puede ver en la parte posterior.σ2
  3. ¿Existe un libro de texto de estadística o probabilidad popular que pueda consultar para obtener más explicaciones?
Abe
fuente
¿No te refieres a una probabilidad de gamma inversa y una gamma inversa anterior?
Neil G
1
En primer lugar, veo en su pregunta varios malentendidos: del teorema de Bayes no se obtiene una estimación posterior, sino una distribución posterior completa. El segundo punto es que esta distribución posterior no depende de "la suma de los cuadrados de la probabilidad". Simplemente depende del tamaño de su muestra (es decir, n) y los valores de la muestra, lo cual es perfectamente natural y razonable. Estas dependencias afectan sus estimaciones posteriores de media, varianza, etc. Por ejemplo, su parámetro de media de varianza posterior es igual a
1n2(yiμ)2
Tomás
@thomas por estimación, me refería a la estimación de la distribución posterior ;. ¿No es el término suma de cuadrados en la parte posterior el mismo cálculo exacto que el término ss en la probabilidad normal?
Abe
1
@Abe Recientemente hice (y respondí) una pregunta relacionada con su pregunta nr. 2. Se le da a la SD y a la SD de la SD cómo calcular la gamma correspondiente antes de la precisión de una distribución normal: la pregunta está aquí: stats.stackexchange.com/questions/41187/…
Rasmus Bååth

Respuestas:

9

Creo que es más correcto hablar de la distribución posterior de su parámetro lugar de su estimación posterior. Para mayor claridad de las anotaciones, dejaré el primer en en lo que sigue.σ2σ2

Supongamos que se distribuye como , - dejo caer por ahora para hacer un ejemplo heurístico - y se distribuye como y es independiente de .XN(0,σ2)μ1/σ2=σ2Γ(α,β)X

El pdf de dado es gaussiano, es decirXσ2

f(x|σ2)=12πσ2exp(x22σ2).

El pdf conjunto de , se obtiene multiplicando por - el pdf de . Esto sale como(X,σ2)f(x,σ2)f(x|σ2)g(σ2)σ2

f(x,σ2)=12πσ2exp(x22σ2)βαΓ(α)exp(βσ2)1σ2(α1).

Podemos agrupar términos similares y reescribir esto de la siguiente manera

f(x,σ2)σ2(α1/2)exp(σ2(β+x2/2)).

La distribución posterior de es, por definición, el pdf de dado , que es según la fórmula de Bayes . Para responder a su pregunta 1. No creo que haya una manera de expresar desde sin usar la fórmula de Bayes. Con el cálculo, reconocemos en la fórmula anterior algo que parece una función , por lo que integrar para obtener es bastante fácil.σ2σ2xf(x,σ2)/f(x)f(σ2|x)f(x,σ2)Γσ2f(x)

f(x)(β+x2/2)(α+1/2),

entonces al dividir obtenemos

f(σ2|x)(β+x2/2)(σ2(β+x2/2))α1/2exp(σ2(β+x2/2))(σ2(β+x2/2))α1/2exp(σ2(β+x2/2)).

Y aquí, en la última fórmula, reconocemos una distribución con parámetros .Γ(α+1/2,β+x2/2)

Si tiene una muestra IID , integrando todos los , obtendrá y luego como producto de siguientes términos:((x1,σ12),...,(xn,σn2))σi2f(x1,...,xn)f(σ12,...,σn2|x1,...,xn)

f(σ12,...,σn2|x1,...,xn)i=1n(σi2(β+xi2/2))α1/2exp(σi2(β+xi2/2)),

Cuál es un producto de Variables . Y estamos atrapados aquí debido a la multiplicidad de . Además, la distribución de la media de esas variables independientes no es fácil de calcular.Γσi2Γ

Sin embargo, si suponemos que todas las observaciones comparten el mismo valor de (que parece ser su caso), es decir, que el valor de se extrajo solo una vez de un y que todas las se dibujaron con ese valor de , obtenemosxiσ2σ2Γ(α,β)xiσ2

f(x1,...,xn,σ2)σ2(α+n/2)exp(σ2(β+12i=1nxi2)),

de donde derivamos la distribución posterior de como su ecuación 1 aplicando la fórmula de Bayes.σ2

La distribución posterior de es una que depende de y , sus parámetros anteriores, el tamaño de la muestra la suma de cuadrados observada. La media anterior de es y la varianza es , por lo que si y el valor es muy pequeño, el anterior lleva muy poca información sobre porque la varianza se vuelve enorme. Como los valores son pequeños, puede eliminarlos de las ecuaciones anteriores y terminar con su ecuación 3.σ2Γαβnσ2α/βα/β2α=βσ2

En ese caso, la distribución posterior se vuelve independiente de la anterior. Esta fórmula dice que el inverso de la varianza tiene una distribución que depende solo del tamaño de la muestra y la suma de los cuadrados. Puede mostrar que para las variables gaussianas de media conocida, , el estimador de la varianza, tiene la misma distribución, excepto que es una función del tamaño de la muestra y el valor verdadero del parter . En el caso bayesiano, esta es la distribución del parámetro, en el caso frecuentista, es la distribución del estimador.ΓS2σ2

Con respecto a su pregunta 2., por supuesto, puede usar los valores obtenidos en un experimento anterior como sus antecedentes. Debido a que establecimos un paralelo entre la interpretación bayesiana y frecuentista en lo anterior, podemos elaborar y decir que es como calcular una variación de un tamaño de muestra pequeño y luego recopilar más puntos de datos: actualizaría su estimación de la variación en lugar de tirarla a la basura Los primeros puntos de datos.

Con respecto a su pregunta 3. Me gusta la Introducción a las estadísticas matemáticas de Hogg, McKean y Craig, que generalmente brinda detalles sobre cómo derivar estas ecuaciones.

gui11aume
fuente
1

Para la pregunta 1, la segunda ecuación se deriva de la regla de Bayes como usted señala, y no veo cómo evitar eso.

Para la pregunta 2, sí, puedes hacer esto. Simplemente use un previo de la misma forma que su segunda ecuación.

Para la pregunta 3, buscaría algo sobre familias exponenciales. Quizás alguien recomendará un buen recurso.

Neil G
fuente