¿Por qué los anteriores de Jeffreys se consideran no informativos?

27

Considere un Jeffreys anterior donde , donde es la información de Fisher.yop(θ)|i(θ)|i

Sigo viendo esto antes mencionado como un previo no informativo, pero nunca vi un argumento por qué no es informativo. Después de todo, no es un previo constante, por lo que tiene que haber algún otro argumento.

Entiendo que no depende de la reparametrización, lo que me lleva a la siguiente pregunta. ¿Es que el determinante de la información de Fisher no depende de la reparametrización? Porque la información de Fisher definitivamente depende de la parametrización del problema.

Gracias.

bayesiano
fuente
¿Has leído el artículo de Wikipedia? en.wikipedia.org/wiki/Jeffreys_prior
whuber
2
Sí, había mirado allí. quizás me estoy perdiendo algo, pero no creo que el artículo de Wikipedia dé una respuesta adecuada a mis preguntas.
bayesiano
Ver también stats.stackexchange.com/questions/38962/…
Stéphane Laurent
Tenga en cuenta que el Jeffreys anterior no es invariable con respecto a los modelos equivalentes. Por ejemplo, la inferencia sobre un parámetro es diferente cuando se usan distribuciones binomiales o de muestreo binomial negativo. Esto a pesar de que las funciones de probabilidad sean proporcionales y el parámetro tenga el mismo significado en ambos modelos. p
probabilidadislogica

Respuestas:

12

Se considera no informativo debido a la invariancia de parametrización. Parece que tiene la impresión de que un previo uniforme (constante) no es informativo. A veces lo es, a veces no lo es.

Lo que sucede con la previa de Jeffreys bajo una transformación es que el jacobiano de la transformación es absorbido por la información original de Fisher, que termina brindándole la información de Fisher bajo la nueva parametrización. Sin magia (al menos en la mecánica), solo un poco de cálculo y álgebra lineal.

JMS
fuente
66
No estoy de acuerdo con esta respuesta. ¡Usar un previo subjetivo también es un procedimiento invariante de parametrización!
Stéphane Laurent
29

El anterior de Jeffrey coincide con el anterior de referencia de Bernardo para el espacio de parámetros unidimensionales (y los modelos "regulares"). En términos generales, este es el previo para el cual la divergencia Kullback-Leibler entre el anterior y el posterior es máxima. Esta cantidad representa la cantidad de información aportada por los datos. Esta es la razón por la cual se considera que lo anterior no es informativo: para esto es para lo que los datos aportan la cantidad máxima de información.

Por cierto, no sé si Jeffreys estaba al tanto de esta caracterización de su anterior.

Stéphane Laurent
fuente
2
"En términos generales, este es el previo para el cual la divergencia Kullback-Leibler entre el anterior y el posterior es máxima". Interesante, no lo sabía.
Cam.Davidson.Pilon
1
(+1) Buena respuesta. Sería bueno ver algunas referencias de algunos de sus puntos ( por ejemplo , 1 , 2 ).
1
@Procrastinator Actualmente estoy escribiendo una nueva publicación sobre publicaciones no informativas;) Espere, quizás unos días.
Stéphane Laurent
6

Yo diría que no es absolutamente no informativo, sino mínimamente informativo. Codifica el conocimiento previo (bastante débil) de que usted sabe que su estado previo de conocimiento no depende de su parametrización (por ejemplo, las unidades de medida). Si su estado previo de conocimiento era precisamente cero, no sabría que su previo era invariable a tales transformaciones.

Dikran Marsupial
fuente
Estoy confundido. ¿En qué tipo de caso sabrías que antes deberías depender de la parametrización del modelo?
John Lawrence Aspden
2
Si queremos predecir la longevidad en función del peso corporal, utilizando un GLM, sabemos que la conclusión no debe verse afectada si pesamos al sujeto en kg o lb; Si usa un uniforme simple antes de los pesos, puede obtener resultados diferentes dependiendo de las unidades de medida.
Dikran Marsupial
1
Ese es un caso cuando sabes que no debería verse afectado. ¿Cuál es un caso donde debería?
John Lawrence Aspden
1
Creo que te estás perdiendo mi punto. Digamos que no sabemos nada acerca de los atributos, ni siquiera que tienen unidades de medida a las que el análisis debe ser invariable. En ese caso, su prior codificaría menos información sobre el problema que el anterior de Jeffrey, por lo tanto, el anterior de Jeffrey no es completamente informativo. Pueden o no ser situaciones en las que el análisis no debe ser invariable para alguna transformación, pero eso no viene al caso.
Dikran Marsupial
2
Nota: según el libro BUGS (p83), el propio Jeffrey se refirió a tales antecedentes invariantes de transformación como "mínimamente informativos", lo que implica que los vio codificar cierta información sobre el problema.
Dikran Marsupial