Hace poco estuve leyendo un artículo que incorporó la aleatoriedad en su confianza e intervalos creíbles, y me preguntaba si esto es estándar (y, de ser así, por qué es algo razonable). Para establecer la notación, suponga que nuestros datos son y estamos interesados en crear intervalos para un parámetro . Estoy acostumbrado a que se construyan intervalos de confianza / credibilidad construyendo una función:
y dejando que nuestro intervalo sea .
Esto es aleatorio en el sentido de que depende de los datos, pero condicional a los datos es solo un intervalo. Este documento en su lugar define
y también una colección de variables aleatorias uniformes iid en . Define el intervalo asociado para ser . Tenga en cuenta que esto depende en gran medida de la aleatoriedad auxiliar, más allá de lo que provenga de los datos.
Tengo mucha curiosidad de por qué uno haría esto. Creo que `relajante' la noción de un intervalo de funciones como a funciones como tiene cierto sentido; Es una especie de intervalo de confianza ponderado. No conozco ninguna referencia para ello (y agradecería cualquier sugerencia), pero parece bastante natural. Sin embargo, no se me ocurre ninguna razón para agregar aleatoriedad auxiliar.
Cualquier sugerencia a la literatura / razones para hacer esto sería apreciada!
Respuestas:
Los procedimientos aleatorios se usan a veces en teoría porque simplifica la teoría. En los problemas estadísticos típicos, no tiene sentido en la práctica, mientras que en la teoría de juegos puede tener sentido.
La única razón por la que puedo ver su uso en la práctica, es si de alguna manera simplifica los cálculos.
Teóricamente, uno puede argumentar que no debe usarse, desde el principio de suficiencia : las conclusiones estadísticas solo deben basarse en resúmenes suficientes de los datos, y la aleatorización introduce la dependencia de una aleatoria extraña que no es parte de un resumen suficiente de los datos.U
Para responder los comentarios de Whuber a continuación, citados aquí: "¿Por qué los procedimientos aleatorios" no tienen sentido en la práctica "? Como otros han señalado, los experimentadores están perfectamente dispuestos a utilizar la aleatorización en la construcción de sus datos experimentales, como la asignación aleatoria de tratamiento y control , entonces, ¿qué es tan diferente (y poco práctico u objetable) sobre el uso de la aleatorización en el análisis posterior de los datos?
Bueno, la aleatorización del experimento para obtener los datos se realiza con un propósito, principalmente para romper las cadenas de causalidad. Si y cuando eso es efectivo es otra discusión. ¿Cuál podría ser el propósito de usar la aleatorización como parte del análisis? ¡La única razón por la que he visto es que hace que la teoría matemática sea más completa! Eso está bien siempre que sea posible. En contextos de teoría de juegos, cuando hay un adversario real, la aleatorización ayuda a confundirlo. En contextos de decisión reales (¿vender o no vender?), Se debe tomar una decisión, y si no hay evidencia en los datos, tal vez se podría lanzar una moneda. Pero en un contexto científico, donde la pregunta es qué podemos aprenderde los datos, la aleatorización parece fuera de lugar. ¡No puedo ver ninguna ventaja real de eso! Si no está de acuerdo, ¿tiene un argumento que pueda convencer a un biólogo o químico? (Y aquí no pienso en la simulación como parte de bootstrap o MCMC).
fuente
La idea se refiere a las pruebas, pero en vista de la dualidad de las pruebas y los intervalos de confianza, la misma lógica se aplica a los IC.
Básicamente, las pruebas aleatorias aseguran que también se pueda obtener un tamaño determinado de una prueba para experimentos con valores discretos.
pbinom(2,10,.5)
fuente