¿Por qué uno usaría confianza 'aleatoria' o intervalos creíbles?

16

Hace poco estuve leyendo un artículo que incorporó la aleatoriedad en su confianza e intervalos creíbles, y me preguntaba si esto es estándar (y, de ser así, por qué es algo razonable). Para establecer la notación, suponga que nuestros datos son xX y estamos interesados ​​en crear intervalos para un parámetro θΘ . Estoy acostumbrado a que se construyan intervalos de confianza / credibilidad construyendo una función:

fx:Θ{0,1}

y dejando que nuestro intervalo sea I={θΘ:fx(θ)=1} .

Esto es aleatorio en el sentido de que depende de los datos, pero condicional a los datos es solo un intervalo. Este documento en su lugar define

gx:Θ[0,1]

y también una colección de variables aleatorias uniformes iid {Uθ}θΘ en [0,1] . Define el intervalo asociado para ser I={θΘ:fx(θ)Uθ} . Tenga en cuenta que esto depende en gran medida de la aleatoriedad auxiliar, más allá de lo que provenga de los datos.

Tengo mucha curiosidad de por qué uno haría esto. Creo que `relajante' la noción de un intervalo de funciones como fx a funciones como gx tiene cierto sentido; Es una especie de intervalo de confianza ponderado. No conozco ninguna referencia para ello (y agradecería cualquier sugerencia), pero parece bastante natural. Sin embargo, no se me ocurre ninguna razón para agregar aleatoriedad auxiliar.

Cualquier sugerencia a la literatura / razones para hacer esto sería apreciada!

QQQ
fuente
55
(+1) Esto se llama un procedimiento aleatorio. Son una parte estándar de la estimación estadística y el marco de prueba, por lo que puede confiar en casi cualquier libro de texto riguroso para proporcionar explicaciones. Motivación adicional para su uso se puede encontrar en la literatura de teoría de juegos.
whuber
Gracias por la respuesta. Después de leer este comentario, me di cuenta de que, por ejemplo, el bootstrapping encaja en este marco, pero en esa situación la razón de la aleatorización es clara (no tienes acceso a f, solo g). En mi caso, los autores calculan explícitamente , y ENTONCES miran g x . Aunque tengo muchos libros de texto de estadísticas, no veo esto en ningún lado ... ¿tiene un texto sugerido? fxgx
QQQ
3
En realidad, bootstrapping no es un procedimiento aleatorio. Es un procedimiento determinado cuyo cálculo aproximado se realiza mediante muestreo aleatorio.
whuber

Respuestas:

4

Los procedimientos aleatorios se usan a veces en teoría porque simplifica la teoría. En los problemas estadísticos típicos, no tiene sentido en la práctica, mientras que en la teoría de juegos puede tener sentido.

La única razón por la que puedo ver su uso en la práctica, es si de alguna manera simplifica los cálculos.

Teóricamente, uno puede argumentar que no debe usarse, desde el principio de suficiencia : las conclusiones estadísticas solo deben basarse en resúmenes suficientes de los datos, y la aleatorización introduce la dependencia de una aleatoria extraña que no es parte de un resumen suficiente de los datos.U

UPDATE  

Para responder los comentarios de Whuber a continuación, citados aquí: "¿Por qué los procedimientos aleatorios" no tienen sentido en la práctica "? Como otros han señalado, los experimentadores están perfectamente dispuestos a utilizar la aleatorización en la construcción de sus datos experimentales, como la asignación aleatoria de tratamiento y control , entonces, ¿qué es tan diferente (y poco práctico u objetable) sobre el uso de la aleatorización en el análisis posterior de los datos?

Bueno, la aleatorización del experimento para obtener los datos se realiza con un propósito, principalmente para romper las cadenas de causalidad. Si y cuando eso es efectivo es otra discusión. ¿Cuál podría ser el propósito de usar la aleatorización como parte del análisis? ¡La única razón por la que he visto es que hace que la teoría matemática sea más completa! Eso está bien siempre que sea posible. En contextos de teoría de juegos, cuando hay un adversario real, la aleatorización ayuda a confundirlo. En contextos de decisión reales (¿vender o no vender?), Se debe tomar una decisión, y si no hay evidencia en los datos, tal vez se podría lanzar una moneda. Pero en un contexto científico, donde la pregunta es qué podemos aprenderde los datos, la aleatorización parece fuera de lugar. ¡No puedo ver ninguna ventaja real de eso! Si no está de acuerdo, ¿tiene un argumento que pueda convencer a un biólogo o químico? (Y aquí no pienso en la simulación como parte de bootstrap o MCMC).

kjetil b halvorsen
fuente
1
¿Por qué los procedimientos aleatorios "no tienen sentido en la práctica"? Como otros han señalado, los experimentadores están perfectamente dispuestos a usar la aleatorización en la construcción de sus datos experimentales, como la asignación aleatoria de tratamiento y control, entonces, ¿qué es tan diferente (y poco práctico u objetable) sobre el uso de la aleatorización en el análisis posterior de los datos? ?
whuber
1
@kjetil Creo que es posible que no haya completado su declaración sobre el principio de suficiencia, parece que se ha cortado a mitad de la oración ("las conclusiones estadísticas deberían ...").
Silverfish
1
U
1
@whuber: Es un argumento claro y basado en principios que la aleatorización para obtener los datos puede ser ventajosa. (Rompe las cadenas causales). ¿Cuál es ese argumento basado en principios para usar la aleatorización como parte del análisis?
kjetil b halvorsen 18/02/2015
1
Kjetil: Le permite alcanzar la función de riesgo prevista, en lugar de aceptar una función de riesgo (a menudo en forma de tamaño nominal y potencia) que no es lo que deseaba. Además, si un procedimiento es "teóricamente" útil, ciertamente no puede haber objeciones a su uso en la práctica, aparte de la impracticabilidad (que generalmente no es el caso con los procedimientos aleatorios). Por lo tanto, su pregunta debe volverse de cabeza: la carga recae en usted para demostrar que hay algo malo en el uso de procedimientos aleatorios. ¿Cómo se logra eso sin contradecirse?
whuber
3

La idea se refiere a las pruebas, pero en vista de la dualidad de las pruebas y los intervalos de confianza, la misma lógica se aplica a los IC.

Básicamente, las pruebas aleatorias aseguran que también se pueda obtener un tamaño determinado de una prueba para experimentos con valores discretos.

α=0.05pH0:p=0.5H1:p<0.5n=10 veces.

H0k=2ppbinom(2,10,.5)k=1H0 con una probabilidad del 5% sin aleatorización.

k=2

Christoph Hanck
fuente
α
Bueno, eso supongo que nos trae de vuelta a la historia de las estadísticas, cuando RA Fisher decidió arbitrariamente trabajar con un nivel de significancia del 5% para decidir si alguna evidencia inicial amerita más estudio. Como sabemos, el 5% se ha transformado en una especie de patrón oro en muchos campos, a pesar de la falta de una buena base teórica de decisión.
Christoph Hanck