¿Por qué los datos deben ser muestreados bajo hipótesis nula en la prueba de hipótesis bootstrap?

11

La aplicación directa de los métodos de bootstrap a la prueba de hipótesis es estimar el intervalo de confianza del estadístico de prueba al calcularlo repetidamente en las muestras de bootstrap (deje que el estadístico muestreado de bootstrap se llame ). Rechazamos si el parámetro hipotético (que generalmente es igual a 0) se encuentra fuera del intervalo de confianza de . θ ^ θ * H0θ0 ^ θ *θ^θ^θ^H0θ0θ^

He leído que este método carece de poder. En el artículo de Hall P. y Wilson SR "Dos pautas para la prueba de hipótesis Bootstrap" (1992) está escrito como la primera pauta, que uno debería volver a muestrear , no the . Y esta es la parte que no entiendo.^ θ * -θ0θ^θ^θ^θ0

¿No es que el mide solo el sesgo del estimador ? Para estimadores imparciales, los intervalos de confianza de esta expresión siempre deben ser más pequeños que , pero no puedo ver, ¿qué tiene que ver con las pruebas para ? No hay ningún lugar donde pueda ver que ponemos información sobre el .^ θ * ^ θ * -θ0 θ =θ0θ0θ^θ^θ^θ^θ0θ^=θ0θ0


Para aquellos de ustedes que no tienen acceso a este artículo, esta es una cita del párrafo relevante que viene inmediatamente después de la tesis:

Para apreciar por qué esto es importante, observe que la prueba implicará rechazar si está en Es demasiado largo." Si está muy lejos del valor verdadero de (es decir, si es groseramente el error), entonces la diferencia nunca se verá demasiado grande en comparación con la distribución de arranque no paramétrica de. Una comparación más significativa es con la distribución de. De hecho, si el verdadero valor de es| Θ - θ 0 | θ 0 θ H 0 | Θ - θ 0 | El | Θ - θ 0 | El | ^ Θ * - θ | θ θ 1 | θ 1 - θ 0 | El | ^ Θ * - θ | El | θ 1 - θ 0 |H0|θ^θ0|θ0θH0|θ^θ0||θ^θ0||θ^θ^|θθ1entonces el poder de la prueba de arranque aumenta a 1 comoaumenta, siempre que la prueba se base en remuestreo , pero la potencia disminuye al máximo al nivel de significancia (a medida que aumenta) si la prueba se basa en el remuestreo |θ1θ0||θ^θ^||θ1θ0||θ^θ0|

Adam Ryczkowski
fuente

Respuestas:

7

Este es el principio de analogía bootstrap. La distribución verdadera subyacente (desconocida) produjo una muestra a mano con cdf , que a su vez produjo la estadística para algunos funcionales . Su idea de usar el bootstrap es hacer declaraciones sobre la distribución de muestreo basada en una distribución conocida , donde intenta usar un protocolo de muestreo idéntico (que es exactamente posible solo para datos iid; los datos dependientes siempre conducen a limitaciones en cómo se puede reproducir con precisión el proceso de muestreo) y aplicar la misma funcional . Lo demostré en otra publicación.Fx1,,xnFnθ^=T(Fn)T()F~T()con (lo que creo que es) un diagrama ordenado. Entonces, el análogo de bootstrap de la desviación (muestreo + sistemática) , la cantidad de su interés central, es la desviación de la réplica de bootstrap de lo que se sabe que es cierto para la distribución , el proceso de muestreo que aplicó y el funcional , es decir, su medida de tendencia central es . Si usó la rutina de arranque no paramétrica estándar con reemplazo de los datos originales, su , por lo que su medida de la tendencia central debe ser función de los datos originales.θ^θ0θ^F~T()T(F~)F~=FnT(Fn)θ^

Además de la traducción, hay problemas más sutiles en las pruebas de arranque que a veces son difíciles de superar. La distribución de un estadístico de prueba bajo nulo puede ser drásticamente diferente de la distribución del estadístico de prueba bajo la alternativa (por ejemplo, en pruebas en el límite del espacio de parámetros que fallan con el arranque ). Las pruebas simples que aprende en las clases de pregrado como test son invariables bajo shift, pero pensar, "Diablos, simplemente cambio todo" falla una vez que tiene que pasar al siguiente nivel de complejidad conceptual, las pruebas asintóticas . Piense en esto: está probando que , y su observado . Entonces cuando construyes untχ2μ=0x¯=0.78χ2 prueba con el análogo bootstrap , entonces esta prueba tiene una no centralidad incorporada de desde el principio, en lugar de ser una prueba central como es de esperar. Para que la prueba de arranque sea central, realmente debes restar la estimación original.(x¯μ)2/(s2/n)x¯2/(s2/n)x¯2/(s2/n)nx¯2/s2

Las pruebas son inevitables en contextos multivariados, que van desde Pearson para tablas de contingencia hasta el arranque de Bollen-Stine del estadístico de prueba en modelos de ecuaciones estructurales. El concepto de desplazamiento de la distribución es extremadamente difícil de definir bien en estas situaciones ... aunque en el caso de las pruebas en las matrices de covarianza multivariadas, esto se puede hacer mediante una rotación adecuada .χ2χ2

StasK
fuente
Gracias. Hay una cosa que todavía no entiendo: ¿dónde ponemos información sobre en el arranque? Donde es falso, podría estar considerablemente alejado de la distribución verdadera. θ0H0θ0
Adam Ryczkowski
Calcula el valor p bajo nulo, por lo que debería considerar el caso cuando ajusta al nulo. Por supuesto, vale la pena considerar la alternativa, pero eso es ... wow ... eso sería un uso avanzado de la metodología de prueba bootstrap. θ0
StasK el
3

OK, lo tengo Gracias, StasK, por tan buena respuesta. Lo mantendré aceptado para que otros lo aprendan, pero en mi caso particular me faltaba un hecho muy simple:

El procedimiento de bootstrap de acuerdo con las pautas de Hall & Wilson para la prueba de media simple de una muestra es el siguiente (en pseudocódigo inspirado en R):

1function(data,θθ 00 ^ θ *θ ^ θ *θθ0 ) {
2 θ^ t.test(data, mu = θ0 )$statistic
3 count 0
4for(i in 1:1000){
5 bdata sample(data)
6 θ^ t.test(bdata, mu = θ^ )$statistic
7 if ( θ^θ^ ) count++
8 }
9 count/1000
10 }

La parte que me perdí fue que el se "usó" en línea (donde establecemos la referencia ).θθ02θ^

Es interesante notar que en la línea 2y 6podríamos usar igualmente fácilmente en p.valuelugar de statistic. En ese caso, también debemos cambiar el en en línea .7

Adam Ryczkowski
fuente
Voté antes, pero luego me di cuenta de que esto es realmente incorrecto. De acuerdo con Hall y Wilson (Sección 2, pág. 278), es un estimador de , no el estadístico de prueba como usted ha mostrado. La forma en que entra en juego es que formamos una distribución muestreada de , luego veremos si se ve "extremo" en comparación con la distribución muestreada. θθ0( θ * - θ )( θ -θ0)θ^θθ0(θ^θ^)(θ^θ0)
medio pase el
1
Quizás útil: Michael Chernick proporcionó una intuición sucinta en respuesta a mi pregunta relacionada aquí. stats.stackexchange.com/questions/289236/… )
medio pase el