¿Hay algún resultado que proporcione que el bootstrap sea válido si y solo si la estadística es uniforme?

25

En todo momento suponemos que nuestra estadística es una función de algunos datos que se extrae de la función de distribución ; La función de distribución empírica de nuestra muestra es . Entonces es la estadística vista como una variable aleatoria y es la versión de arranque de la estadística. Usamos como la distancia KSX 1 , ... X n F F θ ( F ) θ ( F ) d θ()X1,...XnorteFF^θ(F)θ(F^)d

Hay "si y solo si" resultados para la validez de la rutina de carga si la estadística es una estadística lineal simple. Por ejemplo, el Teorema 1 de Mammen "¿Cuándo funciona el bootstrap?"

Si para alguna función arbitraria entonces el bootstrap funciona en el sentido de que si y solo si existe y modo que d_ \ infty \ big [\ mathscr {L} (\ theta (F) -t_n), N (0, \ sigma_n ^ 2) \ big] \ underset {p} {\ rightarrow} 0 Donde podemos definir \ hat {t_n} como alguna función de nuestra muestra y t_n = \ mathbb {E} (\ hat {t} _n)hnd[L(θ( F ) - t n),L(θ(F)-tn)]p0σntnd[L(θ(F)-tn)θ(F)=1ni1nhn(Xi)hn

d[L(θ(F^)t^n),L(θ(F)tn)]p0
σntn
d[L(θ(F)tn),N(0,σn2)]p0
tn^tn=E(t^n)

También hay resultados más generales de que el bootstrap funciona para estadísticas generales, por ejemplo, el Teorema 1.6.3 del Submuestreo de Politis Romano y Wolf:

Suponga que F se extrae de la clase de todas las distribuciones con soporte finito. Suponga que la estadística θ() es Frechet diferenciable en F con respecto a la norma supremum y que la derivada gF satisface 0<VarF[gF(x)]< . Entonces θ(F) es asintóticamente normal y el bootstrap funciona en el sentido del teorema anterior.

Me gustaría una versión 'if and only if' del segundo teorema. Esto requerirá una noción de suavidad diferente de la diferenciabilidad de Frechet porque Politis, Romano y Wolf (1999) muestran que la mediana de la muestra no es diferenciable por Frechet pero el arranque aún funciona. Sin embargo, la mediana de la muestra sigue siendo una función suave de los datos.

Hay algunos comentarios informales en Mammen de que la suavidad es necesaria:

Por lo general, la linealidad asintótica local parece ser necesaria para la consistencia de bootstrap

La cita es para:

van Zwet, W (1989). Charla impartida en la conferencia sobre "Métodos asintóticos para procedimientos informáticos intensivos en estadística" en Olberwolfach.

Pero no puedo encontrar ningún rastro de esta conversación, aparte de un puñado de citas.

orizon
fuente
1
Excelente tema ¿Es correcto que todos los resultados citados sean asintóticos para tamaños de muestra que van al infinito?
Michael M
3
@ Michael Gracias y sí, todo es asintótico como . Por cierto, hay algunos trabajos recientes con resultados para muestras finitas (por ejemplo, arxiv.org/pdf/1212.6906.pdf ) pero es muy técnico. n
orizon
1
Tema complicado Algunos dicen que bootstrap no funciona en general. van Zwer y col. dice que hay que tener cuidado con lo que se arranca . Creo que hay que establecer qué arrancar y qué no arrancar antes de que se justifiquen más pruebas.
Carl
Ahora actualicé la respuesta en respuesta al comentario de Mammen, espero que aclare aún más su confusión. Y si lo desea, puede explicar un poco sobre la aplicación que lo motiva a preguntar sobre la necesidad. Eso me ayudará a mejorar mi respuesta.
Henry.L

Respuestas:

12

(1) ¿Por qué los estimadores de cuantiles no son diferenciables de Frechet pero su estimador de arranque todavía es consistente?

Necesita la diferenciabilidad de Hadamard (o diferenciabilidad compacta dependiendo de su fuente de referencia) como condición suficiente para que el bootstrap funcione en ese caso, la mediana y cualquier cuantil es diferenciable de Hadamard. La diferenciabilidad de Frechet es demasiado fuerte en la mayoría de las aplicaciones.

Como generalmente es suficiente para discutir un espacio polaco, allí desea un funcional localmente lineal para aplicar un argumento de compacidad típico para extender su resultado de coherencia a la situación global. Vea también el comentario de linealización a continuación.

El teorema 2.27 de [Wasserman] te dará una intuición de cómo el derivado de Hadamard es una noción más débil. Y el Teorema 3.6 y 3.7 de [Shao & Tu] proporcionará una condición suficiente para una consistencia débil en términos de la diferenciabilidad -Hadamard de la estadística funcional con el tamaño de observación .ρTnn

(2) ¿Qué afectará la consistencia de los estimadores de bootstrap?

[Shao & Tu] págs. 85-86 ilustraron situaciones en las que puede ocurrir una inconsistencia de los estimadores de arranque.

(1) La rutina de carga es sensible al comportamiento de la cola de la población . La consistencia de H B O O T requiere condiciones de momento que son más estrictas que las necesarias para la existencia del límite de H 0 .FHBOOTH0

(2) La consistencia del estimador de arranque requiere un cierto grado de suavidad de la estadística (funcional) dada .Tn

(3) El comportamiento del estimador de arranque a veces depende del método utilizado para obtener datos de arranque.

K

En cuanto al comentario "La linealidad asintótica típicamente local parece ser necesaria para la consistencia de bootstrap" hecha por Mammen como usted mencionó. Un comentario de [Shao & Tu] p.78 es el siguiente, ya que comentaron que la linealización (global) es solo una técnica que facilita la prueba de consistencia y no indica ninguna necesidad:

Zn¯=1ni=1nϕ(Xn)ϕ(X)X

Tn=θ+Zn¯+oP(1n)
TnZn¯TnZn¯{X1,,Xn}Tn
Tn=θ+Zn¯+oP(1n)
HBOOT(x)x=P{n(TnTn)x}P{n(Zn¯Zn¯)x}Zn¯

Y dieron un ejemplo 3.3 de cómo obtener la consistencia bootstrap para bootstrapping tipo MLE. Sin embargo, si la linealidad global es efectiva de esa manera, es difícil imaginar cómo se probaría la coherencia sin linealidad local. Así que supongo que eso es lo que Mammen quería decir.

Más allá de la discusión proporcionada por [Shao & Tu] arriba, creo que lo que quiere es una condición de caracterización de consistencia de los estimadores de arranque.

M(X)TCLT

M(X)

Odio ser cínico pero sigo sintiendo que esta no es la única escritura estadística que está "citando del vacío". Al decir esto, simplemente siento que la cita de la charla de van Zwet es muy irresponsable, aunque van Zwet es un gran erudito.

[Wasserman] Wasserman, Larry. Todas las estadísticas no paramétricas, Springer, 2010.

[Shao y Tu] Shao, Jun y Dongsheng Tu. La navaja y el bootstrap. Springer, 1995.

[Gine & Zinn] Giné, Evarist y Joel Zinn. "Bootstrapping medidas empíricas generales". Los Anales de Probabilidad (1990): 851-869.

[Huber] Huber, Peter J. Estadísticas robustas. Wiley, 1985.

Henry.L
fuente