En todo momento suponemos que nuestra estadística es una función de algunos datos que se extrae de la función de distribución ; La función de distribución empírica de nuestra muestra es . Entonces es la estadística vista como una variable aleatoria y es la versión de arranque de la estadística. Usamos como la distancia KSX 1 , ... X n F F θ ( F ) θ ( F ) d ∞
Hay "si y solo si" resultados para la validez de la rutina de carga si la estadística es una estadística lineal simple. Por ejemplo, el Teorema 1 de Mammen "¿Cuándo funciona el bootstrap?"
Si para alguna función arbitraria entonces el bootstrap funciona en el sentido de que si y solo si existe y modo que d_ \ infty \ big [\ mathscr {L} (\ theta (F) -t_n), N (0, \ sigma_n ^ 2) \ big] \ underset {p} {\ rightarrow} 0 Donde podemos definir \ hat {t_n} como alguna función de nuestra muestra y t_n = \ mathbb {E} (\ hat {t} _n)hnd∞[L(θ( F ) - t n),L(θ(F)-tn)]→p0σntnd∞[L(θ(F)-tn)
También hay resultados más generales de que el bootstrap funciona para estadísticas generales, por ejemplo, el Teorema 1.6.3 del Submuestreo de Politis Romano y Wolf:
Suponga que se extrae de la clase de todas las distribuciones con soporte finito. Suponga que la estadística es Frechet diferenciable en con respecto a la norma supremum y que la derivada satisface . Entonces es asintóticamente normal y el bootstrap funciona en el sentido del teorema anterior.
Me gustaría una versión 'if and only if' del segundo teorema. Esto requerirá una noción de suavidad diferente de la diferenciabilidad de Frechet porque Politis, Romano y Wolf (1999) muestran que la mediana de la muestra no es diferenciable por Frechet pero el arranque aún funciona. Sin embargo, la mediana de la muestra sigue siendo una función suave de los datos.
Hay algunos comentarios informales en Mammen de que la suavidad es necesaria:
Por lo general, la linealidad asintótica local parece ser necesaria para la consistencia de bootstrap
La cita es para:
van Zwet, W (1989). Charla impartida en la conferencia sobre "Métodos asintóticos para procedimientos informáticos intensivos en estadística" en Olberwolfach.
Pero no puedo encontrar ningún rastro de esta conversación, aparte de un puñado de citas.
Respuestas:
Necesita la diferenciabilidad de Hadamard (o diferenciabilidad compacta dependiendo de su fuente de referencia) como condición suficiente para que el bootstrap funcione en ese caso, la mediana y cualquier cuantil es diferenciable de Hadamard. La diferenciabilidad de Frechet es demasiado fuerte en la mayoría de las aplicaciones.
Como generalmente es suficiente para discutir un espacio polaco, allí desea un funcional localmente lineal para aplicar un argumento de compacidad típico para extender su resultado de coherencia a la situación global. Vea también el comentario de linealización a continuación.
El teorema 2.27 de [Wasserman] te dará una intuición de cómo el derivado de Hadamard es una noción más débil. Y el Teorema 3.6 y 3.7 de [Shao & Tu] proporcionará una condición suficiente para una consistencia débil en términos de la diferenciabilidad -Hadamard de la estadística funcional con el tamaño de observación .ρ Tn n
[Shao & Tu] págs. 85-86 ilustraron situaciones en las que puede ocurrir una inconsistencia de los estimadores de arranque.
En cuanto al comentario "La linealidad asintótica típicamente local parece ser necesaria para la consistencia de bootstrap" hecha por Mammen como usted mencionó. Un comentario de [Shao & Tu] p.78 es el siguiente, ya que comentaron que la linealización (global) es solo una técnica que facilita la prueba de consistencia y no indica ninguna necesidad:
Y dieron un ejemplo 3.3 de cómo obtener la consistencia bootstrap para bootstrapping tipo MLE. Sin embargo, si la linealidad global es efectiva de esa manera, es difícil imaginar cómo se probaría la coherencia sin linealidad local. Así que supongo que eso es lo que Mammen quería decir.
Más allá de la discusión proporcionada por [Shao & Tu] arriba, creo que lo que quiere es una condición de caracterización de consistencia de los estimadores de arranque.
Odio ser cínico pero sigo sintiendo que esta no es la única escritura estadística que está "citando del vacío". Al decir esto, simplemente siento que la cita de la charla de van Zwet es muy irresponsable, aunque van Zwet es un gran erudito.
[Wasserman] Wasserman, Larry. Todas las estadísticas no paramétricas, Springer, 2010.
[Shao y Tu] Shao, Jun y Dongsheng Tu. La navaja y el bootstrap. Springer, 1995.
[Gine & Zinn] Giné, Evarist y Joel Zinn. "Bootstrapping medidas empíricas generales". Los Anales de Probabilidad (1990): 851-869.
[Huber] Huber, Peter J. Estadísticas robustas. Wiley, 1985.
fuente