Actualmente estoy tratando de entender algunas cosas relacionadas con el arranque paramétrico. La mayoría de las cosas son probablemente triviales, pero todavía creo que puede haber pasado algo por alto.
Supongamos que quiero obtener intervalos de confianza para los datos utilizando un procedimiento de arranque paramétrico.
Entonces tengo esta muestra y supongo que normalmente se distribuye. Entonces yo estimar la varianza V y media m y conseguir mi estimación de la distribución P , que es, obviamente, sólo N ( m , v ) .
En lugar de tomar muestras de esa distribución, podría calcular los cuantiles analíticamente y terminar.
a) Concluyo: en este caso trivial, ¿el bootstrap paramétrico sería lo mismo que calcular cosas en un supuesto de distribución normal?
Entonces, en teoría, este sería el caso para todos los modelos de bootstrap paramétricos, siempre que pueda manejar los cálculos.
b) Concluyo: usar el supuesto de una cierta distribución me dará una precisión adicional en el arranque paramétrico sobre el no paramétrico (si es correcto, por supuesto). Pero aparte de eso, ¿simplemente lo hago porque no puedo manejar los cálculos analíticos e intentar simular mi salida?
c) También lo usaría si los cálculos se hacen "generalmente" usando alguna aproximación porque esto quizás me daría más precisión ...?
Para mí, el beneficio del bootstrap (no paramétrico) parecía radicar en el hecho de que no necesito asumir ninguna distribución. Para el bootstrap paramétrico, esa ventaja se ha ido, ¿o hay cosas que me he perdido y donde el bootstrap paramétrico proporciona un beneficio sobre las cosas mencionadas anteriormente?
fuente
Respuestas:
Si. Tienes razón. Pero el bootstrap paramétrico protege mejores resultados cuando se cumplen los supuestos. Piénsalo de esta manera:
fuente