Digamos que tengo dos condiciones, y el tamaño de mi muestra para las dos condiciones es extremadamente bajo. Digamos que solo tengo 14 observaciones en la primera condición y 11 en la otra. Quiero usar la prueba t para probar si las diferencias de medias son significativamente diferentes entre sí.
En primer lugar, estoy un poco confundido acerca de la suposición de normalidad de la prueba t, que podría ser la razón por la que no estoy totalmente haciendo bootstrapping. ¿Es la suposición para la prueba t que (A) los datos se muestrean de una población normal, o (B) que sus distribuciones de muestra tienen propiedades gaussianas? Si es (B), entonces no es realmente una suposición, ¿verdad? Simplemente puede trazar un histograma de sus datos y ver si es normal o no. Sin embargo, si el tamaño de mi muestra es bajo, no tendré suficientes puntos de datos para ver si mi distribución de muestra es normal.
Aquí es donde creo que entra el bootstrapping. Puedo hacer bootstrap para ver si mi muestra es normal, ¿verdad? Al principio pensé que el bootstrapping siempre resultaría en una distribución normal, pero este no es el caso ( ¿Se puede usar el remuestreo Bootstrap para calcular un intervalo de confianza para la varianza de un conjunto de datos? Statexchange statexchange ). Por lo tanto, una de las razones por las que usaría bootstrap es para estar más seguro de la normalidad de sus datos de muestra, ¿correcto?
Sin embargo, en este punto me confundo completamente. Si realizo una prueba t en R con la función t.test y pongo los vectores de muestra bootstrap como las dos muestras independientes, mi valor t simplemente se vuelve increíblemente significativo. ¿No estoy haciendo la prueba t de arranque correctamente? No debo hacerlo, ya que todo lo que está haciendo bootstrapping es solo aumentar mi valor t, ¿no ocurriría esto en todos los casos? ¿Las personas no realizan una prueba t en las muestras cargadas?
Por último, ¿cuál es el beneficio de calcular los intervalos de confianza en un bootstrap versus calcular los intervalos de confianza en nuestra muestra original? ¿Qué me dicen estos intervalos de confianza que los intervalos de confianza en los datos de muestra originales no?
Supongo que estoy confundido sobre (A) por qué usar un bootstrap si solo hará que mi valor t sea más significativo, (B) no estoy seguro de la forma correcta de utilizar bootstrapping cuando se ejecuta una prueba t de muestra independiente, y (C) no estoy seguro cómo informar la justificación, ejecución y resultados de bootstrapping en situaciones de prueba t independientes.
Respuestas:
Hay varios malentendidos en su publicación (algunos de los cuales son comunes y es posible que le hayan dicho algo incorrecto porque la persona que le dijo que estaba pasando la información errónea).
Primero es que bootstrap no es el salvador del pequeño tamaño de muestra. Bootstrap en realidad se presenta bastante mal para muestras pequeñas, incluso cuando la población es normal. Esta pregunta, respuesta y discusión deberían arrojar algo de luz sobre eso. También el artículo aquí da más detalles y antecedentes.
Tanto la prueba t como el bootstrap se basan en distribuciones de muestreo, cuál es la distribución de la estadística de prueba.
La prueba t exacta se basa en la teoría y la condición de que la población / proceso que genera los datos es normal. La prueba t es bastante robusta a la suposición de normalidad (en lo que respecta al tamaño de la prueba, la potencia y la precisión pueden ser otra cuestión), por lo que en algunos casos la combinación de "Tamaño de muestra suficientemente normal" y "Tamaño de muestra grande" significa que la distribución de muestreo está "lo suficientemente cerca" de lo normal que la prueba t es una opción razonable.
El bootstrap en lugar de asumir una población normal, utiliza la muestra CDF como una estimación de la población y calcula / estima (generalmente a través de la simulación) la verdadera distribución de muestreo (que puede ser normal, pero no es necesario que sea). Si la muestra hace un trabajo razonable de representar a la población, entonces el bootstrap funciona bien. Pero para tamaños de muestra pequeños es muy fácil para la muestra hacer un trabajo deficiente de representar a la población y los métodos de arranque son pésimos en esos casos (ver la simulación y el papel referenciados anteriormente).
La ventaja de la prueba t es que si todos los supuestos se mantienen (o están cerca), entonces funciona bien (creo que en realidad es la prueba uniformemente más poderosa). La desventaja es que no funciona bien si las suposiciones no son verdaderas (y no están cerca de ser verdad) y hay algunos casos en los que las suposiciones hacen una diferencia mayor que en otros. Y la teoría de la prueba t no se aplica a algunos parámetros / estadísticas de interés, por ejemplo, medios recortados, desviaciones estándar, cuantiles, etc.
La ventaja de bootstrap es que puede estimar la distribución de muestreo sin muchos de los supuestos necesarios para los métodos paramétricos. Funciona para estadísticas distintas de la media y en los casos en que otros supuestos no se cumplen (por ejemplo, 2 muestras, variaciones desiguales). La desventaja de la rutina de carga es que depende mucho de la muestra que representa a la población porque no tiene las ventajas de otros supuestos. El bootstrap no le da normalidad, le da la distribución de muestreo (que a veces parece normal, pero aún funciona cuando no lo es) sin necesidad de suposiciones sobre la población.
Para las pruebas t donde es razonable suponer que la población es normal (o al menos lo suficientemente normal), entonces la prueba t será la mejor (de las 2).
Si no tiene normalidad y tiene muestras pequeñas, no se debe confiar en la prueba t ni en el bootstrap. Para el caso de 2 muestras, una prueba de permutación funcionará bien si está dispuesto a asumir distribuciones iguales (incluidas variaciones iguales) bajo la hipótesis nula. Esta es una suposición muy razonable cuando se realiza un experimento aleatorio, pero puede no serlo cuando se comparan 2 poblaciones separadas (pero si cree que 2 poblaciones pueden tener diferentes extensiones / formas, entonces quizás una prueba de medias no sea la pregunta más interesante o la El mejor lugar para comenzar).
Con tamaños de muestra enormes, la teoría de la muestra grande beneficiará tanto a las pruebas t como al bootstrapping y verá poca o ninguna diferencia al comparar medias.
Con tamaños de muestra moderados, la rutina de arranque puede funcionar bien y puede ser preferible cuando no está dispuesto a hacer las suposiciones necesarias para los procedimientos de la prueba t.
Lo importante es comprender las suposiciones y condiciones que se requieren para los diferentes procedimientos que está considerando y considerar cómo esas condiciones y desviaciones de ellas afectarán su análisis y cómo cree que la población / proceso que produjo sus datos se ajusta a esas condiciones. , la simulación puede ayudarlo a comprender cómo las desviaciones afectan los diferentes métodos. Recuerde que todos los procedimientos estadísticos tienen condiciones y suposiciones (con la posible excepción de SnowsCorrectlySizedButOtherwiseUselessTestOfAnything , pero si usa esa prueba, la gente hará suposiciones sobre usted).
fuente