Hasta ahora, he estado usando la estadística de Shapiro-Wilk para probar los supuestos de normalidad en muestras pequeñas.
¿Podrías recomendarme otra técnica?
Hasta ahora, he estado usando la estadística de Shapiro-Wilk para probar los supuestos de normalidad en muestras pequeñas.
¿Podrías recomendarme otra técnica?
Respuestas:
El paquete fBasics en R (parte de Rmetrics ) incluye varias pruebas de normalidad , cubriendo muchas de las pruebas frecuentes más frecuentes : Kolmogorov-Smirnov, Shapiro-Wilk, Jarque – Bera y D'Agostino, junto con un envoltorio para las pruebas de normalidad. en el paquete del noreste : Anderson – Darling, Cramer – von Mises, Lilliefors (Kolmogorov-Smirnov), Pearson chi – cuadrado y Shapiro – Francia. La documentación del paquete también proporciona todas las referencias importantes. Aquí hay una demostración que muestra cómo usar las pruebas del noreste .
Un enfoque, si tiene tiempo, es usar más de una prueba y verificar si hay acuerdo. Las pruebas varían de varias maneras, por lo que no es del todo sencillo elegir "el mejor". ¿Qué usan otros investigadores en su campo? Esto puede variar y puede ser mejor seguir los métodos aceptados para que otros acepten su trabajo. Con frecuencia uso la prueba Jarque-Bera, en parte por esa razón, y Anderson-Darling para comparar.
Puede consultar "Comparación de pruebas de normalidad univariante" (Seier 2002) y "Una comparación de varias pruebas de normalidad" (Yazici; Yolacan 2007) para una comparación y discusión de los problemas.
También es trivial probar estos métodos para compararlos en R, gracias a todas las funciones de distribución . Aquí hay un ejemplo simple con datos simulados (no imprimiré los resultados para ahorrar espacio), aunque se requeriría una exposición más completa:
Una vez que tenga los resultados de las diversas pruebas sobre diferentes distribuciones, puede comparar cuáles fueron las más efectivas. Por ejemplo, el valor p para la prueba Jarque-Bera anterior arrojó 0.276 para la distribución normal (aceptando) y <2.2e-16 para el cauchy (rechazando la hipótesis nula).
fuente
Para la normalidad, Shapiro-Wilk real tiene buen poder en muestras bastante pequeñas.
El principal competidor en los estudios que he visto es el general Anderson-Darling, que lo hace bastante bien, pero no diría que fue mejor. Si puede aclarar qué alternativas le interesan, posiblemente una mejor estadística sería más obvia. [editar: si estima los parámetros, la prueba de AD debe ajustarse para eso.]
[Recomiendo enfáticamente no considerar Jarque-Bera en muestras pequeñas (que probablemente mejor conocido como Bowman-Shenton en círculos estadísticos, estudiaron la distribución de muestras pequeñas). La distribución articular asintótica de asimetría y curtosis no se parece en nada a la distribución de muestras pequeñas, de la misma manera que un plátano no se parece mucho a una naranja. También tiene muy poca potencia contra algunas alternativas interesantes, por ejemplo, tiene poca potencia para recoger una distribución bimodal simétrica que tiene curtosis cercana a la de una distribución normal.]
Con frecuencia, las personas evalúan la bondad de ajuste por lo que resultan ser razones no particularmente buenas, o responden una pregunta diferente de la que realmente quieren responder.
Por ejemplo, es casi seguro que ya sabe que sus datos no son realmente normales (no exactamente), por lo que no tiene sentido intentar responder una pregunta para la que conoce la respuesta, y la prueba de hipótesis en realidad no la responde de todos modos .
Dado que ya no tiene una normalidad exacta, su prueba de hipótesis de normalidad realmente le está dando una respuesta a una pregunta más cercana a "¿mi tamaño de muestra es lo suficientemente grande como para detectar la cantidad de no normalidad que tengo", mientras que la pregunta real que le interesa responder suele estar más cerca de "¿cuál es el impacto de esta no normalidad en estas otras cosas que me interesan?". La prueba de hipótesis mide el tamaño de la muestra, mientras que la pregunta que le interesa responder no depende mucho del tamaño de la muestra.
Hay momentos en que las pruebas de normalidad tienen sentido, pero esas situaciones casi nunca ocurren con muestras pequeñas.
¿Por qué estás probando la normalidad?
fuente
Hay toda una categoría de Wikipedia sobre pruebas de normalidad que incluye:
Creo que AD es probablemente el mejor de ellos.
fuente
Para completar, a los economometristas también les gusta la prueba de Kiefer y Salmon de su artículo de 1983 en Economics Letters: resume expresiones 'normalizadas' de asimetría y curtosis que luego se distribuye por chi-cuadrado. Tengo una versión antigua de C ++ que escribí durante la escuela de posgrado que podría traducir a R.
Editar: Y aquí hay un artículo reciente de Bierens (re) derivando Jarque-Bera y Kiefer-Salmon.
Edición 2: Revisé el código anterior, y parece que realmente es la misma prueba entre Jarque-Bera y Kiefer-Salmon.
fuente
De hecho, la prueba de salmón de Kiefer y la prueba de Jarque Bera son críticamente diferentes, como se muestra en varios lugares, pero más recientemente aquí : pruebas de momento para distribuciones de error estandarizadas: un enfoque simple y robusto de Yi-Ting Chen. La prueba de Kiefer Salmon por construcción es robusta frente a las estructuras de error de tipo ARCH, a diferencia de la prueba estándar de Jarque Bera. El documento de Yi-Ting Chen desarrolla y analiza lo que creo que son las mejores pruebas disponibles en este momento.
fuente
Para tamaños de muestra <30 sujetos, se considera que Shapiro-Wilk tiene un poder robusto. ¡ Tenga cuidado al ajustar el nivel de significación de la prueba, ya que puede inducir un error tipo II! [1]
fuente