Acabo de encontrar el cuarteto de Anscombe (cuatro conjuntos de datos que tienen estadísticas descriptivas casi indistinguibles pero se ven muy diferentes cuando se trazan) y tengo curiosidad por saber si hay otros conjuntos de datos más o menos conocidos que se hayan creado para demostrar la importancia de ciertos aspectos de análisis estadísticos.
regression
data-visualization
dataset
hibernando
fuente
fuente
Respuestas:
Existen conjuntos de datos que actúan como contraejemplos de malentendidos populares *: he construido muchos yo mismo en diversas circunstancias, pero la mayoría de ellos no serían interesantes para usted, estoy seguro.
* (que es lo que hacen los datos de Anscombe, ya que es una respuesta a las personas que operan bajo el malentendido de que la calidad de un modelo se puede distinguir de las estadísticas idénticas que mencionó)
Incluiré algunos aquí que podrían ser de mayor interés que la mayoría de los que genero:
1) Un ejemplo (de bastantes) son algunos ejemplos de distribuciones discretas (y, por lo tanto, conjuntos de datos) que construí para contrarrestar la afirmación común de que la asimetría cero en el tercer momento implica simetría. (La teoría avanzada de estadística de Kendall y Stuart ofrece una familia continua más impresionante).
Este es uno de esos ejemplos de distribución discreta:
(Por lo tanto, un conjunto de datos para un contraejemplo en el caso de muestra es obvio: )- 4 , - 4 , 1 , 1 , 1 , 5
Como puede ver, esta distribución no es simétrica, pero su asimetría de tercer momento es cero. De manera similar, uno puede construir fácilmente contraejemplos a una afirmación similar con respecto a la segunda medida de asimetría más común, el segundo coeficiente de asimetría de Pearson ( ).3 ( m e a n - m e dyo un nσ)
De hecho, también se me ocurrieron distribuciones y / o conjuntos de datos para los cuales las dos medidas son de signo opuesto, lo que es suficiente para contrarrestar la idea de que la asimetría es un concepto único y fácil de entender, en lugar de una idea algo resbaladiza que realmente no saber medir adecuadamente en muchos casos.
2) Hay un conjunto de datos construidos en este diagrama de caja y bigotes de respuesta para distribución multimodal , siguiendo el enfoque de Choonpradub y McNeil (2005), que muestra cuatro conjuntos de datos de aspecto muy diferente con el mismo diagrama de caja.
En particular, la distribución claramente sesgada con el diagrama de caja simétrico tiende a sorprender a las personas.
3) Hay otro par de colecciones de conjuntos de datos de contraejemplo que construí en respuesta a la excesiva dependencia de la gente en los histogramas, especialmente con solo unos pocos contenedores y solo en un ancho de contenedor y origen de contenedor; lo que lleva a afirmaciones erróneamente confiables sobre la forma distributiva. Estos conjuntos de datos y pantallas de ejemplo se pueden encontrar aquí
Aquí hay uno de los ejemplos a partir de ahí. Estos son los datos:
Y aquí hay dos histogramas:
Aquí hay uno de esos conjuntos de datos, con 30 observaciones en cada muestra, etiquetadas de A a D:
Aquí hay un ejemplo de prueba:
Como puede ver, la prueba unilateral rechaza el nulo; los valores de A tienden a ser menores que los valores de B. La misma conclusión (con el mismo valor p) se aplica a B vs C, C vs D y D vs A. Este ciclo de rechazos, en sí mismo, no es automáticamente un problema , si no lo interpretamos como algo que no significa. (Es simple obtener valores p mucho más pequeños con muestras similares, pero más grandes).
La "paradoja" más grande aquí viene cuando calcula los intervalos (unilaterales en este caso) para un cambio de ubicación; en todos los casos, se excluye 0 (los intervalos no son idénticos en cada caso). Esto nos lleva a la conclusión de que a medida que nos movemos a través de las columnas de datos de A a B a C a D, la ubicación se mueve hacia la derecha y, sin embargo, lo mismo ocurre nuevamente cuando volvemos a A.
Con versiones más grandes de estos conjuntos de datos (distribución similar de valores, pero más de ellos), podemos obtener significación (una o dos colas) a niveles de significación sustancialmente más pequeños, de modo que uno podría usar los ajustes de Bonferroni, por ejemplo, y aún concluir cada uno. El grupo provenía de una distribución que se desplazó de la siguiente.
Esto nos muestra, entre otras cosas, que un rechazo en Wilcoxon-Mann-Whitney no justifica por sí mismo automáticamente una reclamación de cambio de ubicación.
(Si bien no es el caso para estos datos, también es posible construir conjuntos donde las medias de muestra son constantes, mientras que se aplican resultados como el anterior).
Agregado en una edición posterior: una referencia muy informativa y educativa sobre esto es
Brown BM y Hettmansperger TP. (2002)
Kruskal-Wallis, múltiples comaprisons y dados de Efron.
Aust y N.ZJ Stat. , 44 , 427–438.
5) Aquí surgen otro par de contraejemplos relacionados , donde un ANOVA puede ser significativo, pero no todas las comparaciones por pares (interpretadas de dos maneras diferentes allí, dando diferentes contraejemplos).
Así que hay varios conjuntos de datos de contraejemplo que contradicen los malentendidos que uno podría encontrar.
Como puede suponer, construyo tales contraejemplos con bastante frecuencia (como lo hacen muchas otras personas), generalmente cuando surge la necesidad. Para algunos de estos malentendidos comunes, puede caracterizar los contraejemplos de tal manera que puedan generarse nuevos a voluntad (aunque con mayor frecuencia, se involucra un cierto nivel de trabajo).
Si hay tipos particulares de cosas en las que podría estar interesado, podría localizar más conjuntos de este tipo (los míos o los de otras personas), o tal vez incluso construir algunos.
Un truco útil para generar datos de regresión aleatoria que tiene coeficientes que desea es el siguiente (la parte entre paréntesis es un resumen del código R):
a) configure los coeficientes que desee sin ruido (
y = b0 + b1 * x1 + b2 * x2
)b) generar término de error con las características deseadas (
n = rnorm(length(y),s=0.4
)c) establecer una regresión de ruido en las mismas x (
nfit = lm(n~x1+x2)
)d) agregue los residuos de eso a la variable y (
y = y + nfit$residuals
)Hecho. (todo se puede hacer en un par de líneas de R)
fuente
Con respecto a la generación de (por ejemplo, sus propios) conjuntos de datos para fines similares, puede estar interesado en:
En cuanto a los conjuntos de datos que simplemente se utilizan para demostrar fenómenos engañosos / contraintuitivos en las estadísticas, hay muchos, pero debe especificar qué fenómenos desea demostrar. Por ejemplo, con respecto a la demostración de la paradoja de Simpson , el conjunto de datos de casos de sesgo de género de Berkeley es muy famoso.
Para una gran discusión sobre el conjunto de datos más famoso de todos, vea: Qué aspectos del conjunto de datos "Iris" lo hacen tan exitoso como un conjunto de datos de ejemplo / enseñanza / prueba .
fuente
En el artículo "Pongamos las regresiones del bote de basura y los problemas del bote de basura donde pertenecen" (C. Achen, 2004), el autor crea un conjunto de datos sintéticos con una no linealidad que pretende reflejar casos de la vida real cuando los datos podría haber sufrido un error de codificación durante la medición (por ejemplo, una distorsión en la asignación de datos a valores categóricos o procedimientos de cuantificación incorrectos).
Los datos sintéticos se crean a partir de una relación lineal perfecta con dos coeficientes positivos, pero una vez que aplique el error de codificación no lineal, las técnicas de regresión estándar producirán un coeficiente que es del signo incorrecto y también estadísticamente significativo (y sería más si arrancó un conjunto de datos sintéticos más grande).
Aunque es solo un pequeño conjunto de datos sintéticos, el documento presenta una gran refutación de los ingenuos tipos de regresión "volcado todo lo que puedo pensar en el lado derecho", lo que demuestra que incluso con no linealidades pequeñas / sutiles (que en realidad son bastante común en cosas como errores de codificación o errores de cuantificación), puede obtener resultados tremendamente engañosos si solo confía en la salida del análisis de botón de regresión estándar.
fuente