¿Qué áreas de las estadísticas han revolucionado sustancialmente en los últimos 50 años? Por ejemplo, hace unos 40 años, Akaike con sus colegas revolucionó el área de discriminación de modelos estadísticos. Hace unos 10 años, Hyndman con sus colegas revolucionó el área de suavizado exponencial. Hace unos XX años, ...
¿Cómo puedo continuar la lista, con años y nombres por favor? Por estadísticas me refiero a los cuatro tipos del discurso presidencial de Bartholomew de 1995, las estadísticas mayores y menores de Chambers juntas, como las que aparecen en el reciente discurso presidencial de Hand sobre 'Estadísticas modernas' y demás, cualquier cosa profesionalmente relevante.
Respuestas:
El trabajo de Efron en Bootstrap me viene a la mente.
fuente
La aplicación de estadísticas bayesianas con métodos de Monte Carlo.
fuente
Los métodos de conjunto como refuerzo, embolsado, etc. son otro candidato potencial.
fuente
En 1960, la mayoría de las personas que realizaban estadísticas calculaban con una calculadora manual de cuatro funciones o una regla de cálculo o a mano; Las computadoras mainframe apenas comenzaban a ejecutar algunos programas en Algol y Fortran; Los dispositivos de salida gráfica eran raros y crudos. Debido a estas limitaciones, el análisis bayesiano se consideró extremadamente difícil debido a los cálculos requeridos. Las bases de datos se administraron en tarjetas perforadas y unidades de cinta de computadora limitadas a unos pocos megabytes. La educación estadística se centró inicialmente en el aprendizaje de fórmulas para la prueba t y ANOVA. La práctica estadística generalmente no iba más allá de las pruebas de hipótesis de rutina (aunque algunas mentes brillantes acababan de comenzar a explotar las computadoras para un análisis más profundo, como lo ejemplifica el libro de Mosteller y Wallace sobre los documentos federalistas, por ejemplo).
Conté esta conocida historia como un recordatorio de que todas las estadísticas han experimentado una revolución debido al aumento y la difusión de la potencia informática durante este último medio siglo, una revolución que ha hecho posible casi cualquier otra innovación en estadísticas durante ese tiempo (con la notable excepción de los métodos EDA de lápiz y papel de Tukey, como Thylacoleo ya ha observado).
fuente
La idea realmente extraña de John Tukey: análisis exploratorio de datos. http://en.wikipedia.org/wiki/Exploratory_data_analysis
fuente
Modelos lineales generalizados debido a los fallecidos John Nelder y Robert Wedderburn.
fuente
fuente
Hubo una gran discusión sobre metaoptimizar llamada " Ideas más influyentes 1995 - 2005 ", que contiene una gran colección de ideas.
El que mencioné allí, y repetiré aquí, es la "revolución" en el concepto de comparaciones múltiples, específicamente el cambio de usar métodos FWE a FDR, para probar muchas hipótesis (como en micro array o fMRI, etc.)
Aquí está uno de los primeros artículos que introdujo esta noción a la comunidad científica: Benjamini, Yoav; Hochberg, Yosef (1995). "Control de la tasa de descubrimiento falso: un enfoque práctico y poderoso para pruebas múltiples". Diario de la sociedad estadística real
fuente
Análisis de supervivencia de riesgos proporcionales de Cox: http://en.wikipedia.org/wiki/Cox_proportional_hazards_model
fuente
El enfoque de Box-Jenkins para el modelado de series temporales: modelos ARIMA, etc.
http://en.wikipedia.org/wiki/Box-Jenkins
fuente
La creación de este sitio ;-)
fuente