¿Revoluciones en las estadísticas de los últimos 50 años? [cerrado]

10

¿Qué áreas de las estadísticas han revolucionado sustancialmente en los últimos 50 años? Por ejemplo, hace unos 40 años, Akaike con sus colegas revolucionó el área de discriminación de modelos estadísticos. Hace unos 10 años, Hyndman con sus colegas revolucionó el área de suavizado exponencial. Hace unos XX años, ...

¿Cómo puedo continuar la lista, con años y nombres por favor? Por estadísticas me refiero a los cuatro tipos del discurso presidencial de Bartholomew de 1995, las estadísticas mayores y menores de Chambers juntas, como las que aparecen en el reciente discurso presidencial de Hand sobre 'Estadísticas modernas' y demás, cualquier cosa profesionalmente relevante.

Andre Silva
fuente
La única manera de mantener abierta esta pregunta es haciéndola wiki comunitaria, así que marque el caso.
robin girard
2
Sin embargo, tengo la sensación de que esto es subjetivo, argumentativo y requerirá una discusión prolongada, lea stats.stackexchange.com/faq . Voto para cerrar, pero lo aliento a que haga una pregunta más específica (ya que la idea de la pregunta es buena, pero de todas maneras demasiado ancho).
robin girard
Una de las discusiones extendidas que podría comenzar: ¿estás seguro de que el profesor Rob Hyndman era un investigador cuando Parzen y Rozenblatt propusieron un suavizado exponencial :)?
robin girard
1
Creo que con la disponibilidad de computadoras más potentes, diferentes tipos de métodos de repente se vuelven prácticos e importantes (¿se usarían, por ejemplo, árboles de decisión potenciados sin computadoras rápidas?)
Andre Holzner
1
Responder la pregunta no es realmente una indicación clara de que votaría para cerrar. La gente vio mi comentario, vieron su respuesta, ... ¡10 respuestas heterogéneas muy rápidas en menos de una hora! parece una sala de chat;)
robin girard

Respuestas:

15

El trabajo de Efron en Bootstrap me viene a la mente.

Dirk Eddelbuettel
fuente
me gusta ;-)
15

La aplicación de estadísticas bayesianas con métodos de Monte Carlo.

Shane
fuente
9

En 1960, la mayoría de las personas que realizaban estadísticas calculaban con una calculadora manual de cuatro funciones o una regla de cálculo o a mano; Las computadoras mainframe apenas comenzaban a ejecutar algunos programas en Algol y Fortran; Los dispositivos de salida gráfica eran raros y crudos. Debido a estas limitaciones, el análisis bayesiano se consideró extremadamente difícil debido a los cálculos requeridos. Las bases de datos se administraron en tarjetas perforadas y unidades de cinta de computadora limitadas a unos pocos megabytes. La educación estadística se centró inicialmente en el aprendizaje de fórmulas para la prueba t y ANOVA. La práctica estadística generalmente no iba más allá de las pruebas de hipótesis de rutina (aunque algunas mentes brillantes acababan de comenzar a explotar las computadoras para un análisis más profundo, como lo ejemplifica el libro de Mosteller y Wallace sobre los documentos federalistas, por ejemplo).

Conté esta conocida historia como un recordatorio de que todas las estadísticas han experimentado una revolución debido al aumento y la difusión de la potencia informática durante este último medio siglo, una revolución que ha hecho posible casi cualquier otra innovación en estadísticas durante ese tiempo (con la notable excepción de los métodos EDA de lápiz y papel de Tukey, como Thylacoleo ya ha observado).

whuber
fuente
6

Modelos lineales generalizados debido a los fallecidos John Nelder y Robert Wedderburn.

Tilacoleo
fuente
4
Jeromy Anglim
fuente
¿Qué pasa con SAS y SPSS?
Shane
Y no olvides a Stata.
Thylacoleo
Probablemente merece su propia pregunta: ¿qué paquete estadístico ha hecho la contribución más revolucionaria a la ciencia y la práctica del análisis de datos y las estadísticas?
Jeromy Anglim
Eso sería demasiado discutidor. Creo que tener una respuesta aquí que reconozca que todo el software estadístico está en punto.
Shane
@Shane. Lo suficientemente justo. Solía ​​usar SPSS. Ahora uso R. R revolucionó la forma en que pienso y realizo el análisis de datos. Hizo divertido el análisis de datos. No puedo hablar demasiado sobre Stata y SAS, así que lo dejaré a otros para justificar por qué podrían ser revolucionarios.
Jeromy Anglim
4

Hubo una gran discusión sobre metaoptimizar llamada " Ideas más influyentes 1995 - 2005 ", que contiene una gran colección de ideas.

El que mencioné allí, y repetiré aquí, es la "revolución" en el concepto de comparaciones múltiples, específicamente el cambio de usar métodos FWE a FDR, para probar muchas hipótesis (como en micro array o fMRI, etc.)

Aquí está uno de los primeros artículos que introdujo esta noción a la comunidad científica: Benjamini, Yoav; Hochberg, Yosef (1995). "Control de la tasa de descubrimiento falso: un enfoque práctico y poderoso para pruebas múltiples". Diario de la sociedad estadística real

Tal Galili
fuente
¿Qué es FWE y FDR? Supongo que FWE es un error familiar, pero el otro?
Henrik
Bueno, este hilo es subjetivo, así que quién sabe ... Ahora en serio: FDR es sinónimo de tasa de descubrimiento falsa (wikipedia)
Tal Galili
3

La creación de este sitio ;-)

usuario88
fuente
¿Está convirtiendo el sitio en un foro de discusión una revolución;)?
robin girard