Creo que es justo decir que la estadística es una ciencia aplicada, por lo que cuando se calculan los promedios y las desviaciones estándar es porque alguien está buscando tomar algunas decisiones basadas en esos números.
Parte de ser un buen estadístico, entonces espero poder "sentir" cuándo se puede confiar en los datos de la muestra y cuando alguna prueba estadística está tergiversando completamente los datos verdaderos en los que estamos interesados. Ser un programador interesado en el análisis de grandes conjuntos de datos Estoy volviendo a aprender algunas estadísticas y teoría de la probabilidad, pero no puedo sacudir esta sensación persistente de que todos los libros que he visto son como políticos que suben al escenario y dicen un montón de cosas y luego agregan el siguiente descargo de responsabilidad al final de su discurso:
Ahora, no digo que esto sea bueno o malo, pero los números dicen que es bueno, así que deberías votar por mí de todos modos.
Tal vez lo entiendes, pero tal vez no, así que aquí hay una pregunta. ¿A dónde voy para encontrar historias de guerra de estadísticos donde algunas decisiones se basaron en información estadística que luego resultó ser completamente incorrecta?
Puede consultar una presentación reciente sobre SSRN por Bernard Black, "Bloopers: cómo (en su mayoría) las personas inteligentes obtienen una inferencia causal incorrecta". http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1663404
Diré que también admiro a David Freedman y aprecio su trabajo. Aunque yo era un estudiante graduado de UC Berkeley mientras él estaba aquí, falleció antes de que tuviera la oportunidad de tomar su curso. Puede echar un vistazo a sus obras recopiladas, editadas por algunos otros profesores de Berkeley: "Modelos estadísticos e inferencia causal: un diálogo con las ciencias sociales".
fuente
Este hilo ahora es antiguo, pero aún puede valer la pena publicar los resultados de un estudio reciente titulado, Un robot rastreó miles de estudios en busca de errores matemáticos simples. Los resultados son preocupantes. No es exactamente una historia de guerra, pero ilustra los errores desenfrenados inherentes a los artículos publicados y revisados por pares. http://www.vox.com/science-and-health/2016/9/30/13077658/statcheck-psychology-replication
fuente
Me viene a la mente el triste caso de Sally Clark .
En 1999, fue condenada injustamente por asesinar a sus dos hijos después de que el profesor Sir Roy Meadow concluyera erróneamente que las posibilidades de que sus dos hijos murieran por el síndrome de muerte súbita infantil (SMSL) eran de 1 en 73 millones, y su epónimo ahora desacreditado ley :
La Royal Statistical Society criticó la evidencia estadística por dos razones:
Además, Ray Hill planteó inquietudes sobre la calidad de los datos subyacentes utilizados para calcular la posibilidad de un solo evento de SMSL.
Después de dos apelaciones, Clark fue finalmente absuelta, pero la experiencia de perder a ambos hijos y el aborto involuntario de la justicia la dejaron psicológicamente marcada y murió de intoxicación por alcohol en 2007.
fuente