Digamos que estamos lanzando repetidamente una moneda justa, y sabemos que el número de caras y colas debería ser aproximadamente igual. Cuando vemos un resultado como 10 caras y 10 colas para un total de 20 lanzamientos, creemos los resultados y nos inclinamos a creer que la moneda es justa.
Bueno, cuando ves un resultado como 10000 caras y 10000 colas para un total de 20000 lanzamientos, realmente cuestionaría la validez del resultado (¿el experimentador falsificó los datos?), Ya que sé que esto es más improbable que, digamos, un resultado de 10093 cabezas y 9907 colas.
¿Cuál es el argumento estadístico detrás de mi intuición?
fuente
Me gusta la explicación de Srikant, y creo que la idea bayesiana es probablemente la mejor manera de abordar un problema como este. Pero aquí hay otra forma de verlo sin Bayes: (en R)
que es aproximadamente 31.2 en mi sistema. En otras palabras, es más de 30 veces más probable ver 10 de 20 que ver 10,000 de 20,000, incluso con una moneda justa en ambos casos. Esta relación aumenta sin límite a medida que aumenta el tamaño de la muestra.
Este es un tipo de enfoque de razón de probabilidad, pero nuevamente, en mi opinión, esto se siente como un juicio bayesiano más que cualquier otra cosa.
fuente
Un argumento bayesiano subjetivista es prácticamente la única forma (desde un punto de vista estadístico) de entender su intuición , que es, propiamente hablando, el tema de una investigación psicológica , no estadística. Sin embargo, es evidentemente injusto, y por lo tanto inválido, usar un enfoque bayesiano para argumentar que un investigador falsificó los datos. La lógica de esto es perfectamente circular: todo se reduce a decir "en base a mis creencias previas sobre el resultado, considero que su resultado es increíble y, por lo tanto, debe haber hecho trampa". Un argumento tan ilógico y egoísta obviamente no se mantendría en una sala de audiencias o en un proceso de revisión por pares.
Aunque tal prueba no puede probar ser falsa, se puede aplicar a informes futuros de ese experimentador para evaluar la credibilidad de sus afirmaciones, sin hacer suposiciones desagradables e insoportables basadas solo en su intuición. ¡Esto es mucho más justo y riguroso que invocar un argumento bayesiano para implicar a alguien que podría ser perfectamente inocente y resultó ser tan desafortunado que obtuvieron un hermoso resultado experimental!
fuente
Creo que tu intuición es defectuosa. Parece que está comparando implícitamente un único resultado "muy especial" (exactamente 10000 cabezas) con un conjunto de muchos resultados (todos los números "no especiales" de cabezas cercanas a 10000). Sin embargo, la definición de "especial" es una elección arbitraria basada en nuestra psicología. ¿Qué tal binario 10000000000000 (decimal 8192) o Hex ABC (decimal 2748) - sería sospechosamente especial también? Como comentó Joris Meys, el argumento de Bayes sería esencialmente el mismo para cualquier número de cabezas, lo que implica que cada resultado sería sospechoso.
Para expandir un poco el argumento: desea probar una hipótesis ("el experimentador está fingiendo"), y luego elige una estadística de prueba (número de cabezas). Ahora, ¿esta estadística de prueba es adecuada para decirle algo sobre su hipótesis? Para mí, parece que el estadístico de prueba elegido no es informativo (no es una función de un parámetro especificado como un valor fijo en la hipótesis). Esto se remonta a la pregunta de qué quieres decir con "trampa". Si eso significa que el experimentador controla la moneda a voluntad, entonces esto no se refleja en la estadística de prueba. Creo que debe ser más preciso para encontrar un indicador cuantificable y, por lo tanto, hacer que la pregunta sea susceptible de una prueba estadística.
fuente
La conclusión que extraiga dependerá MUY de lo anterior que elija para la probabilidad de hacer trampa y la probabilidad previa de que, dado que la aleta miente, se informan x cabezas.
Poner la mayor masa en P (10000 cabezas informadas | mentir) es un pequeño contador intuitivo en mi opinión. A menos que el periodista sea ingenuo, no puedo imaginar que alguien informe ese tipo de datos falsificados (en gran parte por las razones que mencionó en la publicación original; es demasiado sospechoso para la mayoría de las personas). datos falsificados, entonces creo que un previo más razonable (y muy aproximado) sobre los resultados informados podría ser un discreto uniforme anterior P (X cabezas informadas | mentir) = 1/201 para los enteros {9900, ..., 10100} y P (x cabezas informadas | mentir) = 0 para todas las demás x. Suponga que cree que la probabilidad previa de mentir es 0.5. Entonces algunas probabilidades posteriores son:
P (mentiroso | 9900 cabezas informadas) = P (mentiroso | 10100 cabezas informadas) = 0,70;
P (mentira | 9950 cabezas informadas) = P (mentira | 10050 cabezas informadas) = 0,54;
P (mentira | 10000 cabezas informadas) = 0.47.
Los números más razonables de caras informadas de una moneda justa generarán sospechas. Solo para mostrar cuán sensibles son las probabilidades posteriores a sus anteriores, si la probabilidad previa de hacer trampa se reduce a 0.10, entonces las probabilidades posteriores se convierten en:
P (mentiroso | 9900 cabezas reportadas) = P (mentiroso | 10100 cabezas reportadas) = 0.21;
P (mentira | 9950 cabezas informadas) = P (mentira | 10050 cabezas informadas) = 0,11;
P (mentira | 10000 cabezas informadas) = 0.09.
Así que creo que la respuesta original (y altamente calificada) podría ampliarse un poco; de ninguna manera debe concluir que los datos están falsificados sin considerar a fondo la información previa. Además, solo pensando en esto intuitivamente, parece que las probabilidades posteriores de mentir probablemente estén influenciadas más por la probabilidad previa de mentir que por la distribución previa de cabezas informadas dado que el flipper está mintiendo (excepto los anteriores que ponen todo su masa en un pequeño número de cabezas informó dado que la aleta está mintiendo, como en mi ejemplo).
fuente
Para la explicación bayesiana, necesita una distribución de probabilidad previa de los resultados informados por un lanzador de monedas mentiroso, así como una probabilidad previa de mentir. Cuando ve un valor que es mucho más probable bajo la distribución de mentira que el volteo aleatorio, eso hace que su probabilidad posterior de mentir sea mucho mayor.
fuente