Entonces, esta puede ser una pregunta común, pero nunca he encontrado una respuesta satisfactoria.
¿Cómo se determina la probabilidad de que la hipótesis nula sea verdadera (o falsa)?
Digamos que les das a los estudiantes dos versiones diferentes de una prueba y quieres ver si las versiones son equivalentes. Realiza una prueba t y le da un valor p de .02. ¡Qué buen valor p! Eso debe significar que es poco probable que las pruebas sean equivalentes, ¿verdad? No. Desafortunadamente, parece que P (resultados | nulo) no le dice P (nulo | resultados). Lo normal es rechazar la hipótesis nula cuando nos encontramos con un valor p bajo, pero ¿cómo sabemos que no estamos rechazando una hipótesis nula que probablemente sea cierta? Para dar un ejemplo tonto, puedo diseñar una prueba para el ébola con una tasa de falsos positivos de .02: poner 50 bolas en un cubo y escribir "ébola" en una. Si pruebo a alguien con esto y eligen la bola de "ébola", el valor p (P (recogiendo la bola | no tienen ébola)) es .02,
Cosas que he considerado hasta ahora:
- Asumiendo P (nulo | resultados) ~ = P (resultados | nulo) - claramente falso para algunas aplicaciones importantes.
- Aceptar o rechazar hipótesis sin conocer P (nulo | resultados) - ¿Por qué las aceptamos o rechazamos entonces? ¿No es cierto que rechazamos lo que creemos que ES PROBABLEMENTE falso y aceptamos lo que PROBABLEMENTE es cierto?
- Usa el teorema de Bayes, pero ¿cómo obtienes tus antecedentes? ¿No terminas en el mismo lugar tratando de determinarlos experimentalmente? Y elegirlos a priori parece muy arbitrario.
- Encontré una pregunta muy similar aquí: stats.stackexchange.com/questions/231580/. La respuesta aquí parece decir básicamente que no tiene sentido preguntar acerca de la probabilidad de que una hipótesis nula sea cierta, ya que esa es una pregunta bayesiana. Tal vez soy un bayesiano de corazón, pero no puedo imaginar no hacer esa pregunta. De hecho, parece que el malentendido más común de los valores p es que son la probabilidad de una hipótesis nula verdadera. Si realmente no puede hacer esta pregunta como frecuentista, entonces mi pregunta principal es la # 3: ¿cómo obtiene sus antecedentes sin quedarse atrapado en un bucle?
Editar: Gracias por todas las respuestas reflexivas. Quiero abordar un par de temas comunes.
- Definición de probabilidad: estoy seguro de que hay mucha literatura sobre esto, pero mi ingenua concepción es algo así como "la creencia de que un ser perfectamente racional habría dado la información" o "las probabilidades de apuestas que maximizarían las ganancias si la situación se repitió y las incógnitas se les permitió variar ".
- ¿Podemos saber P (H0 | resultados)? Ciertamente, esta parece ser una pregunta difícil. Sin embargo, creo que cada probabilidad es teóricamente conocible, ya que la probabilidad siempre está condicionada a la información dada. Todos los eventos sucederán o no, por lo que la probabilidad no existe con información completa. Solo existe cuando no hay información suficiente, por lo que debe ser reconocible. Por ejemplo, si me dicen que alguien tiene una moneda y le pregunto la probabilidad de cara, diría que 50%. Puede suceder que la moneda tenga un peso del 70% en cara, pero no se me dio esa información, por lo que la probabilidad fue del 50% para la información que tenía, así como a pesar de que cae en la cola, la probabilidad fue del 70% cabezas cuando me enteré de eso. Como la probabilidad siempre está condicionada a un conjunto de datos (insuficientes),
Editar: "Siempre" puede ser un poco demasiado fuerte. Puede haber algunas preguntas filosóficas para las cuales no podemos determinar la probabilidad. Aún así, en situaciones del mundo real, aunque "casi nunca" tenemos certeza absoluta, "casi siempre" debería haber una mejor estimación.
fuente
Respuestas:
Ciertamente ha identificado un problema importante y el bayesianismo es un intento de resolverlo. Puede elegir un previo no informativo si lo desea. Dejaré que otros llenen más sobre el enfoque de Bayes.
Sin embargo, en la gran mayoría de las circunstancias, sabesel nulo es falso en la población, simplemente no sabes qué tan grande es el efecto. Por ejemplo, si inventa una hipótesis totalmente absurda, por ejemplo, que el peso de una persona está relacionado con si su número de seguro social es impar o par, y de alguna manera logra obtener información precisa de toda la población, los dos medios no serán exactamente iguales. Diferirán (probablemente) en una cantidad insignificante, pero no coincidirán exactamente. 'Si sigue esta ruta, enfatizará los valores de p y las pruebas de significación y pasará más tiempo mirando la estimación del tamaño del efecto y su precisión. Por lo tanto, si tiene una muestra muy grande, es posible que las personas con SSN impar pesen 0.001 libras más que las personas con SSN par, y que el error estándar para esta estimación es 0.000001 libras, por lo que p <0.05 pero a nadie debería importarle.
fuente
Para responder a esta pregunta, debe definir la probabilidad. Esto se debe a que la hipótesis nula es verdadera (excepto que casi nunca lo es cuando se consideran hipótesis de punto nulo) o falsa. Una definición es que mi probabilidad describe mi creencia personal acerca de la probabilidad de que mis datos surjan de esa hipótesis en comparación con la probabilidad de que mis datos surjan de las otras hipótesis que estoy considerando. Si comienzas desde este marco, tu anterior es simplemente tu creencia basada en toda tu información previa pero excluyendo los datos disponibles.
fuente
La idea clave es que, en términos generales, puede mostrar empíricamente que algo es falso (solo proporcione un contraejemplo), pero no puede mostrar que algo es definitivamente cierto (necesitaría probar "todo" para mostrar que no hay contraejemplos).
La falsabilidad es la base del método científico: usted asume que una teoría es correcta y compara sus predicciones con lo que observa en el mundo real (por ejemplo, la teoría gravitacional de Netwon se creía "verdadera", hasta que se descubrió que sí lo era no funciona demasiado bien en circunstancias extremas).
Esto también es lo que sucede en la prueba de hipótesis: cuando P (resultados | nulo) es bajo, los datos contradicen la teoría (o usted tuvo mala suerte), por lo que tiene sentido rechazar la hipótesis nula. De hecho, suponga que nulo es verdadero, entonces P (nulo) = P (nulo | resultados) = 1, por lo que la única forma en que P (resultados | nulo) es bajo es que P (resultados) es bajo (mala suerte).
Por otro lado, cuando P (resultados | nulo) es alto, quién sabe. Tal vez nulo es falso, pero P (resultado) es alto, en cuyo caso realmente no puede hacer nada, además de diseñar un mejor experimento.
Permítanme reiterar: solo pueden demostrar que la hipótesis nula es (probablemente) falsa. Entonces diría que la respuesta es la mitad de su segundo punto: no necesita saber P (nulo | resultados) cuando P (resultados | nulo) es bajo para rechazar nulo, pero no puede decir que nulo es verdadero si P (resultados | nulo) es alto.
Esta es también la razón por la cual la reproducibilidad es muy importante: sería sospechoso tener mala suerte cinco de cada cinco.
fuente
-------------------------------------------------- ---------------------
(Editar: creo que sería útil poner una versión de mi comentario a esta pregunta en la parte superior de esta respuesta, ya que es mucho más corta)
El cálculo no simétrico de p (a | b) ocurre cuando se ve como una relación causal, como p (resultado | hipótesis). Este cálculo no funciona en ambas direcciones: una hipótesis causa una distribución de resultados posibles, pero un resultado no causa una distribución de hipótesis.
P (resultado | hipótesis) es un valor teórico basado en la relación de causalidad hipótesis -> resultado.
Si p (a | b) expresa una correlación o frecuencia observada (no necesariamente una relación causal), entonces se vuelve simétrica. Por ejemplo, si anotamos la cantidad de juegos que un equipo deportivo gana / pierde y la cantidad de juegos que el equipo deportivo anota menos o igual que / más de 2 goles en una tabla de contingencia. Entonces P (win | score> 2) y P (score> 2 | win) son objetos experimentales / observacionales (no teóricos) similares.
-------------------------------------------------- -------------------
Muy simplista
La expresión P (resultado | hipótesis) parece tan simple que hace que uno piense fácilmente que simplemente puede revertir los términos. Sin embargo, 'resultado' es una variable estocástica, con una distribución de probabilidad (dada la hipótesis). Y 'hipótesis' no es (típicamente) una variable estocástica. Si hacemos de 'hipótesis' una variable estocástica, entonces implica una distribución de probabilidad de diferentes hipótesis posibles, de la misma manera que tenemos una distribución de probabilidad de resultados diferentes. (pero los resultados no nos dan esta distribución de hipótesis de probabilidad, y simplemente cambian la distribución, por medio del teorema de Bayes)
Un ejemplo
Supongamos que tiene un jarrón con canicas rojas / azules en una proporción de 50/50 del cual extrae 10 canicas. Entonces puede expresar fácilmente algo como P (resultado | experimento de florero), pero no tiene mucho sentido expresar P (experimento de florero | resultado). El resultado (por sí solo) no es la distribución de probabilidad de diferentes experimentos con jarrón posibles.
Si tiene varios tipos posibles de experimentos con vasos, en ese caso es posible usar expresar algo como P (tipo de experimento con vasos) y usar la regla de Bayes para obtener un P (tipo de experimento con vasos | resultado), porque ahora el tipo de El experimento del florero es una variable estocástica. (nota: más precisamente es P (tipo de experimento con florero | resultado y distribución del tipo de experimento con florero))
Aún así, este P (tipo de experimento de florero | resultado) requiere una (meta) hipótesis sobre una distribución inicial dada P (tipo de experimento de florero).
Intuición
tal vez la siguiente expresión ayuda a entender la única dirección
X) Podemos expresar la probabilidad de X dada una hipótesis sobre X.
así
1) Podemos expresar la probabilidad de resultados dada una hipótesis sobre los resultados.
y
2) Podemos expresar la probabilidad de una hipótesis dada una (meta) hipótesis sobre estas hipótesis.
Es la regla de Bayes la que nos permite expresar un inverso de (1) pero necesitamos (2) para esto, la hipótesis debe ser una variable estocástica.
Rechazo como solución
Por lo tanto, no podemos obtener una probabilidad absoluta de una hipótesis dados los resultados. Ese es un hecho de la vida, tratar de luchar contra este hecho parece ser el origen de no encontrar una respuesta satisfactoria. La solución para encontrar una respuesta satisfactoria es: aceptar que no se puede obtener una probabilidad (absoluta) de una hipótesis.
Frecuentes
De la misma manera que no podemos aceptar una hipótesis, tampoco deberíamos rechazar (automáticamente) la hipótesis cuando P (resultado | hipótesis) está cerca de cero. Solo significa que hay evidencia que respalda el cambio de nuestras creencias y también depende de P (resultado) y P (hipótesis) cómo debemos expresar nuestras nuevas creencias.
Cuando los frecuentistas tienen algún esquema de rechazo, entonces está bien. Lo que expresan no es si una hipótesis es verdadera o falsa, o la probabilidad de tales casos. No pueden hacer eso (sin antecedentes). Lo que expresan en cambio es algo sobre la tasa de fracaso (confianza) de su método (dado que ciertas suposiciones son ciertas).
Omnisciente
Una forma de sacar todo esto es eliminar el concepto de probabilidad. Si observa la población completa de 100 canicas en el florero, puede expresar ciertas afirmaciones sobre una hipótesis. Entonces, si te vuelves omnisciente y el concepto de probabilidad es irrelevante, entonces puedes establecer si una hipótesis es verdadera o no (aunque la probabilidad también está fuera de la ecuación)
fuente