¿Por qué utilizamos una prueba F de prueba de una cola en el análisis de varianza (ANOVA)?

13

¿Puede dar la razón para usar una prueba de una cola en la prueba de análisis de varianza?

¿Por qué utilizamos una prueba de una cola, la prueba F, en ANOVA?

Cenicienta
fuente
2
Algunas preguntas para guiar su pensamiento ... ¿Qué significa una estadística t muy negativa? ¿Es posible una estadística F negativa? ¿Qué significa una estadística F muy baja? ¿Qué significa una estadística F alta?
russellpierce
¿Por qué tiene la impresión de que una prueba de una cola tiene que ser una prueba F? Para responder a su pregunta: La prueba F permite probar una hipótesis con más de una combinación lineal de parámetros.
IMA
1
¿Quieres saber por qué uno usaría una prueba de una cola en lugar de una de dos colas?
Jens Kouros
@tree, ¿qué constituye una fuente creíble u oficial para sus propósitos?
Glen_b -Reinstalar Monica
1
@tree observa que la pregunta de Cynderella aquí no es sobre una prueba de varianzas, sino específicamente una prueba F de ANOVA, que es una prueba de igualdad de medios . Si está interesado en las pruebas de igualdad de variaciones, eso se ha discutido en muchas otras preguntas en este sitio. (Para la prueba de varianza, sí, usted se preocupa por ambas colas, como se explica claramente en la última oración de esta sección , justo arriba de ' Propiedades ')
Glen_b -Reinstale Monica

Respuestas:

17

Las pruebas F se usan más comúnmente para dos propósitos:

  1. en ANOVA, para probar la igualdad de medios (y varios análisis similares); y

  2. en la prueba de igualdad de varianzas

Consideremos cada uno a su vez:

1) Las pruebas F en ANOVA (y de manera similar, los tipos habituales de pruebas de chi-cuadrado para los datos de conteo) se construyen de modo que cuanto más consistentes sean los datos con la hipótesis alternativa, mayor será la estadística de la prueba, mientras que los arreglos de la muestra Los datos que parecen más consistentes con el valor nulo corresponden a los valores más pequeños del estadístico de prueba.

Considere tres muestras (de tamaño 10, con igual varianza de muestra), y ordénelas para que tengan medias de muestra iguales, y luego mueva sus medias en diferentes patrones. A medida que la variación en las medias muestrales aumenta desde cero, el estadístico F se hace más grande:

Arreglos de 3 muestras y su correspondiente estadística F

Las líneas negras () son los valores de los datos. Las gruesas líneas rojas ( | ) son las medias del grupo.El |El |

Si la hipótesis nula (igualdad de las medias de la población) fuera cierta, esperaría alguna variación en las medias de la muestra y, por lo general, esperaría ver proporciones de F aproximadamente alrededor de 1. Las estadísticas de F más pequeñas resultan de muestras que están más juntas de lo que normalmente esperar ... así que no vas a concluir que la población significa diferir.

Es decir, para ANOVA, rechazará la hipótesis de igualdad de medios cuando obtenga valores F inusualmente grandes y no rechazará la hipótesis de igualdad de medios cuando obtenga valores inusualmente pequeños (puede indicar algo , pero no que la población significa diferir).

Aquí hay una ilustración que puede ayudarlo a ver que solo queremos rechazar cuando F está en su cola superior:

Descripción de F para ANOVA, rechazar cuando la estadística F está en la cola superior

2) Pruebas F para la igualdad de varianza * (basado en las relaciones de varianza). Aquí, la relación de dos estimaciones de varianza muestral será grande si la varianza muestral del numerador es mucho mayor que la varianza en el denominador, y la relación será pequeña si la varianza muestral del denominador es mucho mayor que la varianza en el numerador.

Es decir, para probar si la proporción de las variaciones de población difiere de 1, querrá rechazar el valor nulo para los valores grandes y pequeños de F.

* (Dejando de lado el tema de la alta sensibilidad al supuesto de distribución de esta prueba (hay mejores alternativas) y también el problema de que si está interesado en la idoneidad de los supuestos de varianza igual de ANOVA, su mejor estrategia probablemente no sea una prueba formal)

Glen_b -Reinstate a Monica
fuente
2
La prueba de @TaylerJones Levene es algo más robusta. Browne-Forsythe es más robusto (pero pierde un poco de energía cerca de lo normal). Fligner-Killeen más de nuevo. En varias décadas, he usado Levene o Browne-Forsythe no más de dos veces cada uno. (Si se trataba de nuevo, probablemente algo así como Browne-Forsythe sería mi gusto bien, pero por lo general no tienen situaciones en las que tiene sentido para probar varios grupos varianzas por la igualdad.)
Glen_b -Reinstate Monica
2
F=METROSTRmiUNTMETROminorteTMETROSmiRROR1F
2
@tree parece que no entiendes algo acerca de las pruebas de hipótesis en general, pero es difícil estar seguro de dónde exactamente. Dices que entiendes que si obtienes una F grande que quieres rechazar y si obtienes una F pequeña, no quieres rechazarla. Los valores grandes de F son aquellos valores en la cola superior, mientras que los valores pequeños de F son aquellos valores en la cola inferior. Solo desea rechazar cuando los valores son grandes ... es decir, en la cola superior, pero no en la cola inferior. ¿Cómo no puedes ver que es uno de cola? Incluiré otra trama que podría ayudar.
Glen_b -Reinstate Monica
1
@jeramy Mis comentarios se refieren a las pruebas que se basan en relaciones de varianzas (específicamente, dije " Aquí, la relación de dos estimaciones de varianza muestrales será ..."). Las pruebas a las que se refiere buscan diferencias de ubicación en los residuos absolutos de alguna medida de ubicación para detectar diferencias en la dispersión; naturalmente, funcionan de la misma manera que funcionan las pruebas de diferencias de ubicación. Puesto que yo estaba tratando de mostrar un caso donde se le mira la cola inferior de la F, la Brown-Forsythe (y algunas otras pruebas que buscar las diferencias de localización en alguna medida de la desviación a las diferencias inferir spread) no sería de ayuda
Glen_b -Reinstala a Monica el
1
@jeramy He agregado algunas palabras para hacerlo más explícito. Es posible que desee señalar que, aunque Brown-Forsythe, Levene, etc. utilizan tablas F, la distribución de las estadísticas de la prueba no se distribuye realmente en F, incluso bajo los supuestos de la prueba.
Glen_b -Reinstate Monica
2

Debe entenderse que el objetivo de ANOVA es verificar si existe desigualdad de medios ... lo que implica que nos interesan las grandes variaciones entre muestras (y, por lo tanto, significa que las variaciones se calculan a partir de los medios) en comparación con las variaciones dentro de las muestras (nuevamente calculado a partir de la media muestral individual). Cuando las variaciones entre las muestras son pequeñas (lo que da como resultado que el valor F esté en el lado izquierdo) no importa, ya que esta diferencia es insignificante. Las variaciones entre muestras son importantes si es significativamente mayor que las variaciones internas y, en tal caso, el valor F sería mayor que 1, y por lo tanto en la cola derecha.

La única pregunta que queda es por qué poner todo el nivel de significación en la cola correcta y la respuesta es nuevamente similar. El rechazo ocurre solo cuando la relación F está en el lado derecho y nunca cuando la relación F está en el lado izquierdo. El nivel de significancia es la medida del error debido a limitaciones estadísticas. Como el rechazo ocurre solo a la derecha, todo el nivel de significación (riesgo de error de conclusión errónea) se mantiene a la derecha. ``

Prof Pradeep Pai
fuente
0

El valor esperado para el cuadrado medio (MS) dentro de los tratamientos es la varianza de la población, mientras que el valor esperado para la MS entre tratamientos es la varianza de la población MÁS la varianza del tratamiento. Por lo tanto, la relación de F = MSbetween / MSwithin siempre es mayor que 1, y nunca menor que 1.

Dado que la precisión de una prueba de 1 cola es mejor que una prueba de 2 colas, preferimos utilizar la prueba de 1 cola.

Jeff Cotter
fuente
No creo que la afirmación en la última oración de su primer párrafo sea correcta ... E (numerador)> E (denominador) no implica ese numerador> denominador.
Glen_b -Reinstala a Monica el
Aparte del punto de Glen_b, no estoy seguro acerca de "dado que la precisión de una prueba de 1 cola es mejor que una prueba de 2 colas, preferimos usar la prueba de 1 cola". ¿Puedes explicar a qué te refieres con esto? Hablar de precisión me parece perder el punto.
Silverfish
La precisión es igual a la mitad del intervalo de confianza. Para el mismo F-stat, una prueba de 1 cola rechazará la hipótesis nula con un valor p menor (la mitad, de hecho). Al revés, una prueba de 1 cola puede rechazar la hipótesis nula con valores más pequeños de la estadística F. Esto implica que una prueba de 1 cola puede detectar un efecto de tratamiento con menos muestras o con una variación de causa más común presente en la muestra. Esto hace que la prueba de 1 cola sea más deseable, si uno está buscando un efecto.
Jeff Cotter
Sí, una estadística F calculada puede ser inferior a 1.0. Sin embargo, la conclusión sería no rechazar la hipótesis nula de "sin efectos del tratamiento". Por lo tanto, no hay una región crítica en la cola inferior. Por lo tanto, la prueba F es una prueba de una cola superior. En ANOVA, el argumento lógico se basa en los valores esperados para MS_treat y MS_error. Bajo la hipótesis del "efecto sin tratamiento", H0: E (tratamiento de MS) = E (error de MS) = varianza de la población. Cualquier efecto significativo del tratamiento da como resultado HA: E (MS_treat)> E (MS_error). (Fuente cualquier texto de Montgomery que cubra ANOVA). Por lo tanto, HA implica una prueba de una cola.
Jeff Cotter