Me pregunto qué diferencias hay entre la prueba t y ANOVA en regresión lineal.
- ¿Es una prueba t para probar si alguna de las pendientes e intersecciones tiene media cero, mientras que ANOVA prueba si todas las pendientes tienen media cero? ¿Es esta la única diferencia entre ellos?
- En la regresión lineal simple, es decir, donde solo hay una variable predictora, solo hay una pendiente para estimar. Entonces, ¿son equivalentes la prueba t y el ANOVA, y en caso afirmativo, cómo, dado que están usando estadísticas diferentes (la prueba t está usando el estadístico t y ANOVA está usando el estadístico F)?
regression
anova
t-test
Tim
fuente
fuente
Respuestas:
El modelo lineal general nos permite escribir un modelo ANOVA como modelo de regresión. Supongamos que tenemos dos grupos con dos observaciones cada uno, es decir, cuatro observaciones en un vector . Entonces, el modelo original sobreparamizado es , donde es la matriz de predictores, es decir, variables indicadoras codificadas de forma simulada: E ( y ) = X ⋆ β ⋆ X ⋆ ( μ 1 μ 1 μ 2 μ 2 ) = ( 1 1 0 1 1 0 1 0 1 1 0 1 ) ( β ⋆ 0 β ⋆ 1 β ⋆ 2 )y E(y)=X⋆β⋆ X⋆
Los parámetros no son identificables como porque tiene rango 2 ( no es invertible). Para cambiar eso, presentamos la restricción (contrastes de tratamiento), que nos da el nuevo modelo : X ⋆ ( X ⋆ ) ′ X ⋆ β ⋆ 1 = 0 E ( y ) = X β ( μ 1 μ 1 μ 2 μ 2 ) = ( 1 0 1 0 1 1 1 1((X⋆)′X⋆)−1(X⋆)′E(y) X⋆ (X⋆)′X⋆ β⋆1=0 E(y)=Xβ
Entonces, , es decir, adquiere el significado del valor esperado de nuestra categoría de referencia (grupo 1). , es decir, toma el significado de la diferencia a la categoría de referencia. Dado que con dos grupos, solo hay un parámetro asociado con el efecto de grupo, la hipótesis nula ANOVA (todos los parámetros de efecto de grupo son 0) es la misma que la hipótesis nula de peso de regresión (el parámetro de pendiente es 0).μ1=β0 β0 μ2=β0+β2 β2 μ2−μ1
Una prueba en el modelo lineal general prueba una combinación lineal de los parámetros contra un valor hipotético bajo la hipótesis nula. Al elegir , podemos probar la hipótesis de que (la prueba habitual para el parámetro de pendiente), es decir, aquí, . El estimador es , donde son Estimaciones de OLS para los parámetros. La estadística de prueba general para tales es:t ψ=∑cjβj ψ0 c=(0,1)′ β2=0 μ2−μ1=0 ψ^=∑cjβ^j β^=(X′X)−1X′y ψ
t N - R un n k ( X ) n - 2 t ( M 2 - M 1 ) 2 / 1t está -distribuido con df (aquí ). Cuando cuadras , obtienes , el estadístico de prueba de la prueba ANOVA para dos grupos ( para entre, para dentro de los grupos) que sigue una - distribución con 1 df.t n−Rank(X) n−2 t FbwFn-Rank(X)(M2−M1)2/1∥e∥2/(n−2)=SSb/dfbSSw/dfw=F F b w F n−Rank(X)
Con más de dos grupos, la hipótesis ANOVA (todos son simultáneamente 0, con ) se refiere a más de un parámetro y no puede expresarse como una combinación lineal , por lo que las pruebas no son equivalentes . 1 ≤ j ψβj 1≤j ψ
fuente
En 1, ANOVA generalmente evaluará las variables de factor y si la varianza entre grupos es o no significativa. Verá claramente la diferencia si su software permite variables indicadoras en una regresión: para cada ficticio obtendrá un valor p que indica si este grupo obtiene puntajes significativamente diferentes de 0 y, como consecuencia, significativamente diferentes al grupo de referencia o al valor de referencia aplicable . Por lo general, no verá hasta qué punto el indicador en sí es importante hasta que realice una prueba ANOVA.
Una prueba F es una prueba t al cuadrado. Por lo tanto, en 2, es lo mismo.
fuente