Estoy ajustando un modelo de regresión lineal múltiple entre 4 variables categóricas (con 4 niveles cada una) y una salida numérica. Mi conjunto de datos tiene 43 observaciones.
La regresión me da los siguientes valores de la prueba para cada coeficiente de pendiente: . Por lo tanto, el coeficiente para el cuarto predictor es significativo en nivel de confianza.
Por otro lado, la regresión me da un valor de una prueba general de la hipótesis nula de que todos mis coeficientes de pendiente son iguales a cero. Para mi conjunto de datos, este valor es .
Mi pregunta: ¿cómo debo interpretar estos resultados? ¿Qué valor debo usar y por qué? ¿Es el coeficiente de la cuarta variable significativamente diferente de en el nivel de confianza α = .05 ?
He visto una pregunta relacionada, estadísticas de y en una regresión , pero había una situación opuesta: valores altos de test y valores bajos de -test . Honestamente, no entiendo por qué necesitaríamos una prueba además de una prueba para ver si los coeficientes de regresión lineal son significativamente diferentes de cero.
Respuestas:
No estoy seguro de que la multicolinealidad sea lo que está sucediendo aquí. Ciertamente podría ser, pero a partir de la información dada no puedo concluir eso, y no quiero comenzar allí. Mi primera suposición es que este podría ser un problema de comparaciones múltiples. Es decir, si ejecuta suficientes pruebas, algo aparecerá, incluso si no hay nada allí.
Una de las cuestiones que planteo es que el problema de las comparaciones múltiples siempre se discute en términos de examinar muchas comparaciones por pares, por ejemplo, ejecutar pruebas t en cada par de niveles únicos. (Para un tratamiento humorístico de las comparaciones múltiples, mire aquí ). Esto deja a las personas con la impresión de que ese es el único lugar donde aparece este problema. Pero esto simplemente no es cierto: el problema de las comparaciones múltiples aparece en todas partes. Por ejemplo, si ejecuta una regresión con 4 variables explicativas, existen los mismos problemas. En un experimento bien diseñado, los IV pueden ser ortogonales, pero las personas se preocupan habitualmente por usar correcciones de Bonferroni en conjuntos de contrastes ortogonales a priori, y no piensan dos veces en los ANOVA factoriales. En mi opinión, esto es inconsistente.
La prueba F global es lo que se llama una prueba 'simultánea'. Esto verifica si todos sus predictores no están relacionados con la variable de respuesta. La prueba simultánea proporciona cierta protección contra el problema de las comparaciones múltiples sin tener que ir por la ruta de Bonferroni que pierde energía. Desafortunadamente, mi interpretación de lo que informa es que tiene un hallazgo nulo.
Varias cosas mitigan esta interpretación. Primero, con solo 43 datos, es casi seguro que no tienes mucha potencia. Es muy posible que haya un efecto real, pero simplemente no puede resolverlo sin más datos. En segundo lugar, al igual que @andrea y @Dimitriy, me preocupa la conveniencia de tratar las variables categóricas de 4 niveles como numéricas. Es muy posible que esto no sea apropiado y podría tener cualquier número de efectos, incluida la disminución de su capacidad para detectar lo que realmente hay. Por último, no estoy seguro de que las pruebas de significación sean tan importantes como la gente cree. Unapags de .11 es algo baja; ¿Hay algo realmente allí? ¡tal vez! ¿Quién sabe? No hay una "línea brillante" en .05 que delimite los efectos reales de la mera apariencia.
fuente
Me gustaría sugerir que este fenómeno (de una prueba general no significativa a pesar de una variable individual significativa) puede entenderse como una especie de "efecto de enmascaramiento" agregado y que, aunque posiblemente podría surgir de variables explicativas multicolineales, no es necesario eso en absoluto. También resulta que no se debe a múltiples ajustes de comparación, tampoco. Por lo tanto, esta respuesta agrega algunas calificaciones a las respuestas que ya han aparecido, que por el contrario sugieren que la multicolinealidad o las comparaciones múltiples deben considerarse como los culpables.
Para establecer la plausibilidad de estas afirmaciones, generemos una colección de variables perfectamente ortogonales , tan no colineales como sea posible, y una variable dependiente que se determina explícitamente únicamente por el primero de los explicados (más una buena cantidad de error aleatorio independiente de todo lo demás). En
R
esto se puede hacer (de forma reproducible, si desea experimentar) comoNo es importante que las variables explicativas sean binarias; lo que importa es su ortogonalidad, que podemos verificar para asegurarnos de que el código funcione como se esperaba, lo que se puede hacer inspeccionando sus correlaciones. De hecho, la matriz de correlación es interesante : los coeficientes pequeños sugieren que
y
tiene poco que ver con cualquiera de las variables, excepto la primera (que es por diseño) y los ceros fuera de la diagonal confirman la ortogonalidad de las variables explicativas:Ejecutemos una serie de regresiones , usando solo la primera variable, luego las dos primeras, y así sucesivamente. Por brevedad y fácil comparación, en cada una solo muestro la línea para la primera variable y la prueba F general:
Observe cómo (a) la importancia de la primera variable apenas cambia, (a ') la primera variable sigue siendo significativa (p <.05) incluso cuando se ajusta para comparaciones múltiples ( por ejemplo , aplique Bonferroni multiplicando el valor p nominal por número de variables explicativas), (b) el coeficiente de la primera variable apenas cambia, pero (c) la importancia general crece exponencialmente, inflando rápidamente a un nivel no significativo.
Interpreto esto como una demostración de que incluir variables explicativas que son en gran medida independientes de la variable dependiente puede "enmascarar" el valor p general de la regresión. Cuando las nuevas variables son ortogonales a las existentes y a la variable dependiente, no cambiarán los valores p individuales. (Los pequeños cambios que se ven aquí se deben a que el error aleatorio agregado
y
está, por accidente, ligeramente correlacionado con todas las demás variables). Una lección que se puede extraer de esto es que la parsimonia es valiosa : el uso de tan pocas variables como sea necesario puede fortalecer la importancia de Los resultados.Estoy no diciendo que esto está sucediendo necesariamente para el conjunto de datos en la pregunta, de la que se ha revelado poco. Pero el conocimiento de que este efecto de enmascaramiento puede suceder debería informar nuestra interpretación de los resultados, así como nuestras estrategias para la selección de variables y la construcción de modelos.
fuente
rnorm(2^p, sd=2)
, tenga en cuenta que el primer argumento es el número de términos, no la media. La media por defecto es cero y, por lo tanto, no se ha especificado explícitamente.rnorm()
Con frecuencia, esto sucede cuando tiene un alto grado de colinealidad entre sus variables explicativas. El ANOVA F es una prueba conjunta de que todos los regresores son conjuntamente poco informativos. Cuando sus X contienen información similar, el modelo no puede atribuir el poder explicativo a un regresor u otro, pero su combinación puede explicar gran parte de la variación en la variable de respuesta.
fuente