Ejecuté una regresión con 4 variables, y todas son muy significativas estadísticamente, con valores T y (digo porque parece irrelevante incluir los decimales) que son muy altos y claramente significativos. Pero entonces el es solo .2284. ¿Estoy malinterpretando los valores t aquí para que signifiquen algo que no son? Mi primera reacción al ver los valores de t fue que sería bastante alto, pero ¿tal vez sea un alto ?
17
Respuestas:
Los valorest y R2 se usan para juzgar cosas muy diferentes. Los valores t se usan para juzgar la precisión de su estimación de los βi 's, pero R2 mide la cantidad de variación en su variable de respuesta explicada por sus covariables. Suponga que está estimando un modelo de regresión con n observaciones,
dondeϵi∼i.i.dN(0,σ2) , i=1,...,n .
Los valorest grandes (en valor absoluto) lo llevan a rechazar la hipótesis nula de que βi=0 . Esto significa que puede estar seguro de haber estimado correctamente el signo del coeficiente. Además, si |t| > 4 y tiene n>5 , entonces 0 no está en un intervalo de confianza del 99% para el coeficiente. El valor t para un coeficiente βi es la diferencia entre la estimación βi^ y 0 normalizada por el error estándar se{βi^} .
que es simplemente la estimación dividida por una medida de su variabilidad. Si tiene un conjunto de datos lo suficientemente grande, siempre tendrá valorest estadísticamente significativos (grandes) . Esto no significa necesariamente que sus covariables expliquen gran parte de la variación en la variable de respuesta.
Como @Stat mencionó,R2 mide la cantidad de variación en su variable de respuesta explicada por sus variables dependientes. Para obtener más información sobre R2 , vaya a wikipedia . En su caso, parece que tiene un conjunto de datos lo suficientemente grande como para estimar con precisión la βi 's, pero sus covariables hacen un mal trabajo al explicar y \ o predecir los valores de respuesta.
fuente
Para decir lo mismo que caburke pero de manera más simple, estás muy seguro de que la respuesta promedio causada por tus variables no es cero. Pero hay muchas otras cosas que no tienes en la regresión que hacen que la respuesta salte.
fuente
Podría ser que aunque sus predictores tengan una tendencia lineal en términos de su variable de respuesta (la pendiente es significativamente diferente de cero), lo que hace que los valores t sean significativos, pero la R al cuadrado es baja porque los errores son grandes, lo que significa que la variabilidad en sus datos son grandes y, por lo tanto, su modelo de regresión no se ajusta bien (las predicciones no son tan precisas)?
Solo mis 2 centavos.
Quizás esta publicación pueda ayudar: http://blog.minitab.com/blog/adventures-in-statistics/how-to-interpret-a-regression-model-with-low-r-squared-and-low-p- valores
fuente
Varias respuestas dadas son cercanas pero aún incorrectas.
"Los valores t se usan para juzgar la precisión de su estimación de los βi" es el que más me preocupa.
El valor T es simplemente una indicación de la probabilidad de ocurrencia aleatoria. Grande significa poco probable. Pequeño significa muy probable. Positivo y negativo no importa a la interpretación de probabilidad.
"R2 mide la cantidad de variación en su variable de respuesta explicada por sus covariables" es correcta.
(Hubiera comentado pero esta plataforma aún no me permite).
fuente
La única forma de lidiar con una pequeña R al cuadrado, verifica lo siguiente:
¿Cuántas covariables usaste para la estimación de tu modelo? Si hay más de 1 como en su caso, aborde el problema de la multicolinealidad de las covariables o simplemente ejecute la regresión nuevamente y esta vez sin la constante que se conoce como beta cero.
Sin embargo, si el problema persiste, haga una regresión gradual y seleccione el modelo con una R alta al cuadrado. Pero lo que no puedo recomendar es que provoca sesgos en las covariables.
fuente