¿Cómo interpretar el error cuadrático medio (RMSE) frente a la desviación estándar?

21

Digamos que tengo un modelo que me da valores proyectados. Calculo RMSE de esos valores. Y luego la desviación estándar de los valores reales.

¿Tiene algún sentido comparar esos dos valores (varianzas)? Lo que creo es que si RMSE y la desviación estándar son similares / iguales, entonces el error / varianza de mi modelo es el mismo que realmente está sucediendo. Pero si ni siquiera tiene sentido comparar esos valores, entonces esta conclusión podría estar equivocada. Si mi pensamiento es cierto, ¿significa eso que el modelo es tan bueno como puede ser porque no puede atribuir lo que está causando la variación? Creo que la última parte es probablemente incorrecta o al menos necesita más información para responder.

jkim19
fuente

Respuestas:

22

Digamos que nuestras respuestas son y nuestros valores predichos son .y 1 , ... , y ny1,...,ynortey^1,...,y^norte

La varianza muestral (usando lugar de por simplicidad) es mientras que el MSE es . Por lo tanto, la varianza muestra muestra cuánto varían las respuestas en torno a la media, mientras que el MSE indica cuánto varían las respuestas en torno a nuestras predicciones. Si pensamos en la media global como el predictor más simple que jamás consideraríamos, al comparar el MSE con la varianza muestral de las respuestas podemos ver cuánta más variación hemos explicado con nuestro modelo. Esto es exactamente lo que hace el valor en regresión lineal.n - 1 1nortenorte-111norteyo=1norte(yyo-y¯)2 ˉ y R21norteyo=1norte(yyo-y^yo)2y¯R2

Considere la siguiente imagen: La varianza muestral de es la variabilidad alrededor de la línea horizontal. Si proyectamos todos los datos en el eje , podemos ver esto. El MSE es la distancia cuadrática media a la línea de regresión, es decir, la variabilidad alrededor de la línea de regresión (es decir, ). Entonces, la variabilidad medida por la varianza de la muestra es la distancia cuadrática promedio a la línea horizontal, que podemos ver que es sustancialmente mayor que la distancia cuadrada promedio a la línea de regresión. Y y iyyoYy^yoingrese la descripción de la imagen aquí

jld
fuente
5

En caso de que esté hablando del error cuadrático medio de predicción, aquí puede ser: dependiendo de cuántos ( p ) parámetros se estimen para la predicción, es decir, la pérdida del grado de libertad (DF).

yo(yyo-y^yo)2norte-pags,

La varianza muestral puede ser: donde es simplemente un estimador de la media de .

yo(yyo-y¯)2norte-1,
y¯yyo

Por lo tanto, puede considerar la última fórmula (varianza muestral) como un caso especial de la primera (MSE), donde y la pérdida de DF es 1 desde el cálculo medio es una estimación.y^yo=y¯y¯

O, si no le importa mucho cómo se predice , pero desea obtener un MSE de gran tamaño en su modelo, aún puede usar la siguiente fórmula para estimarlo, y^yo

yo(yyo-y^yo)2norte,

cuál es el más fácil de calcular.

Xiao-Feng Li
fuente
No tengo el privilegio de comentar la respuesta de @Chaconne, pero dudo si su última declaración tiene un error tipográfico, donde dice: "Entonces, la variabilidad medida por la varianza muestral es la distancia cuadrada promedio a la línea horizontal, que podemos ver es sustancialmente menor que la distancia cuadrada promedio a la línea ". Pero en la figura de su respuesta, la predicción de los valores de y con la línea es bastante precisa, lo que significa que el MSE es pequeño, al menos mucho mejor que la "predicción" con un valor medio.
Xiao-Feng Li
3

En ausencia de una mejor información, el valor medio de la variable objetivo puede considerarse una simple estimación de los valores de la variable objetivo, ya sea al intentar modelar los datos existentes o al predecir valores futuros. Este cálculo simple de la variable objetivo (es decir, los valores pronosticados son todos iguales a la media de la variable objetivo) se desactivará por un cierto error. Una forma estándar de medir el error promedio es la desviación estándar (SD) , , ya que la SD tiene la buena propiedad de ajustar una distribución en forma de campana (gaussiana) si la variable objetivo se distribuye normalmente. Por lo tanto, la SD puede considerarse la cantidad de error que ocurre naturalmente en las estimaciones de la variable objetivo.1norteyo=1norte(yyo-y¯)2Esto lo convierte en el punto de referencia que cualquier modelo necesita tratar de superar.

Hay varias formas de medir el error de una estimación del modelo ; entre ellos, el error cuadrático medio (RMSE) que mencionó, , es uno de los más popular. Conceptualmente es bastante similar a la SD: en lugar de medir qué tan lejos está un valor real de la media, utiliza esencialmente la misma fórmula para medir qué tan lejos está un valor real de la predicción del modelo para ese valor. Un buen modelo debería, en promedio, tener mejores predicciones que la estimación ingenua de la media para todas las predicciones. Por lo tanto, la medida de variación (RMSE) debería reducir la aleatoriedad mejor que la DE.1norteyo=1norte(yyo-y^yo)2

Este argumento se aplica a otras medidas de error, no solo a RMSE, sino que el RMSE es particularmente atractivo para la comparación directa con el SD porque sus fórmulas matemáticas son análogas.

Tripartio
fuente
Esta es la mejor respuesta porque explica cómo la comparación podría ser útil en lugar de solo describir las diferencias.
Hans