He visto muchos lugares donde tienen conjuntos de datos de entrada / salida donde primero crean una línea de regresión lineal, corrigen el sesgo y luego solo usan esos datos para su modelo. ¿No entendí qué es esta corrección de sesgo?
bias
bias-correction
usuario31820
fuente
fuente
Respuestas:
Aunque el enunciado del problema no es lo suficientemente preciso como para saber exactamente a qué tipo de corrección de sesgo se refiere, creo que puedo hablar al respecto en términos generales. Algunas veces un estimador puede estar sesgado. Esto simplemente significa que aunque puede ser un buen estimador, su valor esperado o promedio no es exactamente igual al parámetro. La diferencia entre el promedio del estimador y el valor del parámetro verdadero se llama sesgo. Cuando se sabe que un estimador está sesgado, a veces es posible, por otros medios, estimar el sesgo y luego modificar el estimador restando el sesgo estimado de la estimación original. Este procedimiento se llama corrección de sesgo. Se hace con la intención de mejorar la estimación. Si bien reducirá el sesgo, también aumentará la varianza.
Un buen ejemplo de corrección de sesgo exitosa son las estimaciones de corrección de sesgo bootstrap de la tasa de error de clasificación. La estimación de restitución de la tasa de error tiene un gran sesgo optimista cuando el tamaño de la muestra es pequeño. La rutina de carga se usa para estimar el sesgo de la estimación de resubstitución y dado que la estimación de resubstitución subestima la tasa de error, la estimación de sesgo se agrega a la estimación de restitución para obtener la estimación corregida de la tasa de error. Cuando el tamaño de la muestra es pequeño de 30 o menos, combinando ambas clases en un problema de dos clases, ciertas formas de la estimación de arranque (particularmente la estimación 632) proporcionan estimaciones más precisas de las tasas de error que la validación cruzada de dejar uno fuera (que es una muy estimación casi imparcial de la tasa de error).
fuente