Hastie y col. "Los elementos del aprendizaje estadístico" (2009) consideran un proceso de generación de datos con E ( ε ) = 0 y Var ( ε ) = σ 2 ε .
Presentan la siguiente descomposición de sesgo-varianza del error de pronóstico cuadrado esperado en el punto (p. 223, fórmula 7.9): Err ( x 0 ) En mi propio trabajo no especifico f (⋅), pero tomo una proyección arbitraria y en su lugar (si es relevante). Pregunta:Estoy buscando un término para Bias2+Varianza o, más precisamente, Err(x0)-Error irreducible.
variance
forecasting
prediction
terminology
bias
Richard Hardy
fuente
fuente
Respuestas:
Propongo un error reducible . Esta es también la terminología adoptada en el párrafo 2.1.1 de Gareth, Witten, Hastie & Tibshirani, An Introduction to Statistical Learning , un libro que es básicamente una simplificación de ESL + algunos laboratorios de código R muy interesantes (excepto por el hecho de que usan
attach
, pero, oye, nadie es perfecto). A continuación enumeraré las razones de los pros y los contras de esta terminología.fuente
¿Por qué no me gusta el término "reducibilidad"? Parece una tautología autorreferencial como en el Axioma de la reducibilidad . Estoy de acuerdo con Russell 1919 en que "no veo ninguna razón para creer que el axioma de la reducibilidad sea lógicamente necesario, que es lo que significaría decir que es cierto en todos los mundos posibles. La admisión de este axioma en un sistema de la lógica es, por lo tanto, un defecto ... una suposición dudosa ".
Es notable que, a medida que se cae la primera muestra a los cinco minutos, la física mejora como lo hace secuencialmente a medida que se continúan bajando las primeras muestras a 60 minutos. Esto muestra que aunque el GV finalmente forma un buen modelo para la concentración plasmática de la droga, algo más está sucediendo durante los primeros tiempos.
fuente