Me di cuenta de que al construir modelos de regresión forestal aleatorios, al menos en R
, el valor predicho nunca excede el valor máximo de la variable objetivo que se ve en los datos de entrenamiento. Como ejemplo, vea el código a continuación. Estoy construyendo un modelo de regresión para predecir en mpg
función de los mtcars
datos. Construyo OLS y modelos forestales aleatorios, y los uso para predecir mpg
un automóvil hipotético que debería tener muy buena economía de combustible. El OLS predice un nivel alto mpg
, como se esperaba, pero el bosque aleatorio no. También he notado esto en modelos más complejos. ¿Por qué es esto?
> library(datasets)
> library(randomForest)
>
> data(mtcars)
> max(mtcars$mpg)
[1] 33.9
>
> set.seed(2)
> fit1 <- lm(mpg~., data=mtcars) #OLS fit
> fit2 <- randomForest(mpg~., data=mtcars) #random forest fit
>
> #Hypothetical car that should have very high mpg
> hypCar <- data.frame(cyl=4, disp=50, hp=40, drat=5.5, wt=1, qsec=24, vs=1, am=1, gear=4, carb=1)
>
> predict(fit1, hypCar) #OLS predicts higher mpg than max(mtcars$mpg)
1
37.2441
> predict(fit2, hypCar) #RF does not predict higher mpg than max(mtcars$mpg)
1
30.78899
r
random-forest
Gaurav Bansal
fuente
fuente
Respuestas:
Como ya se mencionó en respuestas anteriores, el bosque aleatorio para árboles de regresión / regresión no produce predicciones esperadas para puntos de datos más allá del alcance del rango de datos de capacitación porque no pueden extrapolar (bueno). Un árbol de regresión consiste en una jerarquía de nodos, donde cada nodo especifica una prueba para llevar a cabo en un valor de atributo y cada nodo hoja (terminal) especifica una regla para calcular una salida pronosticada. En su caso, la observación de prueba fluye a través de los árboles hasta los nodos de las hojas, indicando, por ejemplo, "si x> 335, entonces y = 15", que luego se promedian por bosque aleatorio.
Aquí hay un script R que visualiza la situación con bosque aleatorio y regresión lineal. En el caso de un bosque aleatorio, las predicciones son constantes para los puntos de datos de prueba que están por debajo del valor x de datos de entrenamiento más bajo o por encima del valor x de datos de entrenamiento más alto.
fuente
No hay forma de que un bosque aleatorio se extrapole como lo hace un OLS. La razón es simple: las predicciones de un bosque aleatorio se realizan promediando los resultados obtenidos en varios árboles. Los propios árboles generan el valor medio de las muestras en cada nodo terminal, las hojas. Es imposible que el resultado esté fuera del rango de los datos de entrenamiento, porque el promedio siempre está dentro del rango de sus componentes.
En otras palabras, es imposible que un promedio sea mayor (o menor) que cada muestra, y las regresiones de los bosques aleatorios se basan en el promedio.
fuente
Los árboles de decisión / Forrest aleatorio no pueden extrapolar fuera de los datos de entrenamiento. Y aunque OLS puede hacer esto, tales predicciones deben considerarse con precaución; ya que el patrón identificado puede no continuar fuera del rango observado.
fuente