Preguntas etiquetadas con cart

10
Tamaño del árbol en el impulso del árbol degradado

El refuerzo del árbol de gradiente propuesto por Friedman utiliza árboles de decisión con Jnodos terminales (= hojas) como aprendices básicos. Hay varias formas de hacer crecer un árbol con Jnodos exactos, por ejemplo, uno puede hacer crecer el árbol de una manera profunda o de primera, ... ¿Hay...

10
¿Por qué Anova () y drop1 () proporcionaron diferentes respuestas para GLMM?

Tengo un GLMM de la forma: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Cuando lo uso drop1(model, test="Chi"), obtengo resultados diferentes a los que uso Anova(model, type="III")del paquete del automóvil o summary(model). Estos dos...

10
¿En qué implementaciones se requiere la escala variable de los árboles de decisión y la normalización (ajuste) de las variables (características)?

En muchos algoritmos de aprendizaje automático, el escalado de características (también conocido como escalado variable, normalización) es un paso de preprocesamiento común Wikipedia - Escalado de características - esta pregunta estaba cerrada Pregunta # 41704 - ¿Cómo y por qué funcionan la...

10
R regresión lineal variable categórica valor "oculto"

Este es solo un ejemplo que he encontrado varias veces, por lo que no tengo ningún dato de muestra. Ejecutar un modelo de regresión lineal en R: a.lm = lm(Y ~ x1 + x2) x1Es una variable continua. x2es categórico y tiene tres valores, por ejemplo, "Bajo", "Medio" y "Alto". Sin embargo, la salida...

9
¿Los estimadores de árboles SIEMPRE están sesgados?

Estoy haciendo una tarea sobre árboles de decisión, y una de las preguntas que tengo que responder es "¿Por qué los estimadores están construidos a partir de árboles sesgados, y cómo ayuda el embolsado a reducir su variación?". Ahora, sé que los modelos sobreajustados tienden a tener un sesgo...

9
¿Cómo elegir el número de divisiones en rpart ()?

He utilizado rpart.controlpara minsplit=2, y obtuvo los siguientes resultados de rpart()la función. Para evitar sobreajustar los datos, ¿necesito usar splits 3 o splits 7? ¿No debería usar splits 7? Por favor hagamelo saber. Variables realmente utilizadas en la construcción de árboles: [1] ct_a...

8
¿Rpart utiliza divisiones multivariadas por defecto?

Sé que la rpartfunción de R mantiene los datos que necesitaría para implementar una división multivariada, pero no sé si en realidad está realizando divisiones multivariadas. Intenté investigarlo en línea mirando los rpartdocumentos, pero no veo ninguna información de que pueda hacerlo o lo esté...

8
Árbol de decisión con variable de entrada continua

Se sabe que al construir un árbol de decisión, dividimos la variable de entrada exhaustivamente y encontramos la "mejor" división por enfoque de prueba estadística o enfoque de función de impureza. Mi pregunta es cuando usamos una variable continua como la variable de entrada (solo unos pocos...

8
Sesgo de selección en los árboles.

En el modelo predictivo aplicado de Kuhn y Johnson, los autores escriben: Finalmente, estos árboles sufren de sesgo de selección: los predictores con un mayor número de valores distintos se ven favorecidos sobre los predictores más granulares (Loh y Shih, 1997; Carolin et al., 2007; Loh, 2010)....