Dados los múltiples pliegues de validación cruzada de una regresión logística y las múltiples estimaciones resultantes de cada coeficiente de regresión, ¿cómo se debe medir si un predictor (o conjunto de predictores) es estable y significativo en función de los coeficientes de regresión? ? ¿Es esto diferente para la regresión lineal?
regression
model-selection
cross-validation
Jack Tanner
fuente
fuente
Respuestas:
Puede tratar los coeficientes de regresión resultantes de cada pliegue de prueba en el CV como observaciones independientes y luego calcular su confiabilidad / estabilidad utilizando el coeficiente de correlación intraclase (ICC) según lo informado por Shrout & Fleiss.
fuente
Supongo que en su validación cruzada divide los datos en dos partes, un conjunto de entrenamiento y un conjunto de prueba. En un pliegue, usted ajusta un modelo del conjunto de entrenamiento y lo usa para predecir la respuesta del conjunto de prueba, ¿verdad? Esto le dará una tasa de error para todo el modelo, no para un solo predictor.
No sé si es posible encontrar valores p para predictores usando algo como las pruebas F utilizadas en la regresión lineal ordinaria.
Puede intentar eliminar predictores del modelo utilizando, por ejemplo, la selección hacia atrás o hacia adelante si ese es su objetivo.
En lugar de CV, podría usar bootstrap para encontrar un intervalo de confianza para cada predictor y luego ver qué tan estable es.
¿Cuántos pliegues usa en su CV, es una validación cruzada de dejar uno?
Quizás más detalles sobre cuál es su objetivo ayudaría a responder esta pregunta.
fuente
glm(..., family="binomial")
R. ¿Qué hago con los intervalos para cada predictor a lo largo de las corridas de dejar una salida?