¿Es la tasa de error una función convexa del parámetro de regularización lambda?

11

Al elegir el parámetro de regularización lambda en Ridge o Lasso, el método recomendado es probar diferentes valores de lambda, medir el error en el conjunto de validación y finalmente elegir el valor de lambda que devuelve el error más bajo.

No está claro para mí si la función f (lambda) = error es convexa. ¿Podría ser así? Es decir, esta curva podría tener más de un mínimo local (lo que implicaría que encontrar un mínimo del Error en alguna región de lambda no excluye la posibilidad de que en alguna otra región haya una lambda que devuelva un Error aún más pequeño)

ingrese la descripción de la imagen aquí

Su consejo será apreciado

rf7
fuente

Respuestas:

11

La pregunta original preguntaba si la función de error debe ser convexa. No, no lo hace. El análisis presentado a continuación tiene la intención de proporcionar una idea e intuición sobre esto y la pregunta modificada, que pregunta si la función de error podría tener múltiples mínimos locales.

Intuitivamente, no tiene que haber ninguna relación matemáticamente necesaria entre los datos y el conjunto de entrenamiento. Deberíamos poder encontrar datos de entrenamiento para los cuales el modelo inicialmente es pobre, mejora con cierta regularización y luego empeora nuevamente. La curva de error no puede ser convexa en ese caso, al menos no si hacemos que el parámetro de regularización varíe de a .0

¡Tenga en cuenta que convexo no es equivalente a tener un mínimo único! Sin embargo, ideas similares sugieren que son posibles múltiples mínimos locales: durante la regularización, primero el modelo ajustado podría mejorar para algunos datos de entrenamiento sin cambiar apreciablemente para otros datos de entrenamiento, y luego mejorará para otros datos de entrenamiento, etc. La combinación de dichos datos de entrenamiento debería producir múltiples mínimos locales. Para mantener el análisis simple, no intentaré mostrar eso.

Editar (para responder a la pregunta modificada)

Tenía tanta confianza en el análisis presentado a continuación y la intuición detrás de esto que empecé a buscar un ejemplo de la manera más cruda posible: generé pequeños conjuntos de datos aleatorios, ejecuté un Lazo sobre ellos, calculé el error cuadrado total para un pequeño conjunto de entrenamiento, y trazó su curva de error. Algunos intentos produjeron uno con dos mínimos, que describiré. Los vectores están en la forma para las características x 1 y x 2 y la respuesta y .(x1,x2,y)x1x2y

Datos de entrenamiento

(1,1,0.1), (2,1,0.8), (1,2,1.2), (2,2,0.9)

Datos de prueba

(1,1,0.2), (1,2,0.4)

glmnet::glmmetRλ1/λ

Una curva de error con mínimos locales múltiples

Figura


Análisis

β=(β1,,βp)xiyi

  1. λ[0,)λ=0

  2. β^λβ^

  3. λβ^0

  4. xβ^0y^(x)=f(x,β^)0

  5. yy^L(y,y^)|y^y|L(|y^y|)

(4)

β^(0)(x0,y0)f(x0,β^(0))0x0y0=f(x0,β^(0))/2

e:λL(y0,f(x0,β^(λ))

  1. e(0)=L(y0,f(x0,β^(0))=L(y0,2y0)=L(|y0|)y0

  2. limλe(λ)=L(y0,0)=L(|y0|)ß ( λ ) 0 y ( x 0 ) 0λβ^(λ)0y^(x0)0

Por lo tanto, su gráfico conecta continuamente dos puntos finales igualmente altos (y finitos).

Figura que muestra un gráfico posible de $ e $.

Cualitativamente, hay tres posibilidades:

  • La predicción para el conjunto de entrenamiento nunca cambia. Esto es poco probable: casi cualquier ejemplo que elija no tendrá esta propiedad.

  • Algunas predicciones intermedias para son peores que al inicio o en el límite . Esta función no puede ser convexa.λ = 0 λ 0<λ<λ=0λ

  • Todas las predicciones intermedias se encuentran entre y . La continuidad implica que habrá al menos un mínimo de , cerca del cual debe ser convexo. Pero dado que aproxima a una constante finita asintóticamente, no puede ser convexo para suficientemente grande .2 y 0 e e e ( λ ) λ02y0eee(λ)λ

La línea discontinua vertical en la figura muestra dónde cambia el gráfico de convexo (a su izquierda) a no convexo (a la derecha). (También hay una región de no convexidad cerca de en esta figura, pero este no será necesariamente el caso en general).λ0

whuber
fuente
Gracias por tu elaborada respuesta. Si es posible, revise la pregunta tal como la edité y actualice su respuesta.
rf7
Gran respuesta (+1). En la práctica, creo que a menudo no hay tan pocos puntos de entrenamiento y datos de prueba. ¿Cambia la conclusión de esta respuesta cuando hay suficientes puntos de entrenamiento y datos de prueba extraídos de la misma distribución (fija y suficientemente regular)? En particular, en este escenario, ¿existe un mínimo local único con alta probabilidad?
user795305
@Ben No es el número de puntos de prueba lo que importa: este resultado depende completamente de la distribución de puntos de prueba en relación con la distribución de puntos de entrenamiento. Por lo tanto, la cuestión de "con alta probabilidad" no será responsable sin hacer algunas suposiciones específicas sobre la distribución multivariada de las variables regresoras. Además, con muchas variables en juego, este fenómeno de mínimos locales múltiples será mucho más probable. Me sospechar que la selección aleatoria de un conjunto de ensayo grande (con tantas veces como muchas observaciones como variables) pueden a menudo tienen una única min mundial.
whuber
1
@whuber Gracias! Estoy de acuerdo: la distribución (verdadera) entre los puntos de entrenamiento y prueba debe ser la misma, y ​​debe haber suficientes muestras para que las distribuciones empíricas del entrenamiento y el conjunto de prueba tengan un acuerdo. (Parece que lo expresé mal en mi comentario anterior). Por ejemplo, si tiene una distribución normal conjunta (con covarianza no degenerada), sospecho que la probabilidad de que la curva de error tenga un min local único converge a 1 (si, por ejemplo, hay muestras en el conjunto de entrenamiento y prueba con con fijo (o incluso aumentando lentamente en relación con ))n n p n(x,y)nnpn
user795305
0

Esta respuesta se refiere específicamente al lazo (y no es válido para la regresión de cresta).

Preparar

Supongamos que tenemos covariables que estamos usando para modelar una respuesta. Supongamos que tenemos puntos de datos de entrenamiento puntos de datos de validación.pnm

Deje que la entrada de entrenamiento sea y la respuesta sea . Usaremos el lazo en estos datos de entrenamiento. Es decir, ponga una familia de coeficientes estimados a partir de los datos de entrenamiento. qué usar como nuestro estimador en función de su error en un conjunto de validación, con la entrada y la respuesta . ConX(1)Rn×py(1)Rn

(1)β^λ=argminβRpy(1)X(1)β22+λβ1,
β^λX(2)Rm×py(2)Rm
(2)λ^=argminλR+y(2)X(2)β^λ22,
nos interesa estudiar la función de error que da lugar a nuestro estimador basado en datos .e(λ)=y(2)X(2)β^λ22β^λ^

Cálculo

Ahora, vamos a calcular la segunda derivada del objetivo en la ecuación , sin hacer ningún supuestos de distribución en la 's o ' s. Utilizando la diferenciación y alguna reorganización, calculamos (formalmente) que (2)Xy

2λ2y(2)X(2)β^λ22=λ{2y(2)TX(2)λβ^λ+2β^λTX(2)TX(2)λβ^λ}=2y(2)TX(2)2λ2β^λ+2(β^λ)TX(2)TX(2)2λ2β^λ+2λβ^λTX(2)TX(2)Tλβ^λ=2{(y(2)X(2)β^λ)T2λ2β^λX(2)λβ^λ22}.
Como es lineal por partes para (para es el conjunto finito de nudos en la ruta de la solución del lazo), la derivada es constante por partes y es cero para todos . Por lo tanto, una función no negativa de .β^λλKKλβ^λ2λ2β^λλK
2λ2y(2)X(2)β^λ22=2X(2)λβ^λ22,
λ

Conclusión

Si suponemos además que se extrae de una distribución continua independiente de , el vector casi seguro para . Por lo tanto, la función de error tiene una segunda derivada en que es (casi seguramente) estrictamente positiva. Sin embargo, sabiendo que es continuo, sabemos que el error de validación es continuo.X(2){X(1),y(1)}X(2)λβ^λ0λ<λmaxe(λ)RKβ^λe(λ)

Finalmente, del lazo dual, sabemos que disminuye monotónicamente a medida que aumenta. Si podemos establecer que también es monótono, entonces sigue la fuerte convexidad de . Sin embargo, esto se cumple con una probabilidad cercana a uno si . (Completaré los detalles aquí pronto).X(1)β^λ22λX(2)β^λ22e(λ)L(X(1))=L(X(2))

usuario795305
fuente
1
Solo confía en que es una función lineal continua por partes de para concluir que es estrictamente convexo. Veamos si esa deducción es generalmente válida. Una de esas funciones es(donde denota redondeo al entero más cercano). Supongamos que y , de modo que . Esta función de error tiene infinitos mínimos locales. No es convexo, ¡solo es convexo en todas partes, excepto en puntos aislados! Eso me lleva a creer que estás haciendo suposiciones adicionales no declaradas. β^λe^β^(λ)=|λ[λ]|[]y(2)=0X(2)=1e^(λ)=β^(λ)2
whuber
@whuber Buen punto! ¡Gracias! Editaré esta publicación más pronto.
user795305