Se estima que los estimadores de regresión penalizados como LASSO y ridge corresponden a estimadores bayesianos con ciertos antecedentes. Supongo (como no sé lo suficiente sobre las estadísticas bayesianas) que para un parámetro de ajuste fijo, existe un previo concreto correspondiente.
Ahora un frecuentista optimizaría el parámetro de ajuste mediante validación cruzada. ¿Existe un equivalente bayesiano de hacerlo, y se utiliza en absoluto? ¿O el enfoque bayesiano fija efectivamente el parámetro de ajuste antes de ver los datos? (Supongo que esto último sería perjudicial para el rendimiento predictivo).
bayesian
lasso
ridge-regression
Richard Hardy
fuente
fuente
Respuestas:
Si, eso es correcto. Siempre que tengamos un problema de optimización que implique la maximización de la función log-verosimilitud más una función de penalización en los parámetros, esto es matemáticamente equivalente a la maximización posterior donde la función de penalización se considera el logaritmo de un núcleo anterior. † Para ver esto, supongamos que tenemos una función de penalización w usando un parámetro de ajuste λ . La función objetivo en estos casos se puede escribir como:† w λ
donde usamos el anteriorπ(θ|λ)∝exp(−w(θ|λ)) . Observe aquí que el parámetro de ajuste en la optimización se trata como un hiperparámetro fijo en la distribución anterior. Si está realizando una optimización clásica con un parámetro de ajuste fijo, esto es equivalente a realizar una optimización bayesiana con un hiperparámetro fijo. Para la regresión LASSO y Ridge, las funciones de penalización y los equivalentes anteriores correspondientes son:
El primer método penaliza los coeficientes de regresión de acuerdo con su magnitud absoluta, que es el equivalente a imponer un Laplace ubicado previamente en cero. El último método penaliza los coeficientes de regresión de acuerdo con su magnitud al cuadrado, que es el equivalente a imponer un previo normal ubicado en cero.
Mientras el método frecuentista se pueda plantear como un problema de optimización (en lugar de decir, incluyendo una prueba de hipótesis, o algo así), habrá una analogía bayesiana con un equivalente anterior. Del mismo modo que los frecuentistas pueden tratar el parámetro de ajusteλ como desconocido y estimar esto a partir de los datos, el Bayesiano puede tratar de manera similar el hiperparámetro λ como desconocido. En un análisis bayesiano completo, esto implicaría dar al hiperparámetro su propio previo y encontrar el máximo posterior bajo este previo, lo que sería análogo a maximizar la siguiente función objetivo:
De hecho, este método se utiliza en el análisis bayesiano en los casos en que el analista no se siente cómodo eligiendo un hiperparámetro específico para su previo, y busca hacer que el anterior sea más difuso al tratarlo como desconocido y darle una distribución. (Tenga en cuenta que esta es solo una forma implícita de dar una forma más difusa antes del parámetro de interésθ .)
Antes de proceder a analizar la validación cruzada deK -pliegues, primero vale la pena señalar que, matemáticamente, el método de máximo a posteriori (MAP) es simplemente una optimización de una función del parámetro θ y los datos x . Si está dispuesto a permitir antecedentes inadecuados, el alcance encapsula cualquier problema de optimización que implique una función de estas variables. Por lo tanto, cualquier método frecuente que pueda enmarcarse como un problema de optimización único de este tipo tiene una analogía MAP, y cualquier método frecuente que no pueda enmarcarse como una optimización única de este tipo no tiene una analogía MAP.
En la forma de modelo anterior, que involucra una función de penalización con un parámetro de sintonización, la validación cruzadaK -doble se usa comúnmente para estimar el parámetro de sintonización λ . Para este método de particionar los datos del vector x en K sub-vectores x1,...,xK . Para cada uno de sub-vector k=1,...,K ajusta el modelo con los datos de "entrenamiento" x−k y luego mide el ajuste del modelo con los datos de "prueba" xk . In each fit you get an estimator for the model parameters, which then gives you predictions of the testing data, which can then be compared to the actual testing data to give a measure of "loss":
The loss measures for each of theK "folds" can then be aggregated to get an overall loss measure for the cross-validation:
One then estimates the tuning parameter by minimising the overall loss measure:
We can see that this is an optimisation problem, and so we now have two seperate optimisation problems (i.e., the one described in the sections above forθ , and the one described here for λ ). Since the latter optimisation does not involve θ , we can combine these optimisations into a single problem, with some technicalities that I discuss below. To do this, consider the optimisation problem with objective function:
whereδ>0 is a weighting value on the tuning-loss. As δ→∞ the weight on optimisation of the tuning-loss becomes infinite and so the optimisation problem yields the estimated tuning parameter from K -fold cross-validation (in the limit). The remaining part of the objective function is the standard objective function conditional on this estimated value of the tuning parameter. Now, unfortunately, taking δ=∞ screws up the optimisation problem, but if we take δ to be a very large (but still finite) value, we can approximate the combination of the two optimisation problems up to arbitrary accuracy.
From the above analysis we can see that it is possible to form a MAP analogy to the model-fitting andK -fold cross-validation process. This is not an exact analogy, but it is a close analogy, up to arbitrarily accuracy. It is also important to note that the MAP analogy no longer shares the same likelihood function as the original problem, since the loss function depends on the data and is thus absorbed as part of the likelihood rather than the prior. In fact, the full analogy is as follows:
whereL∗x(θ,λ)∝exp(ℓx(θ)−δL(x,λ)) and π(θ,λ)∝exp(−w(θ|λ)) , with a fixed (and very large) hyper-parameter δ .
fuente
Indeed most penalized regression methods correspond to placing a particular type of prior to the regression coefficients. For example, you get the LASSO using a Laplace prior, and the ridge using a normal prior. The tuning parameters are the “hyperparameters” under the Bayesian formulation for which you can place an additional prior to estimate them; for example, for in the case of the ridge it is often assumed that the inverse variance of the normal distribution has aχ2 prior. However, as one would expect, resulting inferences can be sensitive to the choice of the prior distributions for these hyperparameters. For example, for the horseshoe prior there are some theoretical results that you should place such a prior for the hyperparameters that it would reflect the number of non-zero coefficients you expect to have.
A nice overview of the links between penalized regression and Bayesian priors is given, for example, by Mallick and Yi.
fuente