El truco del kernel se usa en varios modelos de aprendizaje automático (por ejemplo, SVM ). Se introdujo por primera vez en el documento "Fundamentos teóricos del método de función potencial en el aprendizaje de reconocimiento de patrones" en 1964.
La definición de Wikipedia dice que es
un método para usar un algoritmo de clasificador lineal para resolver un problema no lineal mapeando las observaciones no lineales originales en un espacio de dimensiones superiores, donde el clasificador lineal se usa posteriormente; Esto hace que una clasificación lineal en el nuevo espacio sea equivalente a una clasificación no lineal en el espacio original.
Un ejemplo de un modelo lineal que se ha extendido a problemas no lineales es el kernel PCA . ¿Se puede aplicar el truco del núcleo a cualquier modelo lineal o tiene ciertas restricciones?
Respuestas:
El truco del kernel solo se puede aplicar a modelos lineales donde los ejemplos en la formulación del problema aparecen como productos de puntos (Support Vector Machines, PCA, etc.).
fuente
Dos referencias adicionales de B. Schölkopf :
y un sitio web dedicado a las máquinas kernel .
fuente
@ ebony1 da el punto clave (+1), fui coautor de un artículo que discutía cómo kernelizar modelos lineales generalizados, por ejemplo, regresión logística y regresión de Poisson, es bastante sencillo.
GC Cawley, GJ Janacek y NLC Talbot, máquinas de kernel generalizadas, en Actas de la Conferencia conjunta internacional IEEE / INNS sobre redes neuronales (IJCNN-2007), páginas 1732-1737, Orlando, Florida, EE. UU., 12-17 de agosto de 2007. ( www , pdf )
También escribí una caja de herramientas MATLAB (calidad de investigación) (lamentablemente sin instrucciones), que puedes encontrar aquí .
Ser capaz de modelar la distribución objetivo es bastante útil en la cuantificación de la incertidumbre, etc., por lo que es una adición útil (aunque bastante incremental) a los métodos de aprendizaje del núcleo.
fuente