x,y∈Rnϕ
También quiero saber si
donde . Ahora, creo que no es igual, porque el uso de un núcleo maneja la situación en la que el clasificador lineal no funciona. Sé que proyecta x en un espacio infinito. Entonces, si sigue siendo lineal, no importa cuántas dimensiones tenga, svm aún no puede hacer una buena clasificación.
machine-learning
svm
kernel-trick
Vivian
fuente
fuente
Respuestas:
Puede obtener la ecuación explícita de para el núcleo gaussiano a través de la expansión de la serie Tailor de e x . Para simplificar la notación, suponga x ∈ R 1 :ϕ ex x∈R1
Esto también se discute con más detalle en estas diapositivas por Chih-Jen Lin de NTU (diapositiva 11 específicamente). Tenga en cuenta que en las diapositivas se usa como parámetro del núcleo.γ=12σ2
La ecuación en el OP solo se cumple para el núcleo lineal.
fuente
Para cualquier psd válido kernel , existe un mapa de características φ : X → H tal que k ( x , y ) = ⟨ φ ( x ) , φ ( y ) ⟩ H . De hecho, el espacio H y la incrustación φ no necesitan ser únicos, pero hay un par único importante ( H , φ ) conocido como el espacio de reproducción de Hilbert del núcleo (RKHS).k:X×X→R φ:X→H k(x,y)=⟨φ(x),φ(y)⟩H H φ (H,φ)
El RKHS es discutido por: Steinwart, Hush and Scovel, Una descripción explícita del espacio de reproducción Hilbert Spaces of Gaussian RBF Kernels , IEEE Transactions on Information Theory 2006 ( doi , citeeer pdf gratuito ).
Es algo complicado, pero se reduce a esto: defina como e n ( z ) : = √en:C→C
Sea una secuencia que abarca todas las d -tuplas de enteros no negativos; si d = 3 , quizás n ( 0 ) = ( 0 , 0 , 0 ) , n ( 1 ) = ( 0 , 0 , 1 ) , n ( 2 ) = ( 0 , 1 , 1 )n:N0→Nd0 d d=3 n(0)=(0,0,0) n(1)=(0,0,1) n(2)=(0,1,1) , y así. Denotan la componente ésimo de la i º tupla por n i j .j i nij
Entonces el componente número de φ ( x ) es ∏ d j = 1 e n i j ( x j ) . Entonces φ asigna vectores en R d a vectores complejos de dimensiones infinitas.i φ(x) ∏dj=1enij(xj) φ Rd
El problema con esto es que además tenemos que definir normas para estos vectores complejos de dimensión infinita de una manera especial; Vea el documento para más detalles.
Steinwart y col. También proporciono una integración más directa (a mi parecer) en , el espacio de Hilbert de funciones integrables al cuadrado de R d → R : Φ σ ( x ) = ( 2 σ ) dL2(Rd) Rd→R
These are not the only embeddings that work.
Another is based on the Fourier transform, which the celebrated paper of Rahimi and Recht (Random Features for Large-Scale Kernel Machines, NIPS 2007) approximates to great effect.
You can also do it using Taylor series: effectively the infinite version of Cotter, Keshet, and Srebro, Explicit Approximations of the Gaussian Kernel, arXiv:1109.4603.
fuente
It seems to me that your second equation will only be true ifϕ is a linear mapping (and hence K is a linear kernel). As the Gaussian kernel is non-linear, the equality will not hold (except perhaps in the limit as σ goes to zero).
fuente