Bonjour,
je viens de me rendre compte que si K(x,y) est une fonction noyau défine positive,est une matrice d'observations et M la matrice de Gram correspondante :
alors M est une matrice positive et symétrique, elle est donc diagonalisable dans une base orthonormée avec des valeurs propres positives et on peut écrire que
avec
si K est le kernel gaussien,contient les observations explicitement projetées sur une hypersphère de dimension N
ensuite on peut appliquer tous les algorithmes habituels (PCA, SVM, Kmeans, LDA, ICA ...) sursans avoir besoin de parler de KernelPCA, kernelSVM etc ...
c'est pédagogiquement intéressant : on voit tout de suite par exemple que quand le sigma du kernel gaussien tend vers 0, la matrice de Gram et par la même occasiontendent vers l'identité, et on se retrouve avec une information nulle dans l'espace de redescription
à part à faire des codes plus simples sous matlab (et dans certains cas plus rapides : par exemple dans le cas des Kmeans si on les relance 50 fois avec une initialisation différente, on a besoin de diagonaliser la matrice qu'une seule fois), à quoi ça peut servir d'autre ?
Renaud
-----