Noyau de Mahalanobis pour la classification de données en grande dimension

old_uid9915
titleNoyau de Mahalanobis pour la classification de données en grande dimension
start_date2011/05/05
schedule15h30
onlineno
location_infosalle Mont-Blanc DIS
detailsOrganisé par : jocelyn chanussot
summary"Malédiction de la dimensionalité!" C'est ainsi que R. Belman décrit en 1961 les difficultés rencontrées en optimisation lorsque la dimension de l'espace augmente. Il cherchait à optimiser une fonction par une recherche exhaustive dans un hypercube discrétisé de manière régulière: le nombre d'évaluations dépassait rapidement le trillion (10^{18}). De nos jours, même si les méthodes d'optimisation ont évolué, les problèmes liés à la dimension restent d'actualité. Une grande partie des traitements réalisés en dimension faible ne sont simplement pas utilisables en grande dimension. Par exemple, les méthodes statistiques sont très fortement limitées par les étapes d'estimation ce qui conduit en général à l'utilisation de modèles (trop) simples. Par ailleurs, la notion de plus proche/lointain voisin devient inopérante ce qui pose problème pour les approches locales (K-NN, SVM et noyau Gaussien, graphe laplacien ...). Dans cette exposé, nous nous intéresserons à la classification de données en grande dimension. Nous détaillerons la construction d'une fonction noyau basée sur un modèle statistique parcimonieux pour la classification. Ce modèle pré-suppose que chaque classe occupe un sous espace particulier dans l'espace original, cet espace pouvant être caractérisé par un nombre réduit de paramètres. Les propriétés et problèmes de la grande dimension seront rappelés dans la première partie de l'exposé. Puis la construction du noyau sera présentée. Enfin des résultats de classification seront présentés sur des données simulées et réelles.
responsiblesLoevenbruck, Welby