Les problèmes de
classification
supervisé ou
non-supervisé
nécessitent
d’approcher des
fonctions dans des
espaces de très
grande dimension. Eviter
la malédiction de
la
dimensionnalité
ouvre de nombreuses
questions en
statistiques,
probabilités,
analyse harmonique et
géométrie.
La malédiction de
la
dimensionalité,
même pour des
données
structurées sous
la forme de vecteurs
dans l’espace
réel de dimension
d, rend très
difficile
l’approximation ou la
classification de ces
données.
En théorie
d’approximation
conventionnelle la
construction des
opérateurs
d’approximation ou de
discrimination est
basée sur la
notion de voisinage. En
très grande
dimension, tous les
éventuels voisins
d’un point
d’intérêt
sont très
éloignés.
Il est donc
nécessaire de
penser à des
opérateurs
d’approximations
non-conventionnels, tels
que les réseaux
de neurones qui sont des
opérateurs
d’approximations
universels.
Ainsi, ma recherche se
situe à
l’intersection de
l’Informatique, des
Mathématiques
Appliquées et des
Sciences de
l’Ingénieur et
porte essentiellement
sur les domaines
ci-dessous
décrits par ordre
antéchronologique
:
1.
approches
quantiques
en apprentissage
non-supervisé de
représentations
de données en
très grande
dimension.
2.
clustering
multi-sources
et
hétérogènes
qui inclut entre autre
mes travaux sur le
clustering collaboratif
et multi-vue.
3.
modélisation
de données
évolutives
en particulier les
problèmes de
l’échantillonnage
irrégulier des
fonctions de plusieurs
variables
4.
apprentissage
non-supervisé
dans le cadre de
la
théorie
du transport optimal
5.
apprentisssage
de
représentations
hiérarchiques
de données
en très grande
dimension se situant sur
des
variétés
régulières
par morceaux.
6.
apprentisssage
de
représentations
de données en
très grande
dimension
et leurs applications,
à savoir : la
segmentation/compression/clustering
et le
débruitage/détection
des "outliers".