Erwan Le Pennec

Densité conditionnelle et extensions des mélanges de gaussiennes

en collaboration avec S. Cohen, L. Montuelle et E. Derman

Ce travail est motivé par une application à la segmentation d'images hyperspectrales. On y utilise un principe issue de la classification non supervisée en modélisant ces images par un mélange de gaussiennes spatialisé: la loi du spectre $Y$ observé au pixel $x$ est modélisée par une loi de densité $$ \sum_{k=1}^K \pi_k(x) \mathcal{N}_{\mu_k,\Sigma_k}(y) $$ où $K$ donne le nombre de classes, $\mathcal{N}_{\mu_k,\Sigma_k}(y)$ désigne la densité d'une loi gaussienne de moyenne $\mu_k$ et de matrice de covariance $\Sigma_k$ et $\pi_k(x)$ donne la proportion de la $k$ième composante du mélange au pixel $x$.

Tous ces paramètres sont estimés par un principe de maximum de vraisemblance pénalisé et permettent d'attribuer une classe à chaque pixel encore une fois par maximum de vraisemblance $$ \widehat{k}(x) = \mathop{\mathrm{argmax}}_{1 \leq k \leq \widehat{K}}\ \widehat{\pi}_k(x) \mathcal{N}_{\widehat{\mu_k},\widehat{\Sigma_k}}(y). $$ Ceci est possible en pratique en imposant une structure constante par morceaux pour les proportions et en combinant l'algorithme EM avec des principes de programmation dynamique.

Cette approche est justifiée théoriquement par des résultats plus généraux d'estimation de densités conditionnelles par maximum de vraisemblance pénalisé obtenus dans un cadre de sélection de modèles.

Avec L. Montuelle, nous avons étudié une extension, un modèle de mélange de régressions gaussiennes, dans lequel les moyennes et les proportions peuvent dépendre de covariables.

Avec E. Derman, nous avons étudié l'estimation d'un mélange de multinomiales dans lequel le nombre d'observations varient.

Publications

Exposés