Majeure Mathématiques, Image, Data

Les méthodes d’imagerie sont au cœur de nombreuses applications, allant de l’imagerie médicale à la biologie en passant par des problématiques environnementales. Ces approches font appels à des techniques mathématiques particulières, que cette majeure propose de découvrir. Les liens fructueux avec d’autres domaines des mathématiques, apprentissage statistique et machine learning en particulier, seront mis en avant tout au long de l’année.

Les cours de cette majeure sont associés à
– une séquence de remise à niveau
– un tronc commun au premier semestre
– deux autres cours à choisir parmi ceux proposés dans les autres majeures (voir la page d’accueil pour la liste complète).

Approches géométriques pour les images et les formes

Images, formes et nuages de points : types, acquisition, défauts d’acquisition

Grandes classes de problèmes étudiés (débruitage, segmentation, classification, reconstruction, compression…)

Modèle de variation totale : fondements mathématiques, applications, méthodes numériques

Longueur, aire, courbures : définitions, applications, méthodes numériques

Analyse spectrale des images et des formes, et applications

Réseaux de neurones (profonds, hybrides, spécialisés) : structures et principes d’apprentissage, applications (en particulier géométriques) au traitement d’images, de formes et de nuages de points.

Méthodes variationnelles pour les problèmes inverses en imagerie médicale

Objectif

L’objectif de ce cours concerne la résolution numérique de problèmes inverses issus de l’imagerie médicale avec des exemples linéaires (Rayon X, transformée de Radon) et non linéaires (élastographie, imagerie thermo-acoustique ou photo-acoustique, imagerie par impédance électrique). Le caractère bien/mal posé bien/mal conditionné sera étudié et des techniques de régularisation basées sur des approches variationnelles seront présentées.  Des algorithmes de résolution d’un problème inverse seront étudiés et implémentés.

Mots clef

– Problèmes inverses en imagerie médicale

– Approche variationnelle

– Méthode de l’état adjoint

– Décomposition en valeurs singulières

– Régularisation de Tikhonov

– Régularisation lisse (H1) et non lisse (variation totale)

Compétences visées par l’AF 

Connaître des exemples de problèmes inverses rencontrés en imagerie médicale

– Savoir proposer un algorithme de résolution de problèmes inverses linéaires et non linéaires

– Maîtriser différentes techniques  de  régularisations variationnelles

– Savoir implémenter (sous Matlab) efficacement les différents algorithmes

– Savoir s’approprier un article de recherche en imagerie 

Programme

1. Modélisation mathématique en imagerie médicale

2. Optimisation et méthode de l’état adjoint

3. Décomposition en valeurs singulières et régularisation de Tichonov

4. Régularisation de type H1 et variation totale

5  Application à la transformée de Radon et à l’EIT et/ou la thermo-accoustique 

Travail en autonomie

– Travail sur article de recherche, appropriation du modèle mathématique et numérique

Parcimonie et grande dimension

La parcimonie et la convexité sont des phénomènes importants et récurrents en Machine Learning et en statistique. Dans ce cours, on s’intéressera à la théorie mathématiques associées à des méthodes performantes basées sur des relaxations convexes: méthodes de régularisation L1 en statistique et traitement de signal, minimisation de la norme nucléaire en complétion de matrice, K-means et clustering de graphes. Toutes ces approches sont dites ‘Semi-Definite representable (SDP)’ et utilisables en pratiques. La partie théorique du cours portera sur les performances de ces approches et des algorithmes associées sous une hyptohèse de parcimonie. La partie pratique présentera les solvers SDP classiques pour ces types de problèmes d’apprentissage.

Mots-clés:  régularisation L1; Complétion de matrices; K-Means; Clustering de graphes; Semi-Definite Programming;

Réseaux de neurones

L’objectif de ce cours est double:

  • Présenter les principes des modèles de réseaux neuronaux profonds, ainsi que les moyens de les implémenter pour résoudre des problèmes de classification et régression. 
  • Proposer un aperçu des bases mathématiques des techniques d’apprentissage modernes basée sur ces réseaux.

Le cours commencera avec la propriété d’approximation universelle des réseaux de neurones. Nous verrons ensuite pourquoi la profondeur améliore la capactié des réseaux à donner des approximations précises de fonctions pour un budget de calcul donné.

Des outils permettant de traiter les problèmes d’apprentissages rencontrés dans l’entrainement de ces réseaux sur de grands jeux de données seront proposés, et des éléments de convergence seront discutés. 

Finalement, des résultats statistiques sur les garantie en généralisation des réseaux de neurones profonds seront présentés, à la fois dans des scénarios (classique) de sous-apprentissage, mais aussi dans le cas de sur-apprentissage conduisant au phénomène de ‘double descente’.