{"id":759,"date":"2021-11-30T10:19:35","date_gmt":"2021-11-30T09:19:35","guid":{"rendered":"https:\/\/mastermas.univ-lyon1.fr\/?page_id=759"},"modified":"2022-02-15T10:40:47","modified_gmt":"2022-02-15T09:40:47","slug":"tronc-commun","status":"publish","type":"page","link":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/tronc-commun\/","title":{"rendered":"Tronc commun"},"content":{"rendered":"\n<p>Les cours de ce premier semestre abordent des th\u00e9matiques modernes en math\u00e9matiques appliqu\u00e9es, et ont pour objectif de pr\u00e9parer au mieux le second semestre et l&rsquo;entr\u00e9e dans le monde de la recherche. <\/p>\n\n\n\n<p>Ce tronc commun est d\u00e9doubl\u00e9, les m\u00eames cours ayant lieu \u00e0 la fois sur Saint-Etienne (majeure \u00ab\u00a0Calcul intensif et simulation\u00a0\u00bb) et Lyon (toutes les autres). <\/p>\n\n\n\n<p>Des remises \u00e0 niveau en informatique, analyse et statistique sont propos\u00e9es en d\u00e9but de semestre. Le contenu sera adapt\u00e9 au niveau et connaissances de la promotion. <\/p>\n\n\n\n<div style=\"height:39px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"modelisation-deterministe\">Mod\u00e9lisation d\u00e9terministe<\/h2>\n\n\n\n<ul class=\"wp-block-list\"><li>De la physique aux \u00e9quations aux d\u00e9riv\u00e9es partielles. Deuxi\u00e8me loi de Newton. Bilan des forces (gradient de pression, viscosit\u00e9, Coriolis, gravit\u00e9). Loi de continuit\u00e9. Les grandes \u00e9quations: Navier-Stockes, Euler. <\/li><li>Espaces de Sobolev. Grands th\u00e9or\u00e8mes: injection, in\u00e9galit\u00e9 de Poincar\u00e9, th\u00e9or\u00e8me de Rellich. Extensions, calcul fonctionnel. <\/li><li>Th\u00e9orie variationnelle elliptique. Lemmes de Lions-Stampacchia et Lax-Milgram. Probl\u00e8mes de Dirichlet et de Neumann. Th\u00e9orie spectrale des probl\u00e8mes aux limites. M\u00e9thode de Galerkin. <\/li><li>Probl\u00e8mes paraboliques. Construction de solutions approch\u00e9es, estimations sur les solutions approch\u00e9es et compacit\u00e9. Passage \u00e0 la limite. <\/li><li>Probl\u00e8mes hyperboliques scalaires. Notions de solutions faibles, non unicit\u00e9. Solution entropique. Construction de solutions de viscosit\u00e9. Extension aux syst\u00e8mes de lois de conservations. <\/li><li>Prise en compte des conditions aux limites pour les probl\u00e8mes elliptiques et paraboliques. <\/li><\/ul>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"modelisation-stochastique-et-apprentissage-statistique\">Mod\u00e9lisation stochastique et apprentissage statistique<\/h2>\n\n\n\n<ul class=\"wp-block-list\"><li>R\u00e9gression en grande dimension: Exemples concrets et mod\u00e9lisation, Rappels et d\u00e9veloppement autour du mod\u00e8le lin\u00e9aire (mod\u00e9lisation, hypoth\u00e8ses, moindre carr\u00e9s et vraisemblance, Test de Fisher\/Student, &#8230;) &#8211; Introduction \u00e0 la s\u00e9lection de mod\u00e8les (construction des crit\u00e8res Cp\/AIC\/BIC, in\u00e9galit\u00e9s oracles, comportement en grande dimension) &#8211; M\u00e9thode Ridge (heuristique, lien avec Tikhonov, propri\u00e9t\u00e9 du risque &#8211; Introduction \u00e0 la m\u00e9thode LASSO (construction et heuristiques, lien avec le compressed sensing, propri\u00e9t\u00e9s th\u00e9oriques \/ in\u00e9galit\u00e9s oracles, conditions de compatibilit\u00e9).<\/li><li>Classification Supervis\u00e9e: Exemples concrets et mod\u00e9lisation, tour d&rsquo;horizon de quelques algorithmes (kNN, SVM, r\u00e9seaux de neurones, r\u00e9gression logistique, &#8230;), aspects th\u00e9oriques (in\u00e9galit\u00e9s de concentrations, noyaux,&#8230;)<\/li><li>Classification non-supervis\u00e9e: ACP, Clustering (kmeans, m\u00e9thodes hi\u00e9rarchiques,&#8230;), Mod\u00e8les de m\u00e9lange gaussien, Spectral clustering.<\/li><\/ul>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"optimisation-et-machine-learning\">Optimisation et machine learning<\/h2>\n\n\n\n<ul class=\"wp-block-list\"><li><strong>Introduction<\/strong>: Inventaire de quelques probl\u00e8mes concrets\u00a0 d\u2019optimisation (Ridge, LASSO, SVM, r\u00e9gression logistique, r\u00e9seaux de neurones, probl\u00e8mes inverses, EDP): expression sous forme de minimisation et exemple de fonction co\u00fbt.<\/li><li><strong>G\u00e9n\u00e9ralit\u00e9s convexe<\/strong>: Etude de quelques algos (descente de gradient, m\u00e9thodes de 1er et 2nd ordre), M\u00e9thodes proximales, Dualit\u00e9 Lagrange et Fenchel, Formulation primal\/duale, Contraintes KKT, Convergence, Forte convexit\u00e9 et taux de convergence<br>&#8211;> TP1: Minimisation d\u2019un probl\u00e8me diff\u00e9rentiable (EDP \/ Probl\u00e8me inverse avec p\u00e9nalisation hyperbolique) : m\u00e9thode de gradient, backtracking, Newton, BFGS<br>&#8211;> TP2 : Minimisation d\u2019un probl\u00e8me non-diff\u00e9rentiable (d\u00e9tection de changement avec passage dans le dual puis gradient-proximal ou Douglas-Rachford, logistique sparse pour classification)<\/li><li><strong>G\u00e9n\u00e9ralit\u00e9s non-convexe<\/strong>: M\u00e9thodes de gradient, m\u00e9thodes de minimisation altern\u00e9e (Gauss-Seidel, PAM, PALM)<br>&#8211;> TP : logistique sparse avec p\u00e9nalisation non convexe \/ Factorisation de matrice non-n\u00e9gative<\/li><li><strong>Mise en pratique<\/strong>: Alg\u00e8bre lin\u00e9aire : calcul de valeurs propres et vecteurs propres;\u00a0 m\u00e9thodes de la puissance, puissance inverse, inversion de syst\u00e8me lin\u00e9aire, m\u00e9thodes directes, m\u00e9thodes directes par factorisation (LU, QR), m\u00e9thodes it\u00e9ratives classiques (Jacobi, Gauss-Seidel et de relaxation), Pr\u00e9conditionnement,\u00a0 r\u00e9solution des grands syst\u00e8mes lin\u00e9aires creux, techniques de stockage creux. R\u00e9solution des grands syst\u00e8mes lin\u00e9aires creux. R\u00e9solution des grands syst\u00e8mes lin\u00e9aires creux, techniques de stockages creux. R\u00e9solution de syst\u00e8mes non-lin\u00e9aires creux.<br>&#8211;> TP: m\u00e9thode de la puissance pour calculer constante de Lipschitz dans descente de gradient proximal,\u00a0 inversion matricielle et mise en \u0153uvre sur un exemple de r\u00e9gression sparse.<\/li><li><strong>Optimisation et simulations stochastique<\/strong>: Descente de gradient\/forward-backward stochastique (principaux r\u00e9sultats de convergence et taux de convergence), Adam, Adagrad,\u2026. et notions importantes (learning rate, batch, dropout, \u2026), Algo EM,\u00a0 Gibbs, Metropolis Hastings, prox MALA.<br>&#8211;> TP1 : r\u00e9gression ridge et sparse avec gradient\u00a0 et gradient proximal stochastiques. Comparaison gradient et gradient proximal non stochastiques. Afficher taux de convergence.<br>&#8211;> TP2: D\u00e9tection de changement avec MCMC puis prox MALA sur le dual.<\/li><li><strong>Deep learning<\/strong>: Diff\u00e9rentiation automatique, d\u00e9rivation en cha\u00eene, backpropagation, architectures des r\u00e9seaux profonds, algorithmes d\u00e9roul\u00e9s (forward-backward d\u00e9roul\u00e9, LISTA), lien entre op\u00e9rateur proximal et fonctions d&rsquo;activations<br>&#8211;> TP1: Diff\u00e9rentiation automatique, introduction \u00e0 Pytorch (Exemple pour automatiser la diff\u00e9rentiation automatique sur une fonction quelconque puis la m\u00eame chose en quelques lignes avec PyTorch (accumulation, autograd)<br>&#8211;> TP2: construction d\u2019un r\u00e9seau de neurones pour la classification MNIST et\/ou r\u00e9solution ODE avec Pytorch (construction r\u00e9seaux de neurones (feed forward) : couche affine et non-affine et pourquoi elles sont altern\u00e9es puis optimisation avec comparaison des diff\u00e9rents algos)<\/li><\/ul>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"anglais-scientifique\">Anglais scientifique<\/h2>\n\n\n\n<p>Plusieurs modes de fonctionnement envisageables en fonction des ann\u00e9es et des opportunit\u00e9s&nbsp;:<\/p>\n\n\n\n<ul class=\"wp-block-list\"><li>R\u00e9alisation de projet, \u00e9ventuellement en bin\u00f4me (lecture d&rsquo;articles, variante de preuve, impl\u00e9mentation d&rsquo;algorithme,&#8230;) + rapport en anglais + soutenance en anglais en janvier.<\/li><li>Mise en place d&rsquo;un groupe de lecture, chaque \u00e9tudiant.e devant faire au moins une pr\u00e9sentation (en anglais) dans le semestre.<\/li><li>S\u00e9minaire \/ mini-cours (en anglais) mont\u00e9s de mani\u00e8re ad&rsquo;hoc pour des invit\u00e9s de passage ou intervenants ext\u00e9rieurs + travail de restitution.<\/li><li>Participation des \u00e9tudiant.es \u00e0 des conf\u00e9rences programm\u00e9es pendant l&rsquo;automne (avec pr\u00e9paration, suivi d&rsquo;expos\u00e9s, puis restitution).<\/li><\/ul>\n\n\n\n<p>En parall\u00e8le, une intervention de 2h sur les erreurs courantes des francophones en anglais (\u00e9crit et orale)<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Les cours de ce premier semestre abordent des th\u00e9matiques modernes en math\u00e9matiques appliqu\u00e9es, et ont pour objectif de pr\u00e9parer au mieux le second semestre et l&rsquo;entr\u00e9e dans le monde de la recherche. Ce tronc commun est d\u00e9doubl\u00e9, les m\u00eames cours ayant lieu \u00e0 la fois sur Saint-Etienne (majeure \u00ab\u00a0Calcul intensif et simulation\u00a0\u00bb) et Lyon (toutes <a class=\"more-link\" href=\"https:\/\/mastermas.univ-lyon1.fr\/index.php\/tronc-commun\/\">Lire plus &#8230;<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-759","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/pages\/759","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/comments?post=759"}],"version-history":[{"count":4,"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/pages\/759\/revisions"}],"predecessor-version":[{"id":1039,"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/pages\/759\/revisions\/1039"}],"wp:attachment":[{"href":"https:\/\/mastermas.univ-lyon1.fr\/index.php\/wp-json\/wp\/v2\/media?parent=759"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}