Les innovations technologiques sont le fruit de liens entre les problèmes rencontrés et la compréhension technique de solutions préexistantes. Les mathématiques sont au cœur des innovations numériques actuelles.
L'analyse numérique et l'optimisation jouent un rôle clé dans le calcul haute performance, devenu un outil fondamental pour la compétitivité et la capacité d'innovation des entreprises (industrielles et de services) et des laboratoires de recherche. La statistique et l'optimisation sont centrales dans l'extraction d'information à partir de données ; Hal Varian (chef économiste de Google) prédit que le métier de statisticien sera le plus sexy des dix prochaines années. C'est pourquoi la maîtrise de ces outils mathématiques est indispensable à la création et à la mise en place efficace de nouvelles solutions technologiques, notamment concernant l'utilisation des données massives.
Le parcours dispense les outils des mathématiques les plus utilisés dans le domaine des services, en les détaillant de la théorie à la pratique.
Les déclinaisons pratiques sont nombreuses, et vos choix d'électifs vous permettront d'approfondir l'utilisation de ces outils.
Ce cours est une introduction aux outils mathématiques développés récemment pour l'analyse théorique de modèles issus des sciences du vivant et du comportement. On s'intéressera en particulier aux phénomènes de propagation d'ondes en milieu diffusif (invasion d'espèces animales due au changement climatique, ondes de dépolarisation pour les accidents vasculaires cérébraux), aux instabilités de Turing (formation des tâches chez les animaux) et au trafic
routier (Qu'est-ce qu'un embouteillage, à quelle heure partir pour minimiser le temps de trajet ?…).
La simulation numérique par le calcul haute performance est devenue un outil essentiel de la recherche scientifique, technologique et industrielle. Le recours aux supercalculateurs est aujourd’hui une nécessité dans de nombreuses entreprises pour développer des produits et des services innovants. L’objectif de ce cours est de découvrir les grandes classes d’architectures des supercalculateurs modernes, de se familiariser avec les concepts, algorithmes et langages usuels qui permettent de les utiliser. Des travaux pratiques seront réalisés sur les différentes architectures disponibles à l’école (Clusters et Cartes Graphiques). Une partie du cours sera assurée en anglais par J.R. Herrero enseignant-chercheur au Barcelona Supercomputing Center ainsi que par des intervenants de chez Nvidia http://www.nvidia.fr/object/cuda-training-services-fr.html.
Le grand nombre de données disponibles a permis de développer des applications de la théorie de l'apprentissage statistique. On les retrouve dans des domaines aussi distincts que la génétique, le traitement du signal ou encore la data science.
Dans ce cours, on présentera des méthodes de régressions linéaire et non linéaire ainsi que leurs garanties théoriques. On s'intéressera ensuite à quelques outils de classification non supervisée en passant brièvement par quelques aspects théoriques qui renforceront la compréhension de ces outils.
Savoir résoudre un problème de minimisation de fonctionnelle (en dimension finie ou en dimension infinie) en utilisant la théorie des multiplicateurs de Lagrange. Comprendre l’application à certains problèmes classiques du calcul des variations. Savoir construire certains algorithmes de minimisation. Introduction au contrôle optimal.
La reconstruction et l'approximation de données numériques sont des opérations essentielles qui interviennent , en particulier, lors des manipulations sur ces données (acquisition, visualisation, analyse, compression, segmentation, transmission, animation,..).
Le caractère parcimonieux (sparse) de certaines représentations des données est un aspect fondamental qui conditionne l'efficacité des algorithmes numériques associés à ces manipulations.
On décrira plusieurs méthodes de reconstruction basées sur la notion d'approximation multiechelle et qui conduisent à des représentations parcimonieuses en général. Les bases de type ondelettes, les schémas de subdivision font partie de ces méthodes. On s'intéressera à divers généralisations et en particulier à des extensions non linéaires.
L'objectif de ce cours est de présenter les problématiques en gestion du risque industriel et plus particulièrement dans le domaine du nucléaire. On abordera à partir d’exemples les méthodes statistiques d'analyse et de gestion du risque. Des travaux pratiques sur machine seront proposés.
Description du programme :
En deux parties. Tous les schémas abordés seront mis en oeuvre sous Scilab.
La première partie est consacrée aux équations linéaire. Elle permettra d'aborder :
La seconde partie traitera des équations non-linéaires. On y verra :
Ce cours présentera les éléments fondamentaux de la théorie des équations aux dérivées partielles, ainsi que quelques applications aux équations de réaction-diffusion. On respectera l'ordre historique, en partant d'abord des formules de représentation exacte des solutions dans les cas les plus simples, avant d'énoncer les principes et les techniques analytique ou topologique de la théorie des équations linéaires et non linéaires.