public:fiches_ue:2015_16:parcours:mathematiques

Mathématiques

Les innovations technologiques sont le fruit de liens entre les problèmes rencontrés et la compréhension technique de solutions préexistantes. Les mathématiques sont au cœur des innovations numériques actuelles.

L'analyse numérique et l'optimisation jouent un rôle clé dans le calcul haute performance, devenu un outil fondamental pour la compétitivité et la capacité d'innovation des entreprises (industrielles et de services) et des laboratoires de recherche. La statistique et l'optimisation sont centrales dans l'extraction d'information à partir de données ; Hal Varian (chef économiste de Google) prédit que le métier de statisticien sera le plus sexy des dix prochaines années. C'est pourquoi la maîtrise de ces outils mathématiques est indispensable à la création et à la mise en place efficace de nouvelles solutions technologiques, notamment concernant l'utilisation des données massives.

Le parcours dispense les outils des mathématiques les plus utilisés dans le domaine des services, en les détaillant de la théorie à la pratique.

Vous trouverez une liste non exhaustive d'entreprises qui recrutent dans les mathématiques ici

Les déclinaisons pratiques sont nombreuses, et vos choix d'électifs vous permettront d'approfondir l'utilisation de ces outils.

Composé de deux UE de 50h.

En 2 parties de 25h :

  • Calcul haute performance
  • Statistique et apprentissage

Calcul Haute performance

La simulation numérique par le calcul haute performance est devenue un outil essentiel de la recherche scientifique, technologique et industrielle. Le recours aux supercalculateurs est aujourd’hui une nécessité dans de nombreuses entreprises pour développer des produits et des services innovants. L’objectif de ce cours est de découvrir les grandes classes d’architectures des supercalculateurs modernes, de se familiariser avec les concepts, algorithmes et langages usuels qui permettent de les utiliser. Des travaux pratiques seront réalisés sur les différentes architectures disponibles à l’école (Clusters et Cartes Graphiques). Une partie du cours sera assurée en anglais par J.R. Herrero enseignant-chercheur au Barcelona Supercomputing Center ainsi que par des intervenants de chez Nvidia http://www.nvidia.fr/object/cuda-training-services-fr.html.

  • Computer Challenges in Science and Engineering
  • Modern Architectures of Parallel Computers
  • Parallel programming in MPI and applications
  • Parallel programming with GPU and applications

Statistique et apprentissage

Le grand nombre de données disponibles a permis de développer des applications de la théorie de l'apprentissage statistique. On les retrouve dans des domaines aussi distincts que la génétique, le traitement du signal ou encore la data science.

Dans ce cours, on présentera des méthodes de régressions linéaire et non linéaire ainsi que leurs garanties théoriques. On s'intéressera ensuite à quelques outils de classification non supervisée en passant brièvement par quelques aspects théoriques qui renforceront la compréhension de ces outils.

En 2 parties de 25h :

  • Optimisation
  • Reconstruction des données

Optimisation

Savoir résoudre un problème de minimisation de fonctionnelle (en dimension finie ou en dimension infinie) en utilisant la théorie des multiplicateurs de Lagrange. Comprendre l’application à certains problèmes classiques du calcul des variations. Savoir construire certains algorithmes de minimisation. Introduction au contrôle optimal.

  • Dérivée de Gâteaux et Fréchet,
  • Inéquation d'Euler condition de Legendre,
  • Condition forte et formule de Taylor lemme de Farkas,
  • Inversion locale et multiplicateurs de Lagrange.
  • Programme convexe (jusqu'à Kuhn et Tucker dans le cas dérivable, donc minmax) application au cas quadratique et à l équivalence avec formulation variationnelle symétrique.
  • Algorithmes: relaxation et les quatre gradients . Taux de convergence

Reconstruction des données

La reconstruction et l'approximation de données numériques sont des opérations essentielles qui interviennent , en particulier, lors des manipulations sur ces données (acquisition, visualisation, analyse, compression, segmentation, transmission, animation,..).

Le caractère parcimonieux (sparse) de certaines représentations des données est un aspect fondamental qui conditionne l'efficacité des algorithmes numériques associés à ces manipulations.

On décrira plusieurs méthodes de reconstruction basées sur la notion d'approximation multiechelle et qui conduisent à des représentations parcimonieuses en général. Les bases de type ondelettes, les schémas de subdivision font partie de ces méthodes. On s'intéressera à divers généralisations et en particulier à des extensions non linéaires.

  • public/fiches_ue/2015_16/parcours/mathematiques.txt
  • Dernière modification : 2016/09/01 11:31
  • de fbrucker