DiscoverInformatique et sciences numériques (2025-2026) - Yvon Maday
Informatique et sciences numériques (2025-2026) - Yvon Maday
Claim Ownership

Informatique et sciences numériques (2025-2026) - Yvon Maday

Author: Collège de France

Subscribed: 1Played: 0
Share

Description

Créée en partenariat avec Inria, la chaire annuelle Informatique et sciences numériques marque une volonté commune de faire valoir l'importance de cette discipline scientifique et la nécessité de lui octroyer une place pleine et entière.

Réduction de complexité pour les simulations numériques méthodes, algorithmes et analyse numérique associée

La simulation numérique est aujourd'hui un outil omniprésent, qui touche plusieurs domaines scientifiques. Elle repose d'abord sur des modèles mathématiques : abstractions des phénomènes fondée sur l'identification de quantités observables et de leurs interactions, décrites par des équations liant ces quantités observables, leurs variations et des paramètres mesurables. Adaptés aux super‐calculateurs, ces modèles prennent vie en proposant par exemple des images sur écran ou en réalité virtuelle, à l'instar d'acteurs rejouant fidèlement une scène écrite.

Le modèle est souvent trop complexe pour une résolution « papier et crayon », on recourt alors à des mises en œuvre informatiques : chaque « acteur » numérique évoluant dans un centre de calcul capable d'effectuer jusqu'à 1021 opérations par seconde. Pourtant, cette puissance de calcul peut être insuffisante, surtout lorsque l'on vise à proposer des images tridimensionnelles (3D) du phénomène de plus en plus précise – par exemple de la qualité des écrans (2D) UHD 8K (utilisant 7680 x 4320 soit plus de 33 millions de pixels), voire en 4D en incluant le temps.

Pour juguler cette explosion de calculs, des méthodes de réduction de complexité ont été introduites. Puissantes et inspirées de la théorie de l'approximation et de l'analyse numérique, elles consistent à choisir intelligemment un petit nombre d'images de haute qualité, déjà simulées (formant la base réduite) à les combiner pour en générer de nouvelles, avec un coût dépendant de la taille de cette base plutôt que du nombre de pixels qui les composent.

Essentielles dans l'industrie, ces méthodes permettent non seulement de mieux comprendre et prévoir des phénomènes sans les réaliser in situ, mais aussi d'optimiser ou de contrôler des procédés en temps réel – les fameux « jumeaux numériques ». Pour en garantir la fiabilité, les estimations d'erreur, branche de l'analyse numérique, quantifient la précision du résultat et guident dans l'amélioration du modèle ou l'enrichissement de la base réduite.

Biographie

Yvon Maday est professeur de mathématiques appliquées à Sorbonne Université et membre du laboratoire Jacques-Louis Lions, qu'il a dirigé pendant plusieurs années. Il a également été professeur invité à Brown University (États-Unis) pendant plus de quinze ans. Spécialiste de l'analyse numérique, ses recherches portent sur le calcul scientifique haute performance, les méthodes de décomposition de domaine et la réduction de modèles. Il applique ces approches à des domaines variés, de la mécanique des fluides à la biologie et la médecine, avec un intérêt actuel marqué pour la chimie computationnelle, dans laquelle il est co-Principal Investigator du projet ERC Synergy EMC2.

Docteur (3e cycle et thèse d'État) de l'université Pierre-et-Marie-Curie, il a exercé de nombreuses responsabilités scientifiques et dirigé l'Institut Carnot SMILES, dédié aux échanges entre recherche académique et monde industriel. Membre honoraire senior de l'Institut universitaire de France, il a reçu en 2009 le grand prix thématique Jacques-Louis-Lions de l'Académie des sciences et en 2019 le prix ICIAM Pioneer pour l'ensemble de ses contributions en mathématiques appliquées.

Auteur de nombreuses publications de référence, il a encadré plusieurs générations de jeunes chercheurs. Engagé dans l'innovation interdisciplinaire, il est cofondateur du GIS Obépine, consacré à la surveillance épidémiologique par les eaux usées.

7 Episodes
Reverse
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-2026Maths-4-Innov-ActionSéminaire - Mickaël Abbas & Jean-Philippe Argaud : Maîtriser la complexité par la sobriété des simulations numériques de la production d'énergieMickaël Abbas & Jean-Philippe ArgaudIngénieur de recherche expert à EDF R&DRésuméLa production d'énergie utilise des équipements et des structures qui ont des spécificités : leur dimension physique (un barrage hydroélectrique, une centrale nucléaire ou une éolienne offshore de 8MW sont des structures de très grande taille), leur durée de vie (de plus de 100 ans pour certains barrages) et une grande complexité physique (phénomènes multi-physiques, multi-échelles), avec des données d'entrées variables et partiellement connues. La simulation numérique amène une information majeure pour les construire, les exploiter et les déconstruire, ce secteur industriel ayant les mêmes contraintes d'efficacité (économique et technique) que les autres. Que ce soit pour des raisons numériques (taille de problème trop importante pour les techniques actuelles, malédiction de la dimensionnalité) ou de sobriété, il est nécessaire de maîtriser et de réduire la complexité des simulations numériques. Dans cet exposé, nous illustrons ces enjeux de complexité et de sobriété au travers de deux physiques particulières : la mécanique du solide et la neutronique. Nous montrons des verrous encore présents et des directions de recherche et de développement envisagées en matière de réduction de complexité pour la simulation numérique.Mickaël AbbasMickaël Abbas est diplômé en ingénierie mécanique à l'université de technologie de Compiègne en 1998. Il poursuit par un DEA en modélisation numérique puis une thèse de doctorat sous la direction de Jean-Louis Batoz sur la simulation numérique du procédé de sertissage. En 2002, il entre en tant qu'ingénieur de recherche dans l'équipe de développement du code de calcul par éléments finis code_aster à EDF R&D. Puis, il devient successivement chef de projet dans les méthodes numériques innovantes en mécanique en 2010, puis ingénieur expert en simulation numérique en 2015, et, enfin, depuis 2023, il est ingénieur senior expert en simulation numérique à EDF R&D. En tant que responsable scientifique du développement de code_aster, il mène de nombreuses activités de recherche en mécanique numérique et en mathématiques appliquées, en particulier sur les méthodes de discrétisation avancées et la réduction de modèle. Il a co-encadré une dizaine de thèses sur ces thématiques, toujours en relation avec les applications industrielles d'EDF.Jean-Philippe ArgaudJean-Philippe Argaud (Dr) travaille à Électricité de France dans le centre de recherche EDF Lab Paris-Saclay, où il contribue comme ingénieur chercheur expert en applications des mathématiques. Il a dirigé des projets industriels, en particulier pour la gestion des risques, l'assimilation de données, et la neutronique. Ses travaux récents portent sur l'assimilation de données et la réduction de modèles, appliquées aux simulations physiques de nombreux domaines de la physique des systèmes industriels de production ou de distribution d'énergie. Il contribue aussi aux développements de méthodes et d'outils scientifiques open source pour favoriser l'appropriation de ces pratiques dans les outils d'études de l'ingénieur.
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-202603 - Réduction de complexité pour les simulations numériques : méthodes, algorithmes et analyse numérique associée : Fusion modèle-données : approche PBDW
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-2026Sylvain VallaghePrincipal Engineer at AkselosSéminaire - Sylvain Vallaghe : Maths-4-Innov-Action : Component-Based Reduced Order Modeling for Large-Scale Industrial Digital TwinsRésuméAkselos provides industrial digital twins through component-based reduced order modeling. This approach bridges the gap between traditional Finite Element Analysis (FEA) and real-time operational needs. Unlike standard FEA, which can be computationally prohibitive for entire assets, Akselos' technology allows for models with over 100 million degrees of freedom to be solved in under 10 seconds. This is achieved by decomposing large structures into components and interfaces, and by training a low-dimensional representation of the solution manifold for individual components and interfaces. The approach includes a posteriori error estimators to ensure accuracy. During operations, these estimators monitor every solve; if a new scenario causes the error to exceed a set tolerance, the system triggers automated enrichment to "learn" the new state. This integration of high-fidelity physics with rapid evaluation allows operators to incorporate sensor feeds and inspection data into a live digital twin. Consequently, companies can monitor closely their assets, ensuring safe operations with maximum output for the longest time possible.Sylvain VallagheSylvain is in charge of core technology development at Akselos. He works towards expanding the scope of applications of Akselos' technology by developing new mathematical formulations and computational algorithms.Sylvain completed his Master's degree in Applied Mathematics at the University of Grenoble in France in 2005. Sylvain then pursued a PhD thesis at INRIA, developing new numerical methods and algorithms applied to brain imaging techniques. After completing his PhD in 2009, Sylvain worked as a teaching and research assistant at University of Grenoble, shifting his work focus towards reduced basis methods, which led him to join Professor Patera's group at MIT in 2011. During his time at MIT, Sylvain developed new contributions directly related to Akselos technology and he joined the company in October 2013.
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-202602 - Réduction de complexité pour les simulations numériques : méthodes, algorithmes et analyse numérique associée : Approximation et complexité
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-2026Fabien CasenaveHead of "Physics-informed machine learning and numerical experiments" team, Safran Senior ExpertSéminaire - Fabien Casenave : Maths-4-Innov-Action : Scientific Machine Learning for Industrial DesignRésuméIn an industrial group such as Safran, numerical simulation of physical phenomena plays a central role in the design processes of manufactured products. At Safran Tech, the corporate research center of the Safran Group, we develop technologies to improve these processes by constructing fast and reliable surrogate models for a wide range of physical systems. This presentation introduces several technologies developed in recent years. First, we present a physics-based reduced-order modeling approach for nonlinear structural mechanics, applied to lifetime prediction of high-pressure turbine blades. Second, we address the learning of physics simulations under non-parameterized geometrical variability using classical machine learning techniques combined with nonlinear deterministic dimensionality reduction, including morphing, principal component analysis, and Gaussian process regression. We then illustrate the generation of mechanical components constrained by performance requirements. Finally, we highlight our contributions to the open-source and open-data Scientific Machine Learning community.Fabien CasenaveFabien Casenave est Senior Expert au département Digital Sciences and Technologies de Safran Tech, le centre de recherche du groupe Safran, où il dirige une équipe dédiée au Scientific Machine Learning. Ses travaux portent sur la réduction de modèles, les approches non intrusives et hybrides combinant apprentissage automatique et simulation physique, ainsi que sur le développement de bibliothèques open source pour la science et l'ingénierie numérique. Il a contribué à l'élaboration de méthodologies en réduction de modèles et en apprentissage pour la physique, avec des transferts vers des applications industrielles.
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-202601 - Réduction de complexité pour les simulations numériques : méthodes, algorithmes et analyse numérique associée : Réduction de modèles pour EDP paramétrées
Yvon MadayInformatique et sciences numériquesCollège de FranceAnnée 2025-2026Leçon inaugurale : Réduire la complexité pour maîtriser la résolution des modèles mathématiquesRésuméL'objet de cette leçon inaugurale est de sensibiliser à la modélisation mathématique de phénomènes complexes, d'expliquer pourquoi on cherche à les simuler et ce que l'on peut en attendre. La découverte de la notion de modèles mathématiques pour représenter certains phénomènes se fait dès le lycée, mais l'étendue et les applications de ces modélisations restent souvent méconnues. Au lycée, l'enseignement s'articule autour de deux objectifs principaux :Exprimer, sous des hypothèses clairement énoncées, en langage mathématique ce que des observateurs décrivent par des phrases.Examiner la validité des hypothèses en confrontant les résultats expérimentaux aux prédictions du modèle.On réalise très vite que la plupart des modèles utilisés au quotidien – notamment en entreprise – ne possèdent pas de solution analytique explicite. Ils doivent donc être simulés numériquement : à l'instar d'acteurs chargés de jouer une scène de façon réaliste, on confie à des systèmes informatiques la tâche d'incarner chaque paramètre, de faire évoluer l'histoire des variables et de restituer virtuellement le comportement du phénomène étudié. Ces « acteurs » numériques sont capables d'effectuer jusqu'à 1021 opérations en virgule flottante par seconde.Pourtant, même avec un débit d'expression aussi colossal, les « acteurs » peuvent s'avérer incapables de préserver la fidélité des modèles dans des domaines très complexes – qu'il s'agisse des prévisions météorologiques confiées à Météo-France ou des optimisations industrielles.L'objectif de ce cours est donc de présenter des approches de réduction de complexité permettant de :tirer pleinement parti des capacités de calcul existantes,respecter scrupuleusement le « scénario » du modèle,et fournir des résultats en temps réel, ouvrant la voie aux jumeaux numériques.Cette réduction de complexité puise dans la théorie de l'approximation, l'analyse fonctionnelle et numérique, la discrétisation, la conception d'algorithmes de simulation numérique, l'assimilation de données et plus récemment dans l'usage des réseaux de neurones et de l'apprentissage automatique.
Comments