Du 10 au 19 mars 2025 se tient la 14e édition de la Semaine des Mathématiques, alors quoi de mieux pour mettre en avant les activités d’EDF en lien avec les maths ? De l'optimisation à l'analyse statistique des données, en passant par l'élaboration de codes de calcul sophistiqués, les mathématiques accompagnent tous les jours les chercheurs de la R&D pour le plus grand intérêt des métiers du groupe. Tout ce que vous devez savoir sur ces activités en 5 points !

1  L'optimisation mathématique

L’optimisation et la recherche opérationnelle sont des disciplines mathématiques qui visent à trouver les meilleures solutions possibles pour des problèmes complexes, souvent en maximisant ou minimisant certaines variables sous des contraintes spécifiques.

À la R&D, on fait beaucoup d’optimisation. Il existe d’ailleurs le Programme Gaspard Monge pour l’Optimisation. Ce programme rassemble des mathématiciens de tous bords sur un sujet majeur pour EDF : l’optimisation. Ce partenariat original est fondé sur un programme de mécénat lancé en 2012 par EDF, sous l’égide de la Fondation Mathématique Jacques-Hadamard (FMJH). Les membres fondateurs de la FMJH sont le CNRS, l'École polytechnique, l’ENS Paris-Saclay, l'IHÉS et l’Université Paris-Saclay.

Chaque année, la fondation FMJH et la R&D organisent les PGMO Days, deux jours de conférences destinés à la communauté internationale des chercheurs en optimisation, traditionnellement tenus à EDF Lab Paris-Saclay. L’évènement accueille non seulement des chercheurs de la R&D, mais aussi des chercheurs externes issu du CNRS, de l’Ecole Polytechnique, ou encore l’Université Paris-Saclay, et aussi des intervenants de renommée internationale. Le programme PGMO, appuyé par la participation de la ROADEF (Association Française de Recherche Opérationnelle et d'Aide à la Décision) et de la SMAI (Société de Mathématiques Appliquée et Industrielles), remet le PGMO PhD Price pendant l’événement.

En savoir plus sur PGMO 👉 lien vers le programme PGMO

En savoir plus sur PGMO Days 👉 lien vers les PGMO Days

 

2  Des prévisions grâce aux statistiques

Les modèles additifs généralisés (GAM) sont des outils statistiques utilisés pour analyser des données. Ils permettent de comprendre comment différentes variables sont liées entre elles en utilisant des courbes pour représenter ces relations, ce qui est utile pour modéliser des phénomènes complexes de manière plus précise que les simples lignes droites.

Les modèles GAM (Generalized Additive Models ou Modèle Additif Généralisé) en sont un exemple très démocratisé à la R&D. Ce sont des outils très utilisés dans de nombreux champs d'application des statistiques : médecine, météo, énergie, biologie, linguistique, ingénierie...

Le principe est de décomposer une quantité (consommation, production…) en une somme d'effets de variables explicatives (météo, calendrier…). Ces modèles présentent l'intérêt d'être interprétables tout en garantissant de bonnes performances prédictives.

La R&D travaille notamment en collaboration avec l’Université d’Edimbourg et l’Université de Bristol pour améliorer ces modèles de prévisions, ainsi qu’avec Simon Wood et Matteo Fasiolo, deux experts de renommée mondiale dans ce domaine.

En savoir plus sur les méthodes GAM ? 👉 Comment les experts utilisent les données pour prédire notre consommation d'énergie ?
 


3  Les codes de calculs
 

Les codes de calcul, vous savez ce que c’est ? Ce sont des logiciels très pointus qui sont parfois open-source et développés par des communautés de chercheurs. Côtés mathématiques on vous en présente deux, OpenTURNS et Risk-BU.

OpenTURNS est un logiciel open source qui permet de modéliser des incertitudes, de les propager, et d'en hiérarchiser les impacts (sur une grandeur de sortie). Il est adossé à la Méthodologie de Traitement des Incertitudes développée par la R&D d’EDF et ses partenaires.

Risk-BU est quant à lui un logiciel de gestion des risques. Un énergéticien comme EDF fait face à de nombreux risques, notamment le risque de marché, car les prix de l'énergie peuvent être soumis à d'importantes variations. Il s'agit d'une problématique complexe, sur laquelle la R&D travaille depuis de nombreuses années. Ce logiciel, fait pour les entreprises possédant des installations dont les défaillances peuvent coûter très cher ou bien mettre la vie humaine en danger, permet d’estimer la valeur de vos portefeuilles, mesurer vos risques financiers et vous appuyer pour sélectionner la meilleure stratégie pour réduire ces risques.

En savoir plus sur OpenTURNS 👉 Open-TURNS

En savoir plus sur Risk-BU 👉 Risk-BU
 


4  L’Intelligence Artificielle
 

L'intelligence artificielle (IA) est la capacité des machines à imiter des tâches humaines comme la compréhension du langage, la prise de décision et l'apprentissage.

Au-delà de l’augmentation de la consommation d’électricité générée par les nouveaux outils d’IA, se pose aussi la question de la montée de diffusion de fausses informations ou non sourcées et la divulgation de données confidentielles, notamment sur le lieu de travail.

Pour répondre à ces enjeux, la R&D d’EDF a développé son Data Innovation Lab (ou DIL) : un dispositif transverse à la R&D où sont réunis datascientists et experts métiers pour travailler autour de l’analyse de données et le développement de nouvelles méthodes d’apprentissage liées à l’IA (deep learning, reinforcement learning, transfer learning etc.).

L’objectif : travailler sur l’intelligence artificielle tout en s’intéressant aux problématiques d'acceptabilité d’interaction homme/machine et de contrôle que pose la pratique de ces nouveaux outils.

 


5  Des maths sur des supercalculateurs

 

Un supercalculateur est un ordinateur extrêmement puissant capable de traiter des calculs complexes à des vitesses très élevées. Il est utilisé pour des tâches intensives en calcul, comme la modélisation climatique, la recherche scientifique, et les simulations de physique.

Avant le déploiement de chaque nouveau supercalculateur, la R&D d’EDF lance ses « grands challenges ». Le principe ? Donner l’opportunité à certaines équipes de recherche d’utiliser une grande partie des capacités de la machine sur un temps étendu, et lui permettre de mener ainsi des études prospectives impossibles à réaliser durant le temps d’exploitation normal du supercalculateur. Avant la mise en service du supercalculateur CRONOS, un projet a par exemple utilisé à lui seul plus de mille nœuds ! Un véritable coup de booster pour le projet et l’occasion de tester la robustesse du cluster et d’effectuer les derniers ajustements avant son entrée en fonction.

Ces challenges sont une période privilégiée durant laquelle les chercheurs ont, pour certains, l’opportunité de réaliser des calculs dans des configurations dites « extrêmes » difficilement accessibles en production. Le principe est de réserver une partie, voire l’intégralité, de la machine pour une seule simulation !

Cela permet entre autres de :

Réaliser des études exploratoires/prospectives permettant de casser certaines frontières, de lever certains verrous qui pourraient être considérés comme problématiques à terme,
Réaliser des études complétant d’autres approches (expérimentales, lignes de défense alternatives,….) pouvant dégager des gains à court ou moyen terme,
Évaluer les nouveaux GPU pour le calcul, le Deep Learning, l’Intelligence Artificielle,
Tester le portage des codes de calculs,
Et bien entendu de vérifier la stabilité et d'une manière générale, le bon comportement de la machine avant sa mise en exploitation.
Ce projet a vu 30 propositions de grands challenges reçues, avec entre autre des propositions sur les incertitudes avec le code OpenTURNS ; sur l’IA avec Python, TensorFlow, ou encore KERAS ; et sur l’Analyse de données, également avec Python.

Retour sur les Grands Challenges 👉 Supercalculateurs : le bon calcul pour l’avenir