Supercalculateurs : le bon calcul pour l’avenir

Avec la mise en service de CRONOS, le groupe EDF possède une puissance de calcul phénoménale de plus de 11 pétaflops soit la possibilité d’effectuer onze millions de milliards d’opérations par seconde ! Mais que se cache-t-il derrière ces chiffres astronomiques ? Et quels enjeux revêtent les supercalculateurs pour le futur du groupe EDF ? Éléments de réponse avec Alain Martin, responsable du SI scientifique de la R&D d’EDF.

Aussi appelé HPC, pour High Performance Computing, un supercalculateur est formé d’un ensemble de processeurs capables de réaliser des milliards d’opérations par seconde, comme pourraient le faire des milliers d’ordinateurs de bureau assemblés. Au cours de la dernière décennie, leur puissance a tout simplement décuplé et le groupe EDF, précurseur sur le sujet, a réussi à prendre ce virage technologique.

Le dernier HPC, mis en exploitation en mars 2021 et mutualisé avec l’ingénierie Nucléaire et FRAMATOME, appelé CRONOS, occupe le 8e rang hexagonal en termes de puissance de calcul et le 67e rang mondial. Associé à GAÏA (3Pflops) totalement dédié à la R&D ce sont près de 650 millions d’heures de calcul disponibles par année pour la R&D qui dispose ainsi de près des trois-quarts de la puissance globale installée.

Une utilisation massive somme toute logique selon Alain Martin :

Le HPC au service de l’intelligence artificielle

Parmi les outils conçus par la R&D, certains reposent sur l’intelligence artificielle (IA). Or, le succès de l’IA est intrinsèquement lié à la performance des supercalculateurs : « Ils sont essentiels, notamment en matière de simulation numérique. Plus nos outils de production avancent dans le temps, plus ils produisent de grandes quantités de données. Pour être en mesure de traiter ces données associées à celles issues des simulations numériques et dans des temps convenables, il est impératif de disposer d’outils tels que l’IA mais aussi d’une puissance de calcul importante ». Une convergence IA-HPC utile à de multiples égards : « elle va permettre à nos métiers de continuer d’innover, de fiabiliser, d’améliorer, d’être une aide à la décision et elle sera surtout précieuse pour répondre aux différentes problématiques de sûreté.
Le HPC et l’intelligence artificielle nous donnent la possibilité de traiter un nombre gigantesque de données qui devraient nous aider à mieux appréhender les défis du système électrique de demain conditionnés par nos nouveaux moyens de production, nos nouveaux modes de consommation et les changements climatiques à venir ».

En amont…

Contribuer à la pérennité des différents moyens de production du groupe EDF constitue en effet l’une des plus grandes prérogatives de la R&D d’EDF, notamment pour son parc nucléaire.

Un objectif pour lequel le HPC a un rôle déterminant à jouer : « plus nos outils de production vont vieillir, plus nous aurons besoin de garantir leur sûreté mais aussi de démontrer aux autorités de sûreté que nous pouvons étendre leur durée d’exploitation. Pour cela, nous aurons besoin d’encore davantage de précision dans la résolution de nos équations afin de continuer à améliorer notre compréhension des phénomènes physiques complexes que nous sommes amenés à manipuler et d’obtenir des simulations plus prédictives, plus fiables plus innovantes pour ouvrir également de nouveaux domaines. Les supercalculateurs s’avèreront essentiels pour gagner et sécuriser nos marges.

... et à l’aval du compteur

Les supercalculateurs trouvent aussi leur utilité à l’aval du compteur électrique, au bénéfice des consommateurs à l’exemple des smartgrids, des réseaux électriques intelligents qui permettent d’ajuster le flux d’électricité en temps réel et dont l’existence ne serait pas envisageable sans une grande puissance de calcul.

La R&D d’EDF se sert aussi du HPC pour fournir aux différents métiers des outils visant à mieux utiliser l’électricité : anticiper les mutations des services électriques français et européens, orienter la structuration du portefeuille ou encore développer des leviers de flexibilité ! Elle réalise ainsi des outils d’optimisation dont l’objectif est d’assurer l’équilibre offre-demande : « Le HPC permet de traiter un maximum de données et de développer et valider des applications et des outils destinés à des directions telle que la Direction Optimisation Amont/Aval & Trading (DOAAT) afin d’assurer l’équilibre physique entre l’offre et la demande d’électricité, au meilleur coût tout en minimisant les risques. » résume Alain Martin.


Anticiper l’avènement de nouveaux supercalculateurs

Missionnée pour effectuer la veille technologique autour de l’écosystème HPC, la R&D d’EDF est donc en mesure de proposer une mise en exploitation d’un nouveau calculateur en moyenne tous les trois ans en prenant ainsi en compte leurs évolutions permanentes.

Mais une nouvelle rupture technologique semble sur le point de se produire. Principalement construits avec des processeurs « Central Processing Unit » (CPU), les supercalculateurs actuels commencent à montrer leurs limites (Loi de Moore). Les gains en performance se réduisent petit à petit d’une génération de processeur à une autre. Grâce à une veille permanente, la R&D d’EDF anticipe déjà ce basculement :

Cette transition vers cette nouvelle technologie n’est pas si simple et la R&D travaille avec quelques partenaires externes à l’évolution de ses principaux codes de calculs représentatifs de la majeure partie des heures consommées sur le HPC. Il est utile de rappeler que ces codes sont également utilisés par notre ingénierie nucléaire. Un nouveau défi de taille pour les équipes de la R&D d’EDF.

Les grands challenges de la R&D d’EDF, le HPC poussé à la limite du possible

Les grands challenges - Cronos

Avant le déploiement de chaque nouveau supercalculateur, la R&D d’EDF lance ses « grands challenges ». Le principe ? Donner l’opportunité à certaines équipes de recherche d’utiliser une grande partie des capacités de la machine sur un temps étendu, et lui permettre de mener ainsi des études prospectives impossibles à réaliser durant le temps d’exploitation normal du supercalculateur. Avant la mise en service de CRONOS, un projet a par exemple utilisé à lui seul plus de mille nœuds ! Un véritable coup de booster pour le projet et l’occasion de tester la robustesse du cluster et d’effectuer les derniers ajustements avant son entrée en fonction.

Des études frontières « aujourd’hui » pour casser certains verrous
qui seront « demain » des études standards.