Accueil > Forum TERATEC > Tables Rondes

Forum Teratec 2022
Table ronde

Mardi 14 juin 2022 - Ecole Polytechnique

L’hybridation des architectures

Qu’il s’agisse des processeurs, des mémoires, des bus, des systèmes de refroidissement, du mixte entre les matériels sur site (On Premise) et ceux accessibles via le Cloud, qu’il soit privé ou public, et l’arrivée de technologies prometteuses telles l’exascale ou le quantique, l’hybridation des aspects matériels du HPC et du HPDA devient incontournable, avec en plus des préoccupations grandissantes autour des aspects sécurité et souveraineté des données, et, c’est plus nouveau, efficacité énergétique.

Animée par Jean-François Prevéraud avec la participation des sponsors :

Adrien Badina
Directeur Innovation
2CRSI

Jérémie Bourdoncle
Senior Director Strategic Partnership
Altair

Jérôme Stoller
Head of Software & AI R&D
Atos
Laurent Thiers
Vice President EMEA
DDN Storage
Emilie Gaudu
HPC & AI Business Dev for France
Dell Technologies
Pierre Hoffer
Directeur Presales EMEA HPC & IA
Hewlett Packard Enterprise
Jean-Laurent Philippe
EMEA HPC Director
Intel Corporation

L’évolution des matériels

La première partie de la table ronde a été axée sur l’évolution même des processeurs et de leurs environnements.

« Nous étions sur une tendance de développement de 1 à 2 cartes-mères (lames) par an pour nos calculateurs, mais avec l’explosion du nombre de CPU, GPU et autres accélérateurs disponibles, nous sommes sur une tendance de 5 à 6 par an. De plus, il faut des techniques de refroidissement de plus en plus efficaces du fait de la densité énergétique de ces lames », explique Jérôme Stoller d’Atos. « Et nous avons fait évoluer nos logiciels de gestion pour qu’ils puissent proposer automatiquement à nos utilisateurs la meilleure combinatoire pour effectuer leurs calculs HPC au mieux. »

Alexandre Chauvin a quant à lui insisté sur l’hétérogénéité même des processeurs que développe Intel pour offrir toujours plus de performances. « Le prochain processeur Xeon va ainsi bénéficier d’un accès mémoire à très haute bande passante, ce qui devrait permettre d’arriver à gains en simulation supérieurs à 2,5 X. Nous proposons aussi avec Falcon Shores une nouvelle technologie de puce qui intègre à la fois CPU et GPU, permettant des gains de performances de l’ordre de 5X. »

« La répartition du marché entre GPU et CPU est encore dans un ratio de 1 à 20, mais la tendance est effectivement à l’hybridation, et c’est qui vient de nous permettre de de franchir la barrière de l’ExaFlops voici quelques jours », explique Pierre Hoffer de HPE. « Mais cela suppose aussi la disponibilité d’outils facilitant le portage des applications de simulation tourant initialement sur des environnements CPU vers des environnements hybrides. »

« Notre ADN est d’aller vers des solutions standard et ouvertes, tout en évaluant dans nos laboratoires et nos centres d’excellence toutes les technologies en développement, afin d’adopter les plus performantes et les plus pérennes dès qu’elles sont disponibles », constate Emilie Gaudu de Dell. « Nous avons aussi grâce à un partenariat avec Graphcore nous avons pu mettre au point une solution de refroidissement mixte air, eau et immersif. Enfin, nous proposons des Data Center modulaires juxtaposant des containers allant jusqu’à 2 MW. »

Une hybridation des solutions qui vaut aussi pour les fabricants de matériels sur-mesure a expliqué Adrien Badina de 2CSRi. « Nous utilisons beaucoup de FPGA dans nos machines et nous transformons par exemple des cartes PCI Express en GPU pour répondre à la demande de nos clients. Et la tendance à la réduction de la taille des machines incluant un maximum de composants augmente considérablement les besoins de refroidissement, que nous réalisons, et c’est une première en Europe, par immersion des cartes dans un liquide monophasique. »

Mais au-delà des processeurs et de leurs systèmes de refroidissement, les systèmes de stockage sont aussi en pleine évolution à cause de l’hybridation, estime Laurent Thiersde DDN. « Notre coopération technologique avec le CEA nous a permis d’investir du temps sur les technologies de stockage flash voici déjà 6 ans. Depuis, nous sommes capables de mixer ces technologies flash avec des disques HDD, pour accélérer les applications tout en minimisant les coûts. »

Une évolution des matériels qui n’est pas sans impact sur les applications des utilisateurs rappelle Jérémie Bourdoncle d’Altair Engineering. « Nous travaillons étroitement avec les fabricants de CPU et GPU pour valider leurs évolutions technologiques dans nos applicatifs, afin qu’ils puissent tourner nativement sur ces nouvelles plates-formes sans perturber nos utilisateurs. »

L’évolution des architectures

La deuxième partie de la table ronde a été consacrée à l’hybridation des architectures des solutions qui migrent de plus en plus du tout ‘‘On Premise’’, avec des serveurs installés physiquement chez les utilisateurs, vers le Cloud Privé ou Public.

« Pour accélérer cette migration nous avons acquis en 2021 aux USA Nimbixdont le cœur de métier est de gérer des workloads HPC dans le Cloud et nous l’avons intégré dans notre offre », Jérôme Stoller d’Atos. « Nous proposons aussi à nos clients avec Dedicated de consommer, via un portail, une infrastructure dédiée en mode service. Avec Elastic, ils peuvent balancer des workloads HPC dans un ou plusieurs Cloud Public ou Privé, voire en effectuer une partie ‘‘On Premise’’. Federated permet quant à lui à des clients partenaires de créer une fédération de leurs centres de calcul pour offrir a chacun des spécificités d’architectures qu’ils n’auraient pas en propre. »

« Chez Intel, cette évolution des architectures est au cœur de plein de développements », révèle Alexandre Chauvin. « On dispose ainsi de fonctionnalités de sécurité dans nos processeurs qui permettent une protection totale des données quand elles sont utilisées dans le Cloud. On fait aussi tout ce qui est nécessaire pour assurer une portabilité des applications sur les différents types de processeurs et d’architectures avec des méthodes de programmation standard qui pérennisent les développements et la performance. »
« Le marché du HPC pèse aujourd’hui près de 35 milliards de dollars dont 12 % sont opérés dans le Cloud, mais c’est une part en forte croissance (17 %) et l’on voit nos clients industriels y aller rapidement », constate Pierre Hoffer de HPE. « C’est par exemple le cas chez Zenseact, la filiale de Volvo qui développe des logiciels de conduite autonome, pour l’acquisition et le traitement de l’ensemble des données des voitures de test, pour le développement de l’intelligence qui sera embarquée dans ses futures voitures. C’est aussi le cas chez Danfoss où l’on mélange l’analytique et le HPC pour l’acquisition des données sur les chaines de production, afin de mieux piloter les ERP. »

« Nous sommes effectivement passé dans une nouvelle classe de systèmes ou HPC, IA et Data Analytics convergent. Si le marché a longtemps travaillé en silos opérationnels, on passe aujourd’hui à une stratégie unifiée pour donner plus de valeur aux données en les gérant aussi bien ‘‘On Premise’’ que dans le Cloud. Nous avons pour cela développé le logiciel Open Source Omnia, qui facilite la gestion de ces environnements hybrides », explique Emilie Gaudu de Dell.

« Les calculateurs sur-mesure que nous développons sont dans un format Open Compute Project (OCP) permettant d’en améliorer l’efficacité énergétique et le refroidissement avec des racks faisant entre 15 et 40 kW, pouvant fonctionner aussi bien en ‘‘On Premise’’ que dans le Cloud », constate quant à lui Adrien Badina de 2CSRi.

Le stockage et le transfert de données entre le ‘‘On Premise’’ et le Cloud évolue lui aussi, nous a expliqué Laurent Thiersde DDN. « Nous solutions sont capables de tourner intégralement et nativement dans le Cloud, et nous avons développer des logiciels qui permettent de bouger les données d’un environnement à l’autre de manière relativement transparente pour l’utilisateur. Mais même si le Cloud ne cesse de progresser, on assiste aussi à un retour des solutions très hautes performance au format S3 sur du ‘‘On Premise’’. »

« Depuis 5 ans nous avons pris le virage du Cloud et nous avons des centaines de clients à travers le monde qui utilisent nos applicatifs de simulation de cette façon », constate Jérémie Bourdoncle d’Altair Engineering. « Nous savons ainsi gérer le déploiement et la gestion d’architectures complexes, qui permettent à nos clients d’adapter leurs moyens à leurs besoins. »

De quoi sera fait le futur ?

La dernière partie de la table ronde a permis d’évoquer les évolutions à venir.

« Nous avons énormément de choses dans notre Road Map de développement, notamment autour de l’accélérateur quantique que l’on intégrera dans nos architectures après nous être fait la main sur notre Quantic Learning Machine (QLM) qui permet aux utilisateurs de s’adapter à ce nouveau paradigme de la programmation quantique. Un autre grand sujet est l’orchestration des workloads dans le centre de calcul du futur qui va mixer les technologies et les lieux. Enfin, l’intégration de la sobriété dans la conception de nos futures offres, tant matérielles que logicielles, pour réduire nos émissions de CO² », explique Jérôme Stoller d’Atos.

« Pour Intel le futur va passer par l’ouverture prochaine d’un grand centre de R&D et de conception ouverts à nos clients sur le plateau de Saclay, épaulé par des usines de production relocalisées en Irlande et Allemagne. Fort de plus de 1 000 ingénieurs à horizon 10 ans, il intégrera notamment notre Hub de développement européen dédié au HPC et à l’IA », annonce Alexandre Chauvin.

« HPE fait aussi des investissements forts en Europe dans le domaine du HPC avec l’ouverture d’une usine dédiée aux systèmes à refroidissement liquide en République Tchèque. En France, notre centre de Grenoble va abriter le supercalculateur Champollion, dédié à l’IA, développé en partenariat avec NVidia. Côté développements, nous allons mettre l’accent sur la protection et l’anonymisation de la donnée notamment pour le domaine de la santé », explique quant à lui Pierre Hoffer.

« Nous nous focalisons chez Dell sur la qualité d’intégration de toutes les nouvelles technologies que nous venons d’évoquer, en ciblant la performance, la pérennité et la maintenabilité de nos solutions. Nous sommes aussi conscients que l’avenir sera ‘‘Green’’, c’est pourquoi nous optimiserons la consommation énergétique de nos futures installations, remettrons à niveau les installations existantes, et recyclerons les installations en fin de vie, en vue d’atteindre la neutralité carbone d’ici 2050 », insiste Emilie Gaudu

« Chez 2CSRi, nous participons avec 19 partenaires au programme European PILOT (Pilot using Independent, Local and Open Technologies) qui fait partie de EuroHPC, dont le but est de développer deux types d’accélérateurs pour le HPC et l’IA, dans lequel nous avons la responsabilité de développer le module Universal Dashboard pilotant la liaison entre les lames de calcul et les accélérateurs », annonce quant à lui Adrien Badina.

« Nos solutions de stockage de données vont s’adapter au mixte grandissant entre le ‘‘On Premise’’ et le Cloud, avec des connecteurs standard au niveau des entrées/sorties, de la très haute performance, avec du versionnement d’objets natif par rapport à la sécurité des données. Nous allons intégrer dans le cœur de notre technologie le Multi-Tenancy, qui est développé en France, pour être plus performant en sécurité des données. Nous analysons aussi les I/O des utilisateurs pour déterminer automatiquement où faire tourner les applications », explique Laurent Thiersde DDN.

« Nous développons une nouvelle génération de schedulers qui, à moyen terme, va intégrer ces architectures hybrides pour faire tourner au mieux nos applications. Un autre axe fort de développement est la convergence entre la simulation et l’IA, qui va progressivement se retrouver intégrée dans toutes nos applications, afin d’accélérer les premiers résultats de simulation vers les ingénieurs. On la retrouve déjà par exemple dans notre outil romAI, qui utilise l’IA pour accélérer la génération de modèles réduits (ROM) en dynamique des structures », annonce Jérémie Bourdoncle d’Altair Engineering.

Une table ronde de bonne tenue qui a permis à l’auditoire de partager la vison présente et à venir des différents intervenants sur l’évolution des matériels et des architectures des systèmes qui sont au cœur des applications HPC.

Pour toute autre information concernant les sessions plénières, prière de contacter :

Jean-Pascal JEGU
Tél : +33 (0)9 70 65 02 10 - Mob.: +33 (0)6 11 44 49 59
jean-pascal.jegu@teratec.fr
Campus TERATEC
2, rue de la Piquetterie
91680 BRUYERES-LE-CHATEL
France

 

© Teratec - Tous droits réservés - Mentions légales