Accueil > Forum TERATEC > Tables Rondes

Forum Teratec 2022
Table ronde

Mardi 14 juin 2022 - Ecole Polytechnique

L’hybridation des applications et des usages

L’évolution des performances informatiques en termes de puissance avec l’arrivée de l’exascale et bientôt du quantique, en terme de disponibilité quasi illimitée à travers le Cloud, ou en terme d’algorithmique de traitement (IoT, Big Data, Machine Learning…) conduisent souvent à coupler l’Intelligence Artificielle (Machine Learning) aux applicatifs pour exploiter au mieux cette masse d’informations. Avec en toile de fond la sécurité et la souveraineté des données.

Animée par Jean-François Prevéraud avec la participation des sponsors :

Pascal Pottier
VP Presales
Atempo

Mathieu Jeandron
Tech Lead AWS Secteur public France
AWS

Christine Menache
Responsable TGCC-CCRT
CEA
Thierry Porcher
Chief Technology Officer
Do It Now
Gautier Soubrane
Director West Europe & EMEA Channel
Graphcore
Yann Caniou
HPC Solution Cloud Architect
Oracle
Bertrand Ounanian
Senior Systems Engineer
Vast Data

L’évolution des applications

La première partie de la table ronde a été axée sur l’évolution même des applications.

« Le terme hybridation peut prendre multiples formes en fonction du contexte. Mais on s’aperçois que les utilisateurs du TGCC ont besoin d’un couplage de plus en plus fort entre les applications de simulation numérique haute performance et l’Intelligence Artificielle, notamment pour optimiser les paramètres d’entrée des simulations ou pour analyser plus rapidement une multitude de résultats de simulation. Et cela s’amplifiera avec le calcul quantique dans les années à venir. L’hybridation des données est aussi en forte croissance car elles ne proviennent plus uniquement du calcul, mais de multiples autres sources », explique Christine Ménaché du CEA.

« En tant que fournisseur de Cloud, nous proposons la boite à outils s’adaptant à tous les besoins de traitement de données sur de multiples types d’architectures matérielles, ainsi qu’à l’exploitation des résultats. Et le Cloud permet d’accéder facilement, de manière sécurisée et à moindre coût, à toute cette chaine de valeur hybride dont les utilisateurs ont aujourd’hui besoin, aussi bien dans le domaine de l’ingénierie que de la santé ou de l’exploitation des images satellitaires », constate Mathieu Jeandron d’AWS.

Une hybridation que l’on retrouve aussi du côté des éditeurs de logiciels tels Atempo. « Nos logiciels de déplacement de grosses volumétries de données entre de multiples architectures de traitement et de stockage, doivent s’adapter à l’hybridation des besoins aussi bien chez les ‘‘Cloud Providers’’ que chez les utilisateurs ‘‘On Premise’’. Nos propres logiciels sont dont hybrides par nature », constate Pascal Pottier.

« Déjà, nous avons une vision agnostique des infrastructures, et notre valeur ajoutée provient de notre connaissance de la problématique scientifique que souhaite traiter notre client. Ce qui suppose une bonne maitrise de l’hybridation, notamment pour traiter du Big Data de la manière la plus automatisée et la plus transparente possible pour nos clients », explique quant à lui Pierre Puigdomenech de Do'It Now.

« En tant que fournisseur de solutions de calcul dédiées à l’IA, nous avons eu très tôt à l’esprit notre ‘‘logique désagrégée’’ qui adapte en permanence les moyens matériels aux besoins de l’utilisateur. Cela permet d’avoir des applications hybrides qui vont tourner sur des CPU et pour partie sur nos Intelligent Processing Unit (IPU), aussi bien dans le Cloud que ‘‘On Premise’’, pour accélérer les boucles de calcul, afin de faire face à l’explosion des volumes de données », promet Gauthier Soubrane de Graphcore.

« Outre notre activité historique autour des bases de données, nous sommes aussi un gros ‘‘Cloud Provider’’ proposant une large palette de services IAS, NAS et SAS. Afin de répondre aux attentes de nos utilisateurs, nos bases de données prennent en compte le Machine Learning pour mieux exploiter leurs données. Ce n’est pas une couche supplémentaire de la BD, mais une boite à outils transversale applicable par nos clients sur tous les services Cloud et qui permet aussi à la BD de se dimensionner en fonction de la charge de travail qui lui est demandée et de s’autoréparer. De même, l’IA nous permet aussi de proposer à nos clients dans le Cloud une adaptation automatique des moyens (CPU, GPU, FPGA…) en fonction des travaux mixant simulation HPC et IA qu’ils veulent réaliser », constate Yann Caniou d’Oracle.

« S’il y a beaucoup de points communs entre le HPC et l’IA en terme de stockage, il existe quand même des différences significatives. Par exemple, la volumétrie des jeux de données explose. De même, si dans le monde du HPC on avait tendance à optimiser le stockage des données pour qu’il réponde à de gros besoins d’écriture en sortie, dans le monde de l’IA au contraire on va prendre beaucoup de données en entrée et peu en sortie, on va faire énormément de lectures aléatoires. Cela a un impact important sur le stockage. Ainsi la technologie HDD sera bien adaptée au HPC, alors que le SDD (Flash) sera plus performant pour l’IA, avec toutefois l’inconvénient du coût. Notre défi, pour les applications hybrides, est donc de bâtir des architectures 100 % Flash à un prix abordable », estime Bertrand Ouranien de Vast Data.

L’évolution des usages

La deuxième partie de la table ronde a été consacrée à l’évolution des usages chez les utilisateurs.

« Face à l’évolution des usages, nous sommes force de propositions pour apporter de nouveaux services à nos utilisateurs », explique Christine Ménaché du CEA. « On a développé un service basé sur des machines virtuelles avec des conteneurs, permettant aux utilisateurs de logiciels spécifiques de ne pas être tributaires de notre offre. L’hétérogénéité des sources de données mises à disposition d’une large communauté, nous a poussé à développer TGCC Cloud, un outil administré par le CEA, mis à disposition des utilisateurs pour fournir des services à des tiers (applications, logiciels, etc.), stocker des données et les partager avec des tiers. Nous travaillons aussi sur la fourniture de services pour gérer les workflows complexes dus à la distribution des applications sur différentes partitions. »

« Nous aussi voyons arriver sur nos machines une multitudes de nouvelles applications », constate Mathieu Jeandron d’AWS. « Il s’agit par exemple, en cas de catastrophe naturelle, de mobiliser instantanément de grosses capacités de calcul pour traiter quasiment en temps réel des images satellitaires brutes pour comprendre rapidement ce qui se passe, prendre les bonnes décisions et redistribuer les informations traitées aux équipes intervenant sur le terrain. Autre exemple, Qubit Pharmaceuticals a créé un jumeau numérique des protéines de la Covid sur lequel ils simulent l’action d’un certain nombre de composés chimiques, pour mettre au point des traitements. »

« Ce que l’on peut conseiller à nos clients vis-à-vis de ces nouvelles applications hybrides, c’est de bien sécuriser leurs données d’une part en ayant de multiples copies dans des endroits différents, et si possible en utilisant des technologies matérielles différentes. Atempo peut être le composant logiciel pour transférer, sécuriser et archiver ces données. Et ce peut être vite des volumes colossaux, par exemple, une ville disposant d’un millier de caméras de vidéo-surveillance HD, va devoir traiter 100 Po tous les mois », constate Pascal Pottier.

« A travers notre activité d’infogérance nous constatons un fort rapprochement entre HPC et IA avec des problématiques différentes. Par exemple, chez un gros fabricant d’éoliennes client, on mixe de multiples types de simulation avec des données relevées sur les machines en fonctionnement pour faire de la maintenance prédictive à l’aide outils basés sur l’IA. De plus, il nous est souvent demandé de rendre l’accès à ces multiples données transparent pour les utilisateurs », explique Pierre Puigdomenech de Do'It Now.

« Nous pouvons aujourd’hui apporter à nos clients dans un serveur 1U, 1,4 PFlops en simple précision. C’est une densité de calcul remarquable qui permet à nos clients de changer d’échelle dans leurs applications pour déployer, par exemple, des dispositifs d’entrainement de réseaux de neurones à l’échelle du cerveau humain afin d’exploiter des jeux de données gigantesques. Grace à un partenariat avec Atos nous sommes capables d’agréger cette capacité de calcul aussi bien On Premise que dans le Cloud. Mais cette hybridation n’est possible que si l’on est capable de maitriser la sécurité d’accès à la donnée sur laquelle on travaille », estime Gauthier Soubrane de Graphcore.

« Pour illustrer ces nouvelles applications hybrides, je vais me baser sur trois partenariats que nous avons dans le domaine sportif », annonce Yann Caniou d’Oracle. « Nous avons co-développé avec l’écurie de Formule 1 Red Bull Racing un outil d’aide à la décision avec un bon indice de confiance, qui permet en temps réel, en fonction de la situation globale de la course, de simuler toutes les stratégies possibles pour améliorer le classement des 2 voitures. En fonction du lieu de la course, nous faisons tourner cette application sur le Data Center le plus proche pour avoir un temps de latence le plus faible possible. Autre exemple celui des multicoques de 50 pieds avec des foils qui peuvent atteindre 50 nœuds, pour lesquels le moindre dixième de degrés en termes de cap à une importance capitale sur le résultat. Une cinquantaine de capteurs IoT fournissent une multitude de données qui, pour des questions de poids embarqué, est traitée en Edge Computing à terre. Les différentes stratégies possibles sont envoyées en temps réel au skipper pour l’aider dans ses choix. Dernier exemple, notre partenariat avec la ligue de football britannique où l’on utilise l’analyse d’images pour obtenir un certain nombre d’indicateurs sur les actions de jeu. Autant d’applications hybrides combinant l’IoT, le Edge Computing, le HPC, la simulation numérique et l’IA, qui montrent ce qu’il est possible de faire et qui devraient aussi s’étendre aux domaines de la conduite autonome ou des jumeaux numériques dans le domaine de la santé. »

« L’IA apporte aujourd’hui une véritable révolution dans le monde de la simulation en apportant une vision et une précision sans commune mesure. Mais la taille des jeux de données n’est pas sans causer des problèmes d’accès. C’est pourquoi toutes les architectures de référence de stockage des grands utilisateurs sont basées sur de la technologie Flash. Mais il faut le faire de la manière la plus évolutive et la plus économiquement possible. C’est notre ADN chez Vast Data. A partir du moment où l’on résout cette équation, on gagne sur tous les tableaux (consommation énergétique, densité…) », estime Bertrand Ounanian.

De quoi sera fait le futur ?

La dernière partie de la table ronde a permis d’évoquer les évolutions à venir.

« S’il faut être humble par rapport à ce qui va arriver, on pense que l’on va vers une démocratisation de l'accès aux capacités de calcul intensif et à l’Intelligence Artificielle, à la fois en termes de facilité d’usage, d’investissements, de coût énergétique, etc. Cela va passer par une mutualisation des moyens pour utiliser au mieux les partitions et des couches d’abstraction pour faciliter les usages. On travaille aussi sur de nouveaux processeurs moins énergivores et plus performants (Gravitron, Topaz, ARM…), de nouveaux composants de stockage et de réseau pour constituer des calculateurs ‘‘sur-mesure’’, et enfin sur le quantique, dont les premières machines permettent de mener des approches expérimentales. On offre déjà les premiers services permettant des allers-retours entre quantique et classique, afin de tester de nouvelles méthodes de calcul », explique Mathieu Jeandron d’AWS.

« Nous sommes totalement agnostique chez Atempo », constate Pascal Pottier. « On continuera donc à mixer Flash et Tape, solution qui a fait ses preuves pour l’archivage de gros volumes sur le long terme. Pour cela, on supporte toutes les plateformes NAS du marché et tous les grands systèmes de fichiers, tel Lustre, pas mal utilisé dans le monde scientifique, et que l’on voit arriver chez les Cloud Providers. Enfin, on travaille avec des partenaires sur le chiffrement des données, dont les cryptages actuels ne résisteront pas aux algorithmes de décryptage quantiques. »

« L’une des missions du TGCC est de répondre à des sollicitations étatiques en cas de catastrophes. Ces services d'Urgence Computing permettent de faire passer des jobs prioritaires de façon transparente et dynamique, comme on l’a fait pour les campagnes de calcul liées à la pandémie du Covid, et on va les généraliser », révèle Christine Ménaché du CEA. « On va aussi développer des services pour distribuer des calculs sur des machines hybrides (HPC et quantique) et, enfin, mettre en place des outils d’estimation et d’aide à la réduction de la consommation énergétique et de l’empreinte carbone des applications. Avec peut-être à la clé, un service automatique qui distribuerait les calculs sur une partition en fonction de leur consommation énergétique. »

« On travaille sur des outils pour automatiser de manière transparente pour l’utilisateur la distribution des jobs sur des architectures hybrides (On Premise, Cloud…). Pour cela, on collabore à des projets scientifiques qui vont dans ce sens, notamment grâce à l’utilisation de l’Intelligence Artificielle, qui va être capable de comprendre les besoins des utilisateurs », constate Pierre Puigdomenech chez Do'It Now.

« Chez nous aussi on souhaite rendre l'utilisation de la ressource de calcul transparente pour l’utilisateur, qu’il s’agisse de On Premise ou de Cloud. Ainsi le département de l'énergie britannique va tester nos IPU mis à disposition ‘‘as a service’’ par notre partenaire Forlabs, avec l’aide d’Atos. Outre la disponibilité immédiate, avec une granulosité de la ressources optimisée par rapport à l’utilisation, cela permet d’avoir un TCO maitrisé et une utilisation très simple », explique Gauthier Soubrane de Graphcore.

« Alors chez Oracle, on est un petit peu à contre-pied quant aux nouveaux services, c'est à dire qu'on vise à garder les mêmes services et les mêmes niveaux de performances, mais en changeant le type d'installations. C'est à dire qu’en plus du Cloud public, l'idée c'est de proposer des infrastructures qui vont s'adapter à chacun, de manière à prendre en compte ses contraintes en termes de résidence de données et de disponibilité. On va ainsi avoir un Cloud beaucoup plus sécurisé et fermé pour le secteur public et institutionnel, et d’autres avec des Data Centers régionaux dédiés qui permettent de bénéficier de toute la performance et des services Oracle, notamment en termes de HPC, mais avec des conditions d'accès particulières. Enfin, on travaille aussi sur un Cloud souverain européen qui prendra en compte les restrictions en termes de localisation », révèle Yann Caniou.

« On va continuer à innover sur ce qu’on sait faire aujourd'hui dans le domaine du stockage des données et de leur contrôle d'accès », constate Bertrand Ounanian de Vast Data. « On va voir arriver de nouvelles technologies dans les médias Flash, tel le PLC, qui va permettre une densification de l’ordre de 25 %. Enfin, on fera prochainement des annonces sur la géo-distribution des données et leur mise à disposition. Ce qui nous importe, c'est la capacité d’être à même de traiter la donnée, à différents endroits, avec une latence dépendant des besoins des applications qui analysent ces données, qu’il s’agisse de Cloud ou de quantique. »

Une table ronde de bonne tenue qui a permis à l’auditoire de partager la vison présente et à venir des différents intervenants sur l’évolution des usages et des applications qui sont au cœur du HPC.

Pour toute autre information concernant les sessions plénières, prière de contacter :

Jean-Pascal JEGU
Tél : +33 (0)9 70 65 02 10 - Mob.: +33 (0)6 11 44 49 59
jean-pascal.jegu@teratec.fr
Campus TERATEC
2, rue de la Piquetterie
91680 BRUYERES-LE-CHATEL
France

 

© Teratec - Tous droits réservés - Mentions légales