|
||||||||||||
![]() |
||||||||||||
|
Accueil > Forum TERATEC > Ateliers
Continuum HPC / Edge / Embedded
À l'occasion d'un atelier réunissant des industriels utilisateurs avancés, des entreprises technologiques leaders et des scientifiques, nous aborderons les défis et opportunités du continuum computing. Cette approche innovante vise à unifier les capacités de traitement des données, des centres de données traditionnels ou de calcul HPC (High-Performance Computing) aux dispositifs embarqués edge et IoT. Nous explorerons les enjeux présentés ci-dessous liés à la gestion des ressources, la latence et la sécurité, tout en intégrant les avancées de l'IA dans les environnements edge. Le continuum computing permet de lever le principal frein à la numérisation massive et complète des entreprises. De même, nombre de simulations numériques sont amenées à traiter des volumes de données temps réel toujours plus gigantesques, nécessitant une unification similaire. Dans tous les domaines, les infrastructures scientifiques et industrielles évoluent donc de plus en plus dans ce sens. Cependant, malgré ses avantages indéniables, cette approche fait face à plusieurs défis importants. Tout d'abord, la gestion des ressources constitue un enjeu majeur. Les environnements HPC sont souvent conçus pour traiter des charges de travail massives, autonomes et non temps réel, le tout avec des ressources centralisées et non limitées. En revanche, les dispositifs « Edge » sont généralement contraints en termes de puissance de calcul et de stockage L'optimisation de l'allocation des ressources et le dimensionnement en fonction des besoins spécifiques des applications et de la localisation des données est un des enjeux majeurs à adresser. La latence est elle aussi un défi significatif. Les applications critiques exigent souvent une faible latence, comme celles utilisées dans l'Internet des objets (IoT) qui doivent être optimisées pour fonctionner efficacement sur des infrastructures distribuées. Cela nécessite le développement de nouvelles architectures et protocoles pour garantir que les données sensibles au temps soient traitées rapidement et efficacement sur toute la chaine de traitement. Enfin, la sécurité est également une préoccupation majeure. La décentralisation des données et des traitements entre les serveurs et les dispositifs « Edge » et IoT introduit des surfaces d'attaques supplémentaires et des zones complexes à protéger de par l’hétérogénéité et la distribution des architectures de traitement. Il est impératif de mettre en œuvre des mesures robustes de sécurité pour protéger les calculs en cours ainsi que les données en transit et au repos, tout en respectant les réglementations sur la protection des données. Avec l’essor de l’IA, il est également nécessaire de prendre en compte l’intégration de chaines de développement et d’exécution d’applications IA en coopération entre les niveaux centralisés et edge. Cela revient à devoir exécuter les chaines de « MLOPS » voire de « MLSECOPS » qui sont distribuées alors qu’auparavant elles n’opéraient que dans des environnements centralisés. Inscrivez-vous au Forum Teratec pour participer à cet atelier >>>Pour toute autre information concernant les ateliers techniques, prière de contacter : Jean-Pascal JEGU |
|||||||||||
© Teratec - Tous droits réservés - Mentions légales |