|
Accueil > Forum TERATEC > Sessions plénières
Forum TERATEC 2020 Simulation et Big Data : défis technologiques et diversité des usagesLes sessions plénières de la première journée ont dressé un véritable panorama des besoins des utilisateurs dans l’ensemble des secteurs économiques, ainsi qu’un état de l’art de l’offre et de la recherche. En ouverture des sessions plénières, Christian Saguez, président de Teratec, a rappelé le rôle incontournable des technologies numériques pour le développement économique de notre pays. Il a notamment souligné les challenges que l’ensemble des secteurs économiques allaient devoir relever pour faire leur transition numérique en termes de traitement de très gros volumes de données (IoT, réseaux, Big Data…), de très forte croissance des puissances de calcul (CPU, GPU, FPGA, QPU…), d’algorithmes adaptés au parallélisme (Deep Learning et IA…) et d’accessibilité (Cloud, Blockchain…). Il aussi insisté sur la nécessité d’un effort continu de R&D, unissant Recherche et Industrie, et fédérant les acteurs au sein de grands programmes nationaux et européens, dans une démarche collaborative de co-design des technologies et des applications. Teratec au cœur des défis de la transition numérique Il a ensuite rappelé les grandes initiatives et programmes européens en cours auxquelles participe Teratec (CESIMat ; SiMSEO; DataPoc ; EuroHPC ; Horizon 2020 ; ITEA ; ETP4HPC ; IPCEI) insistant sur les efforts déployés par Teratec pour aider notamment les PME et ETI à franchir le pas de la transition numérique. « Nous sommes aussi entrain de lancer un certain nombre d’initiatives sectorielles dans : les Systèmes autonomes ; les Matériaux et leurs usages ; l’Impression 3D ; le HPC/HPDA en Avant-projets ; la Santé et la médecine personnalisée ; les Ressources naturelles ». Il a aussi annoncé l’ouverture prochaine d’un Centre de compétences en calcul quantique sur le Campus de Teratec à Bruyères-le-Châtel (91). « Il va fédérer un certain nombre d’industriels utilisateurs (CEA , Dassault-Aviation ; EDF ; IP-EN ; Total), d’offreurs de technologies (Atos) et de centres de recherche (CERFACS) ;le Paris Centre for Quantum Computing - PCQC ; l’Université de Reims) pour monter rapidement en compétences et développer les savoir-faire adéquats ». Ce centre de compétence sera doté d’un simulateur de calculateurs quantiques installé dans le Centre de calcul, recherche et technologie (CCRT) situé au sein du Campus Teratec. Autre annonce importante, celle d’un accord de collaboration avec Génopole pour faciliter le traitement des très gros volumes de données numériques nécessaires à la recherche en génomique, médecine personnalisée et biotechnologies. L’enseignement et la recherche relèvent le défi du HPC Des défis auxquels l’Ecole Polytechnique, qui accueillait la manifestation, s’attaque. C’est ce qu’a expliqué François Bouchet, Directeur général de l’école. Il a ainsi mis en avant l’importance du calcul haute performance, alliant mathématiques et informatique, deux points forts de l’école, dans le cursus des élèves, mais aussi dans les recherches fondamentales qui sont menées à l’X. Il a aussi annoncé la création d’un mésocentre de calcul. Isabelle Ryl, Directrice générale déléguée aux transferts et partenariats industriels, et Bruno Raffin, directeur de recherche à l’INRIA, ont rappelé le rôle de l’institut national dans la recherche informatique et les transferts de technologies vers les entreprises utilisatrices, ainsi que ses actions et projets de recherche dans les domaines plus spécifiques de la Simulation numérique, du HPC et du Cloud (CS2@Exa; FRATRES ; HAC-SPeCiS ; DISCOVERY ; HPC-BIG Data ; ELCI ; Grid'5000 ; SILECS ; EoCoe ; JLESC…). Ils ont notamment insisté sur l’inévitable convergence qui se met en place entre le HPC et l’IA/Big Data et les recherches dédiées en cours à l’INRIA. Plus proche du matériel, Eric Van Hensbergen, Fellow & Senior Director of HPC de arm, a présenté le rôle de sa société dans le développement de processeurs et d’architectures adaptés aux besoins du HPC tels les Cavium Thunder X1 et X2, avec notamment la participation au projet Montblanc, ou la présence au cœur de l’OpenHPC et de Linaro HPC-SIG. L’intelligence artificielle augmentée par l’intelligence humaine Très appréciée, la présentation de Nicolas Vayatis, directeur du CMLA et du Master MVA de l’ENS Paris-Saclay, a insisté sur le rôle de l’intelligence humaine pour augmenter l’intelligence artificielle. Il a notamment fait un parallèle intéressant entre les applications B2C, largement utilisées pour le marketing digital à travers Internet, et les applications industrielles B2B. « Ces dernières sont généralement très spécifiques, ce qui représente un très gros coût d’apprentissage car il faut faire appel à l’expertise de spécialistes. Il faut donc essayer de réduire ce coût en répliquant les expériences. Tout l’enjeu est de transférer tout ou partie de la connaissance à des données et des process différents. Il faut donc développer des méthodes d’apprentissage robustes acceptant les changements de domaine. L’idéal étant de calibrer des méthodes avec zéro données. Autre point important, développer des chaines de traitement capables de s’adapter au changement incessant des données industrielles en fonction de nouveaux produits et process de production. Il faut aussi que ces chaines soient capables d’utiliser des données issues de la simulation et de les combiner avec des données issues de la vie réelle ». Bien entendu il ne faut pas négliger le facteur humain dans le développement de ces applications d’IA industrielle. « Il ne faut pas oublier que ces projets d’apprentissage sont des projets informatiques avec des écueils bien connus. Il faut donc les confier à des spécialistes informatiques pour éviter les catastrophes industrielles, tout en intégrant dès le début des experts du terrain, proches de la source des données, et tenir compte des informations et remarques qu’ils feront ». Il estime ainsi que parmi les différentes méthodes d’apprentissage, l’apprentissage supervisé et l’apprentissage par transfert, particulièrement bien adapté aux problématiques industrielles où il faut transférer des savoir-faire à des problèmes nouveaux sur des systèmes nouveaux, vont exploser dans les années à venir. Par contre, il pense que l’apprentissage non-supervisé et l’apprentissage par renforcement vont rester marginaux à court terme. Sans HPC plus de sciences Enfin, Cédric Villani, Médaille Field 2010, Député de la 5e circonscription de l’Essonne, premier vice-président de l'OPECST (Office parlementaire d'évaluation des choix scientifiques et technologiques) et coordinateur du rapport parlementaire ‘‘Donner un sens à l’intelligence artificielle’’, a clos la matinée en insistant sur le fait que : « la science, et notamment l’IA, ne peut plus se développer aujourd’hui sans un accroissement de la quantité de calcul considérable, afin de soutenir l’intuition des démarches les plus créatives ou d’éviter de se fourvoyer dans des absurdités ». De l’automobile à la mobilité La reprise de l’après-midi s’est faite avec l’exposé de Rémi Bastien, VP Prospective Automotive de Renault, qui a présenté les grands défis que doivent relever les acteurs de la mobilité et notamment ceux impliqués dans l’automobile : le véhicule électrique ; le véhicule connecté ; le véhicule autonome. « Ce sera d’autant plus important pour les constructeurs automobiles traditionnels qui vont devoir faire face à l’arrivée de nouveaux acteurs tels Tesla, mais aussi Google ou Apple. Cela va changer notre façon de voir l’automobile qui, de plus en plus, va être considéré non plus comme un bien mais comme un service de mobilité, qui sera partie intégrante des réseaux d’énergie en stockant par exemple les énergies renouvelables ne pouvant être consommées au moment de leur production ». Pour le véhicule autonome, la technologie va être importante en termes de capteurs, de reconnaissance des situations grâce à l’IA, d’aide à la décision et de pilotage des actionneurs gérant l’accélérateur, le frein et la direction. Des technologies qui devront être redondantes pour faire face à d’éventuelles défaillances d’une partie du système. Mais la clé du succès sera dans l’acceptation et la confiance du public dans la sécurité des systèmes. Pour cela, il faut expérimenter pour mesurer la fiabilité des systèmes autonomes. « Si aujourd’hui la moyenne des décès sur la route dans les pays industrialisés est de 1 pour 1 million d’heures de conduite sur les routes et de 1 pour 10 millions d’heures de conduite sur les autoroutes, les constructeurs automobiles se sont fixés comme objectif 1 pour 100 millions d’heures de conduite pour le véhicule autonome ». Il sera donc beaucoup plus sûr. Le véhicule connecté sera quant à lui à la fois un très gros producteur et un très gros consommateur de données numériques, notamment dans le cadre du dialogue permanent qu’il va établir avec les infrastructures et les autres véhicules pour optimiser la sécurité du trafic. « Ce qui veut dire qu’à moyenne échéance le véhicule va devenir un système de systèmes, dans lequel le logiciel représentera plus de la moitié de la valeur. C’est pourquoi la simulation numérique et le HPC seront incontournables car, comme l’a annoncé Toyota, valider physiquement un véhicule autonome demanderai plus 15 milliards de km d’essais ». L’Europe se mobilise Difficile de s’y retrouver dans les différents programmes européens ayant été lancés autour du HPC depuis une décennie. C’est pourquoi Jean-Philippe Nominé, de la Direction des analyses stratégiques du CEA, s’est attaché à dresser un panorama de ces évolutions, depuis Prace en 2010 jusqu’à EuroHPC aujourd’hui en passant par ETP4HPC en 2012 et l’implication forte de la Commission Européenne à partir de 2016, renforcée par la déclaration de Rome en mars 2017. « Aujourd’hui la Commission lance le programme Digital Europe qui sera doté de 9,2 milliards d’Euros sur la période 2021-2027. C’est la manifestation d’une véritable volonté politique d’affirmer l’importance de ces sujets. Ainsi, ce premier véritable programme numérique européen aidera au développement des super-calculateurs, de leur composants et logiciels à hauteur de 2,7 B€, de 2,5 B€ pour l’Intelligence Artificielle, de 2 B€ pour la cyber-sécurité, de 700 M€ pour la formation, et 1,3 B€ pour l’aide à la transition numérique des administrations et des entreprises ». Traiter facilement de gros volumes de données Denis Caromel, président et fondateur d’ActiveEon, spin-off de l’INRIA, a montré comment sa suite de Workflows & Scheduler utilisée sur du HPC lié à du Cloud hybride, permet de traiter de manière très souple de très gros volumes de données dans de multiples secteurs économiques. Il a ainsi montré comment il pouvait créer et valider un réseau de 20 000 cœurs Azure en moins de 15 minutes et ce qu’en fond des clients aussi variés que : le CNES pour l’analyse d’images satellitaires ; Legal & General pour l’analyse de risques financiers ; Komatsu pour la gestion de matériels miniers via l’IoT ; le Ministère britannique de l’Intérieur pour la délivrance de visas et la réduction de la criminalité : l’INRA dans la domaine des biotechnologies ; le CEA-List pour l’évaluation non-destructive de pièces destinées aux industries nucléaires, pétrolières et aérospatiales. « Outre le niveau de performance en termes de traitement, ce type de solution permet aussi d’ajuster au mieux le nombre de cœurs nécessaires pour une application donnée, ce qui est grandement apprécié par les directeurs financiers de nos clients ». Le numérique au cœur des systèmes navals Souvent oublié, le secteur de la construction navale est lui aussi un grand utilisateur du Big Data, du HPC et de l’IA. C’est ce qu’est venu montrer Eric Papin, directeur technique, de l’innovation et de l’expertise technologique de Naval Group. Il a expliqué comment les technologies numériques se retrouvaient à la fois au cœur des navires militaires de surface et sous-marins qu’ils développent, ainsi que des moyens de production associés au sein des chantiers de construction navale à travers l’approche ‘‘Digital Twin’’. Et ce qui est vrai pour les navires l’est aussi pour les chantiers qui les construisent, car eux aussi ont fait leur révolution numérique, utilisant de plus en plus : la numérisation laser 3D pour comparer le ‘‘as built au as design’’ ; l’impression 3D pour réaliser des pièces aussi importantes que des hélices propulsives ; ou la réalité virtuelle et augmentée pour aider les opérateurs lors des opérations de construction. « Cette approche numérique de la conception et de la construction nous permet d’offrir à nos clients les jumeaux numériques de leurs bâtiments de combat, qu’ils peuvent utiliser pour former et entrainer les équipages, faire de la maintenance prédictive, de l’assistance technique à distance, etc. ». Valider les logiciels embarqués avant que le produit existe Dernière intervention de l’après-midi, celle d’Eric Selosse, VP et General Manager de la division émulation de Mentor (Groupe Siemens) qui a montré comment des supercalculateurs spécialisés, les émulateurs, permettent de valider le logiciel embarqué et le matériel avant même que le moindre silicium ne soit créé. « Grâce à ces machines ultra-performantes, il devient ainsi, par exemple, possible d’inclure cette émulation avec les modèles comportementaux de conducteurs et électro-mécaniques d’un véhicule, pour en simuler et optimiser le comportement routier avant même de réaliser un prototype physique. C’est une nouvelle manière de concevoir des véhicules qui va faciliter l’exploration d’approches techniques innovantes à moindre coût ». Pour retrouver les interventions des sessions plénières du Forum TERATEC 2019
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2018
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2017
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2016
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2015
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2014
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2013
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2012
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2010
Pour retrouver les interventions des sessions plénières du Forum TERATEC 2009
Pour toute autre information concernant les sessions plénières, prière de contacter :
|
||||||||||||||||||||||||||||||||||
© Teratec - Tous droits réservés - Mentions légales |