Quelle organisation – entreprise, université, centre de recherche, collectivité ou État – pourrait se permettre de gaspiller 90% de ses ressources ? Nul besoin d’être ou d’avoir été Ministre de l’Economie pour le deviner. La réponse tombe sous le sens : aucune. Et pourtant, aujourd’hui encore, pas moins de 9 données sur 10 ne font l’objet d’aucune forme de traitement alors qu’elles représentent une source potentielle inestimable de création de valeur.

De l’automobile à la médecine, la data est partout

C’est grâce à l’exploitation et à la modélisation des données que des plateformes emblématiques comme Uber ou Airbnb ont vu le jour. C’est aussi grâce à cette valorisation des données que les métiers « traditionnels » sont progressivement en train de se réinventer. L’automobile ne jure ainsi plus que par la voiture autonome, la médecine mise sur les molécules ultra-personnalisées pour soigner les individus et demain la météorologie sera capable de prédire les nappes de brouillard dans le rayon d’un aéroport.

Mais la révolution du Big Data est encore loin d’avoir porté ses fruits. Par manque de maturité d’abord, rares étant les structures à avoir intégré dans leurs rangs des Data analysts ou autres Chief digital officers pour « processer » et valoriser les données. Par manque de puissance de calcul ensuite, pour traiter en temps réel (prescriptive analytics) le véritable déluge de données généré  chaque jour par nos activités…

 Plus de données que de grains de sable sur la planète

L’augmentation exponentielle des données est notamment portée par les objets intelligents, dont le chiffre va exploser pour atteindre le seuil symbolique des 50 milliards d’objets connectés dans le monde en 2020. À cette échéance, ce sont 40 Zetabytes – soit 40 mille milliards de milliards de données exploitables – qui seront générées… soit davantage que le nombre de grains de sable sur Terre !

Ces grains de sable, il nous faudra non seulement savoir les compter, les identifier et les isoler, mais aussi être capables de les mettre en relation les uns les autres à tout moment. Avec, pour réaliser cette prouesse, des machines d’une puissance exceptionnelle : les supercalculateurs, ou High Performance Computers (HPC) en anglais.

Atos/Bull sequana : un milliard de milliards d’opérations par seconde

Aujourd’hui, un supercalculateur d’un pétaflop – c’est-à-dire calculant un million de milliards d’opérations par seconde – représente l’équivalent de 140,000 PC. Le Bull sequana, lancé cette semaine par Atos et en cours d’installation au Commissariat à l’énergie atomique et aux énergies alternatives (CEA), aura quant à lui une puissance équivalente à 20 millions de PC d’ici 2020… et sera bientôt capable de traiter un exaflop, soit un milliard de milliards d’opération par seconde !

Si multiplier la puissance par 150 est un défi, maîtriser la dépense énergétique en est un autre. Car à consommation actuelle, cela signifierait engloutir 400 mégawatts, soit la consommation annuelle d’une ville de 60 000 habitants, ou l’équivalent d’une tranche de centrale nucléaire…

Bientôt un supercalculateur de poche ? 

C’est pourquoi, dans le même temps, les équipes d’Atos ont divisé par 20 la consommation d’énergie et par 10 le volume d’encombrement, en construisant le supercalculateur le plus efficace au monde. Alors qu’il aurait fallu auparavant un étage d’immeuble pour le contenir, aujourd’hui un Bull sequana n’est pas plus encombrant qu’une armoire. A tel point que, lorsque j’ai présenté au Ministre de l’Economie, Emmanuel Macron, notre supercalculateur, certains photographes malicieux ont tenté de lui faire prendre la pose à l’intérieur de la machine !

La miniaturisation absolue reste l’un des défis à relever pour un appareil qui, encore aujourd’hui, pèse plusieurs tonnes. Elle n’est donc pas encore pour demain… Mais gardons en mémoire que le smartphone qui tient dans notre poche est plus puissant que l’ordinateur qui a envoyé l’homme sur la Lune… Et si les limites de la physique traditionnelle devaient être un obstacle à la poursuite de la loi de Moore, nous travaillons déjà chez Atos à l’ordinateur quantique, à l’horizon post-2030.

L’Europe dans la course mondiale du HPC

C’est cette soif constante d’innovation qui nous anime et qui permet au « Vieux continent » d’être pleinement engagé dans la course mondiale de la puissance de calcul, face à la Chine, au Japon et aux Etats-Unis – le Président Barack Obama ayant lui aussi lancé aux scientifiques américains le défi de l’exaflop… En plus des questions de souveraineté, les données se doublent aujourd’hui d’enjeux de croissance économique, d’investissement, de relocalisation près des sites de production, de recherche et de consommation, d’emploi, mais aussi et surtout de formation.

Autant de raisons qui militent en faveur de la création d’un puissant écosystème et d’une nouvelle filière d’excellence européenne, que j’ai défendue notamment auprès de Jean-Claude Juncker, Président de la Commission européenne, qui vient de souligner l’importance du calcul haute performance pour la numérisation de l’industrie européenne. C’est la raison pour laquelle j’encourage – aujourd’hui plus que jamais – les jeunes à s’engager résolument dans des études scientifiques et technologiques et, plus généralement, à aimer la science !