A l’ouverture de ses Technology Days 2019, au salon Viva Technology, Atos a lancé son offensive dans l’edge computing avec une offre dédiée comprenant un microserveur, un module matériel de sécurité et une plateforme d’Internet des objets. Le numéro deux français des services du numérique, derrière Capgemini, mise sur ce nouveau paradigme pour tirer parti du tsunami annoncé des données des objets connectés. Son PDG Thierry Breton répond aux questions de L’Usine Nouvelle.

L’Usine Nouvelle – Tout le monde parle de l’edge computing. Est-ce une juste nouvelle mode ou une vraie révolution ?

Thierry Breton – Ce qui est une révolution c’est la façon dont les clients vont produire leurs données. Aujourd’hui, ils le font d’une façon encore très localisée, et ces données sont stockées et traitées principalement d’une façon centralisée. Prenons l’exemple d’une grande partie des données émanant de l’activité d’une entreprise : services administratifs, gestion, expérience client, relations avec les fournisseurs, etc. Le client nous demande de les traiter dans les datacenters et, pour des questions de productivité, dans le cloud, donc dans des espaces connus et parfaitement identifiés. Si on prend les données qui vont être émises en 2019, on arrive à un volume de 40 zetaoctets, soit 40 000 milliards de milliards de données. Selon différents cabinets, 80% vont être traités de façon centralisée sur les datacenters et le cloud, et 20% ailleurs, à la périphérie ou l’edge, c’est-à-dire sur les lieux où elles sont émises comme l’Internet des objets, les smartphones ou les voitures connectées. A l’horizon de cinq ans, ce seront 80% à traiter dans l’edge et 20% dans les datacenters et le cloud.

Il y a déjà 20% des données traitées aujourd’hui dans l’edge. En quoi est-ce nouveau alors ?

Ce n’est pas nouveau pour nous. On en parle depuis 3-4 ans déjà. On parle aussi de swarm computing, c’est-à-dire d’essaim d’objets connectés qui interagissent pour créer des applicatifs et réactions en fonction des résultats de traitement des données qu’ils génèrent. Ce sont là deux thèmes majeurs qui vont structurer notre métier dans l’avenir. Les essaims d’objets connectés créent des données très importantes. On ne va pas s’amuser à les remonter dans le cloud pour les traiter et les descendre ensuite. On n’a pas la bande passante réseau pour le faire. On va les traiter localement. La capacité de calcul requise est tellement importante qu’il faut la délocaliser dans une sorte de mini cloud très dense. C’est pourquoi on parle aussi de fog computing, de brouillard de calcul.

Est-ce que cela va pénaliser le cloud ?

Pas du tout. Cela ne signifie pas que le volume de données à traiter dans le cloud et les datacenters va diminuer. Le volume de données créées va augmenter de façon exponentielle puisqu’on va passer de 33 zetaoctets en 2018 à 175 zetaoctets dans cinq ans. On va le multiplier par un facteur cinq ou six. On va donc augmenter le volume de données à gérer dans les datacenters et le cloud. Mais la proportion entre le datacenter-cloud et l’edge va basculer complètement. C’est ce basculement auquel nous devons nous préparer en tant que société de services du numérique pour accompagner nos clients dans cette évolution drastique.

HPE voit l’edge computing comme une opportunité plus importante que le cloud. Est-ce que vous partagez cette vision ?

Complètement.  L’edge va être beaucoup, beaucoup  plus gros que le cloud. C’est une évidence sans commune mesure. 80% des données vont être traitées dans l’edge dans cinq ans. On ne sait pas comment cela va se traduire en chiffre d’affaires. Mais je sais ce que les clients me demandent. Allez voir ce qui se passe dans une usine. Quand vous virtualisez l’usine, vous n’allez pas mettre cela sur le cloud. Il faut bien une plateforme pour le faire localement. Un autre exemple : la voiture connectée. Elle génère aujourd’hui 30 petaoctets de données par jour. C’est absolument gigantesque. Aucun réseau ne peut supporter cela. La fonction de traitement de données du véhicule électrique ou de la voiture autonome sera sans doute plus consommatrice d’énergie que sa fonction de mobilité. C’est un sujet dont on ne parle pas aujourd’hui.

Que pourrait représenter cette activité dans cinq ans chez Atos ?

Je ne peux pas répondre à cette question. Je dis simplement que je suis ce qui se passe dans mon activité. L’edge computing va être dans notre division IDM d’infrastructure data management, dont l’activité traditionnelle de datacenter ne représente que 15% du chiffre d’affaires. Le reste vient du cloud, de la gestion des stocks, du management d’information à distance, de l’Internet des objets, etc. Cette activité continuera à faire plus de 50% de notre chiffre d’affaires total, mais la répartition entre ses différentes composantes va changer. On va être gestionnaire d’infrastructure d’infrastructure, c’est à dire gérer, non plus des datacenters seulement, mais aussi des essaims d’infrastructures plus nombreux, des milliers voire des millions pour les clients. Une petite boite comme le serveur Bull Sequana Edge que nous lançons pour l’edge computing va générer sa propre infrastructure.

Qu’est-ce cela implique comme transformation pour votre entreprise ?

Le cloud nous a conduits à nous transformer. Cela va continuer dans le post-cloud. Avec l’edge computing, on entre sur un marché de l’opérationnel, de plus en plus vertical, tourné vers l’application finale du client. Ce sera dans un magasin, un hôpital, une usine, une voiture autonome, un avion, un bateau, un navire, avec à chaque fois des milliards d’infos à gérer. Ce que nous lançons est un serveur à 160 teraflops, c’est-à-dire un supercalculateur d’il y a dix ans dans un petit boîtier. Il dispose d’une architecture totalement intégrée pour répondre à des besoins de temps réel et locaux.

 

Cliquez ici pour visualiser l’article