L’essor du cloud a été l’une des tendances marquantes des dix dernières années – et sa croissance continue la placera également au cœur des dix années à venir.

Sur la même période, l’explosion de l’Internet des objets (ou IoT) va redéfinir en profondeur la manière dont les données sont créées, acheminées et traitées. Si bien que, d’ici 2025, 80% de nos données seront traitées en dehors du cloud et des datacenters, contre seulement 20% à l’heure actuelle.

Où nos données vont-elles donc aller, si ce n’est dans le cloud ? Réponse : au plus près de nous.

Pour bien comprendre cette évolution, il nous faut remonter un peu dans le temps.

Au cours de ces dernières années, le cloud a révolutionné l’informatique. Et, même si on ne s’en rend pas toujours compte, il fait désormais partie de notre vie quotidienne, tant personnelle que professionnelle.

Des études récentes montrent ainsi qu’aujourd’hui, 19 entreprises sur 20 utilisent le cloud et les datacenters. Et les milliards de personnes qui utilisent Whatsapp pour converser avec leurs amis, écoutent leur musique préférée sur Spotify ou vérifient leurs e-mails en déplacement utilisent le cloud quotidiennement sans le savoir.

Il peut donc sembler un peu étrange – ou, à tout le moins, provocateur – d’annoncer que nous entrerions dès à présent dans l’ère de l’« après-cloud ».

Car, dans un avenir prévisible, le cloud et les datacenters resteront incontournables… Et ils continueront à croître rapidement pour répondre à la demande, que ce soit en services, en applications ou en espace de stockage.

En conséquence, cette ère « post-cloud » ne sera pas une ère où le cloud va décliner, bien au contraire – mais une ère où les données qui ne transitent pas par eux croissent de façon encore plus rapide.

 

Voici venue l’ère des machines

Pour comprendre pourquoi, il faut d’abord se rappeler que, d’ici 2025, la grande majorité des données ne seront pas créées par des humains, mais par des objets et des machines – par ce que nous appelons l’Internet des objets.

Dans le monde de 2025, ces objets – qu’il s’agisse des capteurs intelligents de nos villes, des véhicules de plus en plus connectés qui parcourent nos rues ou des machines qui équipent les entrepôts et les usines, entre autres – créeront près de 90% des données de l’humanité.

Et pour ces objets et machines, tout envoyer dans le cloud est rarement la meilleure option. Dans certains cas, ce n’est même pas une option du tout.

 

La fin du « cloud par défaut »

Pourquoi ? L’un des problèmes qui se pose tient à la quantité de données à envoyer.

D’ici 2025, il y aura, selon l’institut IDC, plus de 80 milliards d’appareils connectés en activité. Imaginez un instant, en conséquence, la bande passante et l’espace de stockage nécessaires pour envoyer toutes les données qu’ils produisent dans le cloud !

Un second problème est celui des temps de réponse.

Pour certains usages, une certaine latence ne pose pas vraiment problème : lorsque j’écoute un podcast et que mon flux de données est interrompu par le passage sous un tunnel, c’est sans doute agaçant mais ce n’est pas dramatique.

En revanche, quand on parle d’un véhicule autonome, un temps de réponse excessif ou une connexion défaillante peut littéralement être une question de vie ou de mort – la différence entre freiner au bon moment et freiner une seconde trop tard, par exemple.

Et si l’exemple de la voiture est sans doute le plus parlant, ce n’est qu’une des nombreuses utilisations pour lesquelles ces problématiques de temps de latence et de disponibilité du réseau sont un facteur.

Dans ces situations, nous allons devoir traiter les données beaucoup plus près de leur source, à la périphérie (Edge en anglais) du réseau – c’est sur ce principe que repose l’Edge computing.

 

Cloud et Edge computing, deux technologies complémentaires

Pour ces cas de figure, les données doivent être traitées soit directement par l’appareil lui-même (la voiture, le téléphone, etc.) soit à proximité, que ce soit par antennes relais ou des petits datacenters locaux – en d’autres termes à la périphérie du réseau.

Le cloud et les datacenters continuent ainsi d’être le cœur du réseau, mais toutes les données n’y transiteront pas.

Pour les entreprises, Edge et cloud peuvent offrir une excellente combinaison, qui leur permet de choisir quelles données seront traitées localement et lesquelles seront stockées dans le cloud. Cela apporte par exemple un plus grand contrôle sur leurs informations stratégiques et sensibles, leurs données d’exploitation, etc.

L’infrastructure de proximité de l’Edge permettra également de se passer temporairement du cloud lorsqu’il n’est pas disponible, ce qui permettra d’éviter tout délai ou perte d’information.

Pour certains professionnels de l’informatique, ce terrain peut sembler familier : Atos, par exemple, a été l’un des pionniers de la mise en œuvre de l’intelligence artificielle « sur site », permettant de traiter en local des données, soit pour répondre à des contraintes physiques (par exemple dans l’industrie) ou parce que ces données sont particulièrement sensibles.

Mais pour de nombreuses entreprises, il s’agira d’un changement important dans le traitement des données et dans la façon dont elles orchestrent leur infrastructure.

 

L’intelligence artificielle au plus près des sources de données

S’il constitue un défi, ce changement créera en contrepartie de nombreuses possibilités nouvelles.

A l’horizon 2025, 30 % des données seront des données en temps réel. L’Edge computingpermettra de les gérer, de les transmettre et des les analyser beaucoup plus rapidement.

En outre, il permettra de faire fonctionner l’intelligence artificielle de façon locale et embarquée – embarquée aussi bien au niveau d’un feu de circulation pour réguler les flux que par les robots d’une chaîne de production pour leur permettre de communiquer entre eux et de s’adapter.

Un exemple pratique que nous avons récemment mis en œuvre : nous avons permis aux éoliennes d’un réseau européen d’énergie de communiquer entre elles, de n’envoyer que les informations nécessaires au cloud et de s’adapter aux problèmes de connectivité du réseau.

Autre exemple : dans le domaine médical, l’Edge computing sera la technologie indispensable pour créer des « robots-chirurgiens  » capables d’assister les praticiens en s’adaptant en temps réel à ce qu’ils voient et à la situation du patient, grâce à l’intelligence artificielle. En pareil cas, mieux vaut en effet ne pas être tributaire d’une connexion 4G ou du Wi-Fi de l’hôpital !

Dans le domaine de la construction, c’est l’Edge computing qui sera utilisé par les bâtiments intelligents pour réduire leur consommation d’énergie grâce aux données envoyées par leurs éclairages et thermostats connectés.

 

L’avenir est « proche » !

Et ce traitement des données « près de la source » pourra avoir de nombreux effets secondaires positifs, tant pour les entreprises que pour les consommateurs.

Il permettra notamment de limiter la quantité de données personnelles et privées stockées dans le cloud. À une époque où de nombreuses personnes s’inquiètent des usages qui sont faits de leurs enregistrements vocaux, des données utilisées par la reconnaissance faciale ou pour identifier leurs empreintes digitales, l’Edge computing peut constituer une solution plus sûre et plus respectueuse de la vie privée.

Cette subsidiarité permettra en outre une plus grande sécurité des données. Ce point est crucial, car la cybersécurité est encore largement considérée comme le talon d’Achille de l’IoT.

En d’autres termes, cette évolution peut apporter des solutions à quelques uns des problèmes-clés auxquels l’informatique fait aujourd’hui face.

C’est pour cette raison que l’Edge computing constitue le thème principal de mon intervention à Vivatech le 16 mai, et des Atos Tech Days.

Nos experts présentent à cette occasion des cas pratiques d’utilisation… et plusieurs  premières mondiales !

Alors, êtes-vous prêt pour la révolution de l’Edge ?

 

Cliquez ici pour visualiser l’article