top of page
  • Photo du rédacteurThierry Bardy

La double révolution de l'edge computing



Jacques Henno


Le cloud de proximité permet de piloter des machines-outils ou d'animer un jeu vidéo en temps réel. Mais s'inscrit également dans une nouvelle chaîne de traitement continue des données industrielles, marketing, financières…

A peine la carte électronique est-elle sortie de la chaîne de production qu'elle est prise en photo ; le cliché est immédiatement envoyé, via un réseau 5G, à un algorithme d'intelligence artificielle, chargé de vérifier la bonne qualité du composant. Ce logiciel, installé dans un serveur d'edge computing, à quelques mètres des ateliers, rend sa décision en moins de 20 millisecondes : en cas de défaut, il peut en trouver l'origine et ajuster alors le comportement des robots ou demander à un opérateur humain de revoir le choix des fournisseurs de puces… Puis, tous les soirs, les informations collectées dans la journée par cette IA sont envoyées dans un data center, à plusieurs milliers de kilomètres de là. Elles sont regroupées avec les données expédiées par les logiciels identiques déployés dans les autres usines du groupe, puis moulinées par une autre IA : l'algorithme de contrôle qualité a-t-il repéré toutes les cartes défectueuses ? A-t-il pris les bonnes décisions ? Si nécessaire, une nouvelle version de ce contrôle qualité est automatiquement téléchargée partout dans le monde…

Science-fiction ? « Non, c'est une des expériences pilotes, actuellement menées aux quatre coins de la planète, pour déterminer les cas d'usage les plus intéressants de l'edge computing », indique Jean-Paul Smets, fondateur et PDG de Nexedi, une entreprise lilloise spécialisée dans le cloud décentralisé et le Big Data industriel. « L'edge computing permet de bénéficier de toute la puissance et de toute la souplesse, en termes de virtualisation, du cloud computing, mais au plus près de la collecte des données », commente Claudio Scola, responsable produits et solutions chez Lumen (services de télécommunications), pour l'Europe, le Moyen-Orient et l'Afrique.

Fini les allers-retours de plus de 800 millisecondes pour envoyer des informations, les faire analyser dans les data centers d'Amazon, Google, Oracle et autres, puis recevoir la réponse. Un serveur installé dans un rayon de 10 kilomètres permet un traitement beaucoup plus rapide. Cette réactivité intéresse les industriels dont les robots et les machines-outils ont besoin d'être ajustés et coordonnés en quelques millisecondes. Mais aussi les spécialistes de tout ce qui est « intelligent » (smart city, home, health…), qui veulent réagir très vite à la moindre alerte émise par un capteur. Sans parler des créateurs d'univers de réalité virtuelle, qui souhaitent rendre beaucoup plus fluide l'expérience utilisateur : sous un casque de VR, toute latence de plus de 20 millisecondes perturbe le cerveau ; le joueur a le mal de mer.

Bouleversement informatique

Mais l'edge computing ne constitue en réalité que la partie visible d'une révolution beaucoup plus large, sur le point de bouleverser l'informatique des entreprises : celle du computing continuum, une informatique sans interruption qui irait du cloud à l'edge. « 5G, Big Data, automatisation de la gestion des logiciels tournant sur des serveurs distants, IoT… l'accumulation des progrès technologiques des cinq dernières années va permettre aux entreprises de stocker et traiter les données au plus près des besoins, mais aussi en continu tout au long de la chaîne de transmission », explique Angelo Corsaro, directeur des technologies du groupe taïwanais Adlink (solutions matérielles et logicielles pour l'industrie, l'edge et l'IA).

Le traitement de la data pourra se faire sur un ordinateur installé dans un point de vente pour envoyer des messages personnalisés sur les smartphones des clients entrant dans la boutique. « Mais les informations pourront aussi être traitées dans des serveurs implantés au pied d'une antenne d'un opérateur de téléphonie mobile », détaille Fotis Karonis, responsable monde de l'offre 5G et edge pour Capgemini. Par exemple, pour regrouper les ventes des magasins d'une même enseigne, dans une même ville, et anticiper au mieux leur réapprovisionnement ; ou être consolidées dans un centre de données pour entraîner un algorithme d'IA dédié à l'optimisation des collections de prêt-à-porter, à partir des chiffres d'affaires remontés du monde entier, mais aussi des profils des consommateurs.

Amélioration du contrôle qualité dans les usines d'un constructeur aéronautique, maintenance prédictive dans les mines utilisant les machines d'un équipementier… les projets pour exploiter ce continuum informatique ne manquent pas. Nexedi coordonne par exemple un EDIDP (programme de développement de l'industrie de défense européenne) visant à mettre au point, avec des sociétés slovaque, bulgare et allemande, une IA de pilotage autonome d'essaims de drones destinés au sauvetage en mer ou au suivi des récoltes. Là, les serveurs d'edge computing sont directement embarqués à bord des drones ; reliés entre eux par radio, ces appareils constituent un réseau de communication maillé, quasi indestructible.

Sécurité des données

Les brigades de sapeurs-pompiers de l'Essonne, des Yvelines et de la Seine-et-Marne vont expérimenter des mini-boîtiers d'edge computing, mis au point par la start-up parisienne Green Communications, afin d'établir un réseau maillé et d'analyser en temps réel les paramètres corporels de ces soldats du feu, leur géolocalisation, les images transmises par leurs caméraspiétons, tout en faisant remonter ces informations vers un centre de données pour y entraîner des intelligences artificielles… « En plus de la défense, des voitures autonomes ou du jeu en ligne, les utilisations potentielles couvrent la fabrication à la demande, les jumeaux numériques, la gestion des réseaux d'énergie et de services publics… », énumère Carlo d'Asaro Biondo, PDG de Noovle, la filiale cloud de TIM. Seules survivront les applications les plus rentables.

Resteront alors deux très épineux problèmes. « Tout d'abord, comment assurer une bonne coordination entre toutes ces briques logicielles afin de préserver la sécurité des données partagées ? » insiste Renaud Bidou, directeur technique Europe du Sud de Trend Micro, un éditeur japonais spécialisé dans la cybersécurité. Second défi : « Comment partager les profits entre toutes les parties prenantes à cette informatique en continu : fournisseurs de cloud, opérateurs, fournisseurs de systèmes informatiques de périphérie, fournisseurs d'équipements réseau… ? Répondre à ces questions de modèles économiques est un objet important de nos expérimentations en cours », prévient Benoit Parneix, chargé de l'avant-vente solutions réseau et cloud chez Ericsson pour la France, la Belgique, le Luxembourg, l'Algérie et la Tunisie. La solution passera, là, non par la technique, mais par des négociations ardues entre dirigeants d'entreprise. Bon courage !

Lexique

Cloud computing : ordinateurs et applications sont accessibles par l'intermédiaire d'Internet. Leur déploiement et leur gestion sont automatisés, ce qui permet de les adapter facilement aux besoins des entreprises.

Computing continuum : les données circulent facilement de l'edge au data center, équipés des mêmes applications et des mêmes logiciels de gestion des serveurs.

Data center : les centres de données centralisent les services informatiques des entreprises. Le grand public assimile souvent ces centres informatiques aux immenses data centers d'Amazon ou Google proposant aussi des serveurs accessibles en cloud computing.

Edge computing (ou cloud de proximité) : les données sont stockées et traitées au plus près de leur source, sur des serveurs de cloud computing.

Latence : il s'agit, sur un réseau informatique, du délai entre le moment où une information est envoyée et celui où elle est reçue.

Virtualisation : faire tourner plusieurs systèmes d'exploitation et plusieurs applications sur un même ordinateur.

Un saut technologique permis par la 5G


« Dès qu'une application, industrielle par exemple, requiert des temps de latence - de réaction - très courts, des débits de communication très importants et une totale disponibilité du réseau, il faut des serveurs d'edge computing juste à côté », résume Adrien Lebre, responsable de l'équipe de recherche STACK, commune au CNRS et à l'Inria, dédiée aux prochaines générations d'infrastructures digitales, et professeur à IMT Atlantique. « Or ce que permettent entre autres les réseaux de télécommunication 5G, ce sont justement des temps de latence très faibles », ajoute Jean-Paul Smets, PDG-fondateur de Nexedi, entreprise spécialisée dans le cloud décentralisé. Les destins de ces deux technologies - edge computing et 5G - semblent donc liés, en particulier dans l'industrie. « Grâce à un réseau 5G installé dans une usine, il est possible d'envoyer des ordres similaires vers les antennes des robots de production : utiliser des réseaux filaires est plus compliqué », précise Guy Pujolle, professeur émérite à Sorbonne Université, membre du pôle de compétitivité Systematic et cofondateur de Green Communications.



3 vues0 commentaire

Posts récents

Voir tout

Responsabiliser les consommateurs

Natacha Valla www.clubopenprospective.org Dans un monde de plus en plus conscient de son empreinte écologique, le rôle des consommateurs dans la responsabilité sociale et environnementale devrait reve

A Davos, l'IA a occupé le coeur des débats

Nicolas Barré et Jean-Marc Vittori Deux sujets ont fait consensus cette année lors du Forum économique mondial de Davos : l'intelligence artificielle générative, qui va avoir des effets massifs sur le

bottom of page