« L’edge computing n’a de valeur que dans une stratégie cloud globale et maîtrisée »
Derrière le buzzword, l’edge computing (informatique en périphérie de réseau, en français) offre aux entreprises de nouveaux moyens pour valoriser et piloter les données produites par les machines. Pour Thales, qui a toujours travaillé à rendre les capteurs plus intelligents, c’est là une formidable opportunité pour développer de nouvelles applications. A condition d’être particulièrement attentif aux problématiques de cybersécurité que pose cette nouvelle façon de faire du cloud, comme nous l'explique Laurent Laudinet, responsable du segment des technologies internet chez Thales Research et Technology.
En traitant certaines données en périphérie, au plus près de leurs sources et non plus de façon centralisée, l’edge computing semble ouvrir de nouvelles perspectives. A tel point que certains voient déjà dans cette nouvelle méthode d’optimisation du traitement de la data un des piliers de l’entreprise de demain. Qu’en pensez-vous ?
On ne peut comprendre les enjeux associés à l’edge computing qu’en replaçant cette notion dans un mouvement plus général de transformation des entreprises : celui de la convergence IT / OT (technologies de l'information / technologie opérationnelle - voir encadré).
Le monde de la technologie opérationnelle, ancré dans la réalité physique des machines, des capteurs, et des processus industriels avait tendance à mener une existence bien distincte de celle de l’informatique de gestion, centrée, elle, sur la donnée et son exploitation. Cette dichotomie s’expliquait notamment par des logiques de spécialisation, mais surtout par la nécessité de sécuriser les processus industriels.
La promesse de l’edge computing, c’est de rapprocher ces deux univers, en permettant à certaines applications qui, pour des questions de latence ou de sécurité, ne le pouvaient pas jusque là, de s'exécuter "on premise” (sur site), d’effectuer des calculs et du traitement de données de façon fiable directement sur des machines en périphérie de réseau.
L’edge computing ouvre ainsi au monde de l’OT des perspectives similaires à celles que le cloud a apportées à l’IT, avec la possibilité notamment de mises à jour régulières d’applications, déployées au plus près de l’utilisateur. En outre, une grande partie des systèmes d’information des entreprises ayant déjà migré sur le cloud, l’edge computing, en y raccordant aussi les données issues des systèmes d’information industriels, permet de faire dialoguer entre elles, dans le cloud, des données qui, jusque-là, ne communiquaient pas. Avec, à la clé, des perspectives économiques très intéressantes pour beaucoup d’entreprises.
Chez Thales, nous considérons cependant que l’informatique en périphérie de réseau, même si elle est porteuse d’énormément de changements potentiels, n’a de valeur que dans une stratégie globale et maîtrisée de toutes les technologies associées au cloud computing au sens large. Dans une vision à long terme, elle n’est ainsi qu’une première étape, qui se poursuivra par une phase d’optimisation (celle du fog computing, ou informatique géodistribuée, dans laquelle les ressources de calcul sont réparties entre les nœuds les plus logiques et les plus efficaces du réseau) menant à terme au liquid computing, où l’allocation des moyens de calcul devient entièrement dynamique.
L’edge computing, en raccordant les données issues des systèmes d’information industriels, permet de faire dialoguer entre elles, dans le cloud, des données qui, jusque-là, ne communiquaient pas. Avec, à la clé, des perspectives économiques très intéressantes pour beaucoup d’entreprises.
L’edge computing va-t-il modifier le rapport des entreprises au traitement de leurs données ?
Il s’agit en effet d’un changement de paradigme qui va surtout avoir un impact dans la façon dont seront conçues les applications embarquées.
Avec l’edge computing, c’est la plateforme qui donne le contexte d’exécution de l’application, et qui devient responsable de la performance. C’est donc sur elle que sont mises les contraintes en vue de rendre le plus efficacement possible le service pour laquelle elle est conçue. Il s’agit d’un changement majeur dans la façon de fabriquer les applications. Cela implique notamment un codesign étroit entre le soft et le hardware. Et cela a un impact jusqu’au niveau opérationnel.
Le monde de l’OT entre en fait dans une ère de massification des usages, comme celle ouverte en son temps par le cloud pour l’IT. Une transition qui ressemble, pour prendre une image, au passage de l’animal de compagnie au bétail (ce modèle du “pet versus cattle” est une analogie bien connue des ingénieurs du cloud), qui a été à l'œuvre dans le monde du stockage du data center.
Au départ de l’informatique, tous les serveurs étaient des machines individuelles, avec leur appellation propre, et quand on devait y installer un nouveau système, il fallait le faire ad hoc, “à la main”. Quand les cloud providers, GAFAM en tête, ont commencé à déployer leurs solutions, il n’était plus possible de continuer à procéder ainsi, en faisant du cousu main. Il a fallu développer des procédés pour optimiser la gestion d’une masse toujours plus grande de serveurs - avec des techniques d’autoconfiguration, par exemple, ou avec des maintenances groupées.
L’edge computing introduit le même genre de changement d’échelle, mais dans le monde de l’opérationnel cette fois. On va ainsi transformer un problème de performance d’une machine, ou d’un petit nombre de machines, en un problème de logistique et de gestion de la supply chain sur un très grand nombre de devices. Ce qui a un impact direct sur la doctrine d’usage.
Pour prendre un exemple, c’est un peu la différence qui existe entre le bon usage d’un drone de combat très perfectionné qui a besoin, pour être optimal, d’être configuré de façon minutieuse. Et le fonctionnement optimal d’un essaim de plusieurs centaines de drones dont l’efficacité ne peut reposer sur une configuration individuelle de chacune des composantes du tout, mais sur leur collaboration.
Cette nouvelle façon de voir les choses est-elle compatible avec les exigences de sécurité que supposent les systèmes critiques développés par Thales ?
En donnant à des machines situées au plus proche de sources de données la possibilité de faire du calcul, l’edge computing se rapproche finalement d’une stratégie familière pour nous : celle des “smart sensors”, qui a fait les succès de Thales et qui consiste à mettre le plus d’intelligence possible dans les capteurs déployés sur le terrain.
Cependant, lorsque l’on travaille sur des systèmes critiques, où des vies peuvent être en jeu, c’est évidemment le principe de sûreté qui prime en toute chose. Les solutions que nous proposons sont des systèmes qualifiés et certifiés, dont l’évolution prend nécessairement du temps.
Lorsque l’on travaille sur des systèmes critiques, où des vies peuvent être en jeu, c’est évidemment le principe de sûreté qui prime en toute chose.
Implanter des technologies d’edge computing dans de tels dispositifs va donc nécessiter de longues périodes de test pour s’assurer que les problèmes liés au principe de massification qu’elles supposent sont bien sous contrôle (mise à jour dynamique des logiciels, par exemple), et pour obtenir la certification du système une fois celui-ci optimisé. Il faut aussi apporter une attention toute particulière à la bonne ségrégation des environnements pour permettre de modifier et de mettre à jour certaines composantes, sans compromettre la sécurité du système dans sa globalité.
Plus généralement, les principes de fonctionnement propres au edge computing génèrent plusieurs types de problèmes spécifiques qu’il faut avoir en tête si l’on veut se servir efficacement et en toute sécurité de ces technologies.
Lesquels ?
Il y a d’abord des problématiques de cybersécurité liées à la géodistribution des machines traitant de la donnée, qu’implique une architecture edge. Prenons l’exemple d’équipements installés le long d’une ligne de chemin de fer. Ceux-ci étant embarqués dans des infrastructures physiques qui ne sont potentiellement pas sécurisées en permanence, il existe un risque de failles au niveau de certains des nœuds de calcul qu’ils forment. Il est alors nécessaire d’appliquer un modèle “Zero trust”, issu de la cybersécurité, et dans lequel on va considérer qu’il ne faut faire confiance à aucun nœud par défaut.
Cela touche à un principe capital pour Thales, qui est lié aux conditions de la résilience des chaînes fonctionnelles en cas de perte de nœud. Une exigence qui a aussi son importance face aux attaques de supply chain, qui sont un des grands défis auquel il faut faire face dans le cloud. Et qui supposent de concevoir un environnement d’exécution à même de porter une application fournie par un tiers sans que le comportement de cette application ne dégrade la sécurité du système dans son ensemble. Il s’agit là d’un enjeu crucial si l’on entend développer une stratégie cohérente centré sur l’innovation ouverte, comme c’est le cas chez Thales.
En admettant que l’on parvienne à maîtriser ces risques, quels avantages pourrait apporter l’edge computing dans les secteurs d’activité de Thales ?
Celui qui me paraît le plus évident concerne le renforcement des chaînes fonctionnelles dont je parlais précédemment, et que permettent, si elles sont maîtrisées et sécurisées, les technologies d’edge computing. La massification des nœuds de calcul apporte en effet une robustesse et une autonomie inédite à ces chaînes.
En cas de déconnexion d’une machine, on va ainsi par exemple pouvoir rétablir le calcul ailleurs, sur un autre nœud. Cela peut constituer un apport considérable pour tous les types de systèmes où les perturbations dans la chaîne de traitement de l’information sont un bloqueur pour la réalisation du système lui-même.
On peut penser, par exemple, aux systèmes de défense équipant des véhicules anti-missiles, et où la possibilité d’activer un nœud de calcul pour pallier les défaillances d’un autre peut avoir une importance capitale dans un moment critique. Ou bien à des drones maritimes opérant dans des conditions de connectivité intermittente, les vagues empêchant la bonne transmission des ondes radio, et qui gagneraient en autonomie et en résilience de calculs grâce à l’edge computing.
Une autre piste qui me semble très intéressante concerne le champ de la maintenance prédictive, si cher à l’industrie 4.0. On peut imaginer, par exemple, des calculateurs capables d’adapter les processus de fabrication en fonction de l’état des machines-outils. Ou un système de capteurs qui va monitorer anodes et cathodes d’une chaîne de production pour décider le meilleur moment pour les remplacer. Tout cela, l’edge computing permet de le faire de façon bien plus efficace !
Un des domaines d’application les plus prometteurs pour l’informatique de périphérie concerne l’espace, avec l’émergence du Space Edge Computing (SEC), c’est-à-dire le développement de nouvelles capacités de traitement embarquées dans les équipements spatiaux. Quelles sont les ambitions de Thales en la matière ?
Les technologies edge présentent en effet un fort intérêt pour le domaine spatial. La possibilité d’embarquer des moyens de calculs en orbite et d’allouer les moyens de calcul au bon device, en fonction des besoins, peut améliorer considérablement l’efficacité des satellites.
On va, par exemple, pouvoir déployer une application au moment idéal pour surveiller une zone survolée par le satellite, et obtenir ainsi une capacité de processing supérieur. La mutualisation des ressources que permet l’edge computing renforce encore l’optimisation des calculs réalisés par les satellites en orbite, et permet donc d’augmenter considérablement leurs missions - c’est la fin du “one function, one block”.
Parmi les nombreux projets de Space Edge Computing sur lesquels nous travaillons, il y en a deux, portés par Thales Alenia Space - la co-entreprise entre Thales et le groupe italien Leonardo - qui sont particulièrement avancés. Le premier vise à déployer à bord de la station spatiale internationale un calculateur, un cadre d’application, et un ensemble de capteurs haute performance destinés à l’observation de la Terre, avec pour objectif le développement de nouvelles applications de traitements de données en orbite.
Le second concerne l’outil DeeperVision, développé en coopération avec Microsoft. Il s'agit d'un logiciel d’analyse des données d’observation de la Terre, capable d’exploiter massivement les images provenant des satellites, en les traitant dans le cloud. Ces deux cas d’usage sont déjà très prometteurs. Mais nous n’en sommes qu’aux prémices de tout ce que l’edge computing a à offrir !