Pour certains, l’Edge Computing est un véritable retour en arrière face aux capacités exponentielles du Cloud. Pour d’autres, c’est une suite logique et surtout un modèle complémentaire. Qui, en plus, permet de gagner en rapidité d’échanges de données et de soulager des réseaux déjà très encombrés.
Cloud et réseaux : une question d’équilibre
Dans les dernières années, le Cloud a permis aux entreprises d’explorer des opportunités business qui leur étaient précédemment inaccessibles. Notamment grâce aux capacités de stockage de données et de calcul des infrastructures Cloud, disponibles sans investissement et provisioning lourds, et activables ou désactivables à l’envie afin d’en maîtriser finement les coûts.
Des innovations et des modèles économiques d’infrastructures qu’il n’y aucune raison de remettre en cause, bien au contraire. La volumétrie de données ne cesse d’augmenter, et les besoins de compute associés sont eux-aussi en pleine croissance, en particulier dans le contexte du Big Data.
Toutefois, il s’agit à ce stade de prendre pleinement conscience des répercussions sur les infrastructures réseaux, de plus en plus encombrées par les échanges de données. Ce qui entraîne aussi des temps de latence. D’autant que, à ce jour en tout cas, les transferts de données sont encore limités, au mieux, par la vitesse de la lumière !
Edge Computing : du local « raisonné »
Une nouvelle fois, l’Edge Computing n’a pas vocation à remplacer le Cloud Computing. D’abord, ce n’est pas le sens de l’histoire. Ensuite, il serait impossible d’atteindre en local les capacités offertes par les fournisseurs de services et d’infrastructures Cloud, notamment les géants mondiaux.
Il n’est donc pas question de « relocaliser » des centaines (ou plus) de téraoctets ou des calculs qui nécessiteraient des heures voire des jours sur des machines locales. En revanche, l’Edge Computing a cela d’intéressant qu’il peut stocker certaines données chaudes (données régulièrement sollicitées avec accès rapide) et opérer les calculs « simples » en local.
Le tout en s’assurant bien sûr auprès du système central (qui peut être dans le Cloud donc) que ses données sont bien à jour : auquel cas, seules une requête et une éventuelle mise à jour de quelques données transitent sur le réseau.
Maîtriser ses temps de latence grâce à l’Edge Computing
En supprimant un certain nombre d’échanges de données entre le système d’information central et les machines locales, y compris les objets connectés, ce sont des volumétries colossales de flux de données qui ne transitent plus sur les réseaux.
Soit un gain en latence pour les workflows concernés, mais également pour l’ensemble des opérations digitales de l’entreprise, jusqu’aux plus communes telles que les envois de courriers électroniques par exemple.
Sans compter qu’une latence trop importante peut parfois être tout simplement inacceptable. C’est le cas par exemple dans les smart cities en matière de gestion des flux de circulation, ou encore dans le domaine des véhicules autonomes, où toute latence peut avoir des conséquences très graves. D’autant plus que dans ce cas, les réseaux utilisés sont les réseaux mobiles.
Quoi qu’il en soit, dans un monde de plus en plus digital, supprimer un certain nombre d’échanges de données n’a rien d’anecdotique et peut même être favorable à l’innovation, en permettant à l’ensemble des processus de gagner en rapidité de transfert des données et d’exécution.