Sorry, this page isn't available for your location.

The page you're viewing is for French (EMEA) region.

Travailler avec un représentant du fabricant Vertiv permet de configurer des conceptions complexes en fonction de vos besoins spécifiques  Si votre entreprise recherche des conseils techniques pour un projet de grande envergure, Vertiv peut vous apporter l’assistance dont vous avez besoin.

En savoir plus

De nombreux clients travaillent avec un revendeur partenaire Vertiv pour acheter des produits Vertiv pour leurs applications IT. Nos partenaires disposent d’une formation et d’une expérience approfondies, et sont particulièrement bien placés pour spécifier, vendre et prendre en charge l’ensemble des solutions informatiques et d’infrastructure avec les produits Vertiv.

Trouver un revendeur

Vous savez déjà ce dont vous avez besoin ? Vous souhaitez profiter de la facilité d’achat et d’expédition en ligne ? Certaines catégories de produits Vertiv peuvent être achetées auprès d’un revendeur en ligne.


Trouver un revendeur en ligne

Besoin d’aide pour choisir un produit ? Parlez à un spécialiste Vertiv hautement qualifié qui vous guidera vers la solution qui vous convient.



Contactez un spécialiste Vertiv

Sorry, this page isn't available for your location.

The page you're viewing is for French (EMEA) region.

Edge computing : la continuité logique du cloud

Séverine Hanauer •

Entre centralisation du système d’information et modèle distribué, tout devrait opposer le Cloud et l’Edge computing (ou périphérie de réseau). Dans les faits, ces deux visions de l’IT du XXIe siècle sont non seulement complémentaires, mais ne pourront rapidement plus se passer l’une de l’autre.

Le Cloud computing, base de la transformation digitale

Est-il encore utile de le rappeler ? Par les capacités de stockage qu’il a mis à disposition des entreprises, le Cloud a largement participé au développement du digital : plus besoin de capacity planning des matériels ou de se limiter en raison d’un manque d’espace dans ses salles informatiques, en quelques clics, l’élasticité du Cloud offre toutes les ressources IT dont l’entreprise a besoin.

Ce qui a toutefois un prix. Car les tarifs au gigaoctet baissent moins rapidement que le nombre de données augmente. Résultat : les coûts globaux du Cloud continuent d’augmenter pour les entreprises. Et c’est encore sans compter sur les besoins en capacité de calcul (« compute ») dont les coûts dans le Cloud restent aujourd’hui relativement élevés.

IoT, deep learning… : nouveaux besoins, nouvelles infras

Si ce que l’on peut appeler « l’industrie du digital » semble aujourd’hui mature, il n’en reste pas moins que les innovations et les expérimentations se poursuivent. Parmi lesquelles les objets connectés, quels qu’ils soient : du plus anodin des capteurs à la voiture connectée, un IoT peut tout aussi bien être à la fois émetteur de données qu’exécutant d’une action spécifique.

De la même façon, l’intelligence artificielle et le deep learning croisent de forts besoins en data (et donc en stockage) et en calcul. Dans tous les cas, outre le stockage et le calcul, les échanges de données sont de plus en plus conséquents, conduisant à une surcharge des réseaux et à, parfois, des temps de latence incompatibles avec les cas d’usage. En particulier pour les dispositifs d’importance vitale, comme ce sera le cas, par exemple, de la voiture autonome.

Face à ces nouvelles contraintes, associer une infrastructure distribuée (l’Edge computing donc), n’a rien d’un retour en arrière comme il est possible de le lire parfois. C’est même tout l’inverse, à condition de construire une infrastructure Cloud + Edge computing rationnelle, dans une démarche holistique.

L’Edge computing, complément nécessaire au Cloud

Dans une telle démarche, le système d’information central dans le Cloud reste le référent : les « mini-datacenters » locaux en deviennent dès lors une extension granulaire, capable de soulager le système central. En matière d’IoT par exemple, l’Edge computing peut recueillir toutes les données, et ne transmettre en central que des informations de monitoring à intervalle défini, ou les données notables (pour remonter une alerte par exemple). Ce qui, de fait, limite la circulation de données sur les réseaux et le stockage dans le Cloud.

De la même façon, en matière d’intelligence artificielle et deep learning, la conception et l’apprentissage du modèle peuvent être réalisés sur l’infrastructure Edge computing, surtout lorsque que ce dernier doit s’appuyer sur des données contextualisées. Le SI central dans le Cloud – et son éventuelle puissance de calcul complémentaire – n’étant alors utilisé que pour l’amélioration du modèle, avant d’être redéployé en local. Dans ce cas, le principal intérêt est de basculer une partie du compute en périphérie de réseau et replacer les modèles au plus proche de la réalité.

En bref, opposer le modèle centralisé du Cloud et celui, distribué, de l’Edge computing n’a pas de sens. Pour autant, adopter la démarche de la périphérie de réseau nécessite de repenser ses architectures, ses méthodologies et bien sûr ses compétences. Car après 15 années de « cloudification », retourner, ne serait-ce que partiellement, à un modèle distribué est un véritable changement de point de vue pour les entreprises et leur DSI.

PARTENAIRES
Présentation
Partner Login

Langue & Localisation