Pourquoi la 5G est indispensable ?

Officiellement lancée depuis maintenant un an en France, la 5G doit encore convaincre.  Le développement de nouveaux usages va pourtant, de fait, la rendre indispensable.

Officiellement lancée depuis maintenant un an en France, la 5G doit encore convaincre.  Le développement de nouveaux usages va pourtant, de fait, la rendre indispensable.

Nous sommes entrés dans une ère d’hyperconnectivité et nos infrastructures ne sont pas adaptées. La France a la chance de posséder l’un des réseaux de fibre optique les plus développés au monde, mais la fibre ne peut pas à elle seule répondre à l’ensemble des nouveaux usages connectés qui émergent. D’après les estimations du cabinet IDC, 50 % de la donnée mondiale d’entreprise sera produite en dehors du datacenter et du cloud traditionnel d’ici 2022. Les capteurs et objets connectés qui vont la générer n’ont pas l’intelligence nécessaire pour tirer de la valeur de cette donnée. Elle doit transiter vers d’autres systèmes embarquant plus de capacité de calcul afin de lui appliquer les traitements qui permettront d’en extraire de l’information.

De nouveaux pipelines de données doivent donc être créés afin de bâtir une chaîne allant du Edge au cloud, en passant par le core. Et plus les volumes de données seront importants, plus les algorithmes d’analyse et d’intelligence artificielle qu’elles alimentent seront performants. On parle bien ici de pétaoctets de données brutes qui vont être acheminées vers les infrastructures de calcul. Des volumes tellement importants que le flux peut être bloqué par certains maillons de la chaîne.

Une des solutions serait d’amener cette puissance de calcul vers la donnée plutôt que d’amener la donnée vers la puissance de calcul. On parle alors de « Edge Offload » par exemple, avec des mécanismes d’entrainement des algorithmes et de puissance de calcul poussés directement sur l’Edge, grâce à un maillage de microdatacenters. Il est ainsi possible de réaliser une part plus ou moins importante du traitement sur place. Certes, plus les processeurs évoluent, plus l’Edge est performant. On sait aujourd’hui installer un petit boîtier dans une voiture ou déployer une infrastructure durcie au pied d’un parc éolien. Mais deux obstacles viennent freiner cette approche : le temps réel et la densité.

La quête du temps réel

Prenons tout d’abord l’exemple de l’écurie McLaren de Formule 1, dont Dell Technologies est partenaire. Les F1 du constructeur embarquent plusieurs centaines de capteurs, qui collectent plusieurs milliers de paramètres de course. Entre le moment où une donnée est collectée et envoyée dans le cloud de McLaren, et celui où l’information pertinente est transmise à Mission Control, il ne s’écoule qu’une poignée de millisecondes. Nous n’allons évidemment pas tous rouler en formule 1 demain, mais nos véhicules ont des niveaux d’autonomie de plus en plus importants. Et c’est bien ce degré de performances dont nous allons avoir besoin pour que les voitures puissent réagir en temps réel aux événements qui surviennent autour d’elles. La connectivité 5G divise par dix la latence offerte par la 4G avec un temps de réponse sous la milliseconde. Ce réseau mobile nouvelle génération combine des fréquences de plusieurs bandes et des microcellules avec un nouveau spectre d’ondes millimétriques pour maximiser le débit.

L’autre problématique est celle de la densité. En 2030, chaque être humain disposera de 15 devices connectés. Les réseaux actuels sont insuffisants pour supporter cette multitude d’appareils. Déjà aujourd’hui, à Paris ou New-York, on constate une connectivité 4G moins performante que dans certaines villes moins densément peuplées, car le nombre d’équipements connectés sur une même antenne est trop grand. La 5G permet de prendre en charge 1 million d’équipements au km². Mais surtout elle est hautement programmable et hautement personnalisable. La 5G est née dans l’ère du cloud qui l’enrichie des techniques de virtualisation, la transformant en une véritable trousse à outils, un framework de technologies, au service de la flexibilité, de l’agilité et de l’évolutivité des réseaux. Par exemple la fonction de « network slicing » et de découper des tranches dans la fréquence et de les attribuer à un ou plusieurs devices ou utilisateurs spécifiques. Cette capacité autorise une mise en place de règles très fines de qualité de service et donc d’offrir à chaque population les ressources dont elle a besoin. Sur un chantier par exemple, il est possible de donner une priorité aux capteurs liés à la sécurité des opérations par rapport à ceux qui ont des fonctions de confort. Autre exemple, en entreprise, il sera possible de prioriser les applications de productivité plutôt que les réseaux sociaux.

Connecter plus pour consommer moins

Enfin, dernier point important à prendre en compte pour comprendre l’intérêt de la 5G : son impact environnemental. Rapporté au volume de données transférées, une antenne 5G sera 10 fois moins consommatrice d’énergie qu’une antenne 4G une fois le réseau arrivé à maturité en 2025, et même 20 fois moins en 2030. D’après une étude du cabinet indépendant Omdia, mandaté par Orange, la 5G pourrait permettre d’économiser 10 millions de tonnes d’équivalent CO2 en France à l’horizon 2030, notamment grâce à de nouveaux usages qui contribuent à la transition écologique, comme le recours plus fréquent à la visioconférence qui évite les déplacements ou encore la généralisation d’équipements connectés pouvant être arrêtés à distance lorsqu’ils ne sont pas utilisés. Une économie indispensable pour associer connectivité et durabilité.

About the Author: Vincent Barbelin

Vincent Barbelin est CTO, CTO Ambassador de Dell technologies France.
Topics in this article