Steve Alexander est vice-président senior et directeur de la technologie (CTO) chez Ciena. M. Alexander est un membre distingué de l’IEEE et un lauréat du prix de l’innovation industrielle des sociétés de télécommunication de l’IEEE (Communications Society Industrial Innovation Award).  Cet article a été publié initialement dans Techonomy.


Cela fait 50 ans que Gordon Moore a eu l’idée de ce qu’on appelle aujourd’hui la « loi de Moore » et depuis, nous avons assisté à quelques-uns des plus grands accomplissements technologiques de l’histoire. Mais, on atteint un point d’inflexion. La demande en bande passante pour les communications est en expansion de plus en plus rapide, chaque année et nous entrons dans une période où la loi de Moore et une puissance de traitement plus rapide et moins coûteuse ne suffiront plus.

La loi de Moore repose sur la prédiction de Gordon Moore en 1965 que le nombre de composants contenus dans les circuits intégrés double environ tous les deux ans, sans augmentation du prix. Cette idée définit la trajectoire des technologies de circuits intégrés au silicium, de la vitesse et de la puissance du traitement informatique depuis des décennies. Pour bon nombre d’entre nous aujourd’hui dans le secteur des technologies, la loi de Moore représente une prédiction qui s’est avérée exacte depuis plus longtemps que nous sommes nés.

Elle explique pourquoi nous pouvons aujourd’hui tenir à la main un appareil doté de plus de puissance de traitement que les ordinateurs qui ont guidé les astronautes d’Apollo 11 jusqu’à la Lune. Nos machines de bureau détiennent à présent plus de puissance informatique que ce que nous appelions auparavant un « supercalculateur ». C’est la loi de Moore qui prédisait que le traitement du signal numérique atteindrait finalement le niveau nécessaire pour autoriser une communication optique cohérente de haute capacité, permettant au 100G de devenir l’unité de valeur des réseaux actuels.

Le problème réside maintenant dans le fait que nous continuons à dépendre d’améliorations principalement matérielles pour apporter une bande passante supplémentaire. Les solutions basées sur du matériel progressent généralement au rythme prédit par Moore. Pendant ce temps, Gartner a indiqué que le trafic des données mobiles au niveau mondial atteindrait 52 millions de téraoctets en 2015, soit une augmentation de 60 % par rapport à 2014.

La valeur de l’Internet évolue selon le nombre d’utilisateurs connectés, selon la loi de Metcalfe (du nom du pionnier des solutions réseau, Bob Metcalfe) et nous nous préparons tous à l’Internet des objets (IoT), dans lequel pratiquement tout ce qui peut être commandé ou observé sera relié à un réseau. Nous avons déjà une idée de ce que pourront être les besoins en bande passante, mais ce qui nous attend à l’ère de l’IoT dépassera probablement bon nombre de nos projections.

Ainsi, si nos capacités matérielles ne peuvent que doubler tous les deux ans, nous devons trouver de nouveaux outils nous permettant de croître au rythme de la demande.

La voie du progrès exige que la bande passante fournie par nos réseaux devienne plus intelligente. Les réseaux eux-mêmes doivent devenir des plates-formes programmables. L’infrastructure doit être instantanée, flexible et dynamique comme nos smartphones le sont devenus. La réponse au problème d’augmentation de la demande sur les réseaux est de renverser cette expression et d’évoluer vers ce qu’on peut appeler un réseau à la demande. La topologie du réseau, la connectivité, la classe et la qualité des services doivent toutes être des services à la demande pouvant être adaptés pour correspondre aux besoins de l’utilisateur.

Le paradigme des solutions réseau doit passer d’un modèle où on dimensionne simplement une connexion, puis on se contente de la surveiller à un modèle où on orchestre et on commande le réseau, ses applications et services associés en temps réel.

Un plus grand recours aux logiciels est essentiel. On peut prendre quelques exemples du secteur informatique. Alors que les limites de vitesse de traitement étaient atteintes, que les processeurs individuels étaient saturés, on a commencé à faire les choses davantage en parallèle, à construire des machines déployant des groupes de processeurs simultanés fonctionnant ensemble pour résoudre les problèmes. Par voie de conséquence, les logiciels ont évolué pour fonctionner sur l’ensemble de ces architectures dites à cœurs multiples, afin d’atteindre de meilleures performances. Cette même idée de tirer parti des logiciels en parallèle au matériel doit être appliquée dans le domaine de l’architecture de nos réseaux.

C’est une période passionnante pour participer aux solutions réseau. Avec l’apparition des SDN (Software Defined Network) et de la NFV (Network Function Virtualization), un réseau n’est plus juste une série de pièces matérielles compartimentées : les logiciels interviennent à présent pour donner des solutions programmables qui nous permettent de dépasser le rythme de la loi de Moore.

Les solutions de plus en plus activées par logiciel d’aujourd’hui, quand elles sont correctement combinées à une orchestration, deviennent évolutives, facilement mises à niveau et beaucoup moins coûteuses que les méthodes limitées par le matériel sur lesquelles nous nous appuyons actuellement. Nous pouvons maintenant envisager une voie pour rendre virtuelles bon nombre de nos fonctions réseau, en remplaçant des équipements matériels par leur équivalent logiciel qui peut être déployé par quelques clics. Nous pouvons programmer le logiciel pour qu’il fasse grandir ou réduire les réseaux en fonction de la demande de l’utilisateur final.

Le matériel peut uniquement évoluer, dans la pratique, au rythme prédit par la loi de Moore, mais nos réseaux doivent maintenant évoluer encore plus vite. La croissance en connectivité et le besoin de bande passante ne nous laisseront pas attendre l’application de la loi de Moore. La bande passante doit devenir intelligente. Le SDN, la NFV et l’orchestration du réseau sont des éléments clés.