Le monde regorge de protocoles de mise en réseau – les moyens par lesquels les équipements électroniques et les ordinateurs communiquent. Une grande utilisation de ces protocoles peut être trouvée dans les centres de données, en particulier parmi les hyperscales comme Google et Amazon.
La connexion de tous les serveurs à l’intérieur d’un centre de données est une opération de mise en réseau à haute intensité, et pendant des décennies, ces opérateurs ont utilisé les protocoles de communication les plus courants comme Ethernet pour connecter physiquement tous ces serveurs et commutateurs. (Oui, il y en a beaucoup d’autres encore en usage, mais Ethernet représente la majorité de ce dont nous parlons). Ethernet existe depuis longtemps car il est très flexible, évolutif et tous les autres -bles. Mais comme pour tout ce qui concerne la technologie, elle a ses limites.
Note de l’éditeur:
Auteur invité Jonathan Goldberg est le fondateur de D2D Advisory, un cabinet de conseil multifonctionnel. Jonathan a développé des stratégies de croissance et des alliances pour des entreprises des secteurs de la téléphonie mobile, des réseaux, des jeux et des logiciels.
Plus tôt cette année, Google a dévoilé son nouveau protocole réseau appelé Aquila dans lequel Google semble se concentrer sur une grande limitation d’Ethernet – la latence dans le réseau, ou les retards causés par le temps qu’il faut pour déplacer les choses sur un réseau Ethernet. Certes, on mesure la latence en millionièmes de seconde (microsecondes, μs), mais à l’échelle dont on parle ces délais s’additionnent.
Dans Les mots de Google:
Nous assistons à une nouvelle impasse dans le centre de données où les progrès de l’informatique distribuée sont de plus en plus limités par le manque de prévisibilité des performances et d’isolement dans les réseaux de centres de données multi-locataires. Une différence de performances de deux à trois ordres de grandeur dans ce que les concepteurs de matrice de réseau visent et ce que les applications peuvent attendre et programmer n’est pas rare, ce qui limite considérablement le rythme de l’innovation dans les systèmes distribués basés sur des clusters de niveau supérieur
En parcourant ce document dense, deux questions se sont imposées à nous.
Tout d’abord, quelles applications Google construit-il qui sont si compliquées qu’elles nécessitent cette solution. Google est célèbre pour ses efforts pour commercialiser des solutions informatiques distribuées. Ils ont inventé de nombreux outils et concepts parmi les plus courants pour décomposer de grands problèmes informatiques complexes en petites tâches discrètes pouvant être effectuées en parallèle. Mais ici, ils cherchent à centraliser tout ça.
Au lieu de tâches discrètes, Google construit plutôt des applications étroitement liées et interdépendantes, à tel point qu’elles doivent partager des données de telle sorte que les microsecondes enlisent le tout de “deux à trois ordres de grandeur”.
La réponse est probablement “réseaux de neurones IA” – ce qui est une façon élégante de dire multiplication matricielle. Le goulot d’étranglement auquel de nombreux systèmes d’IA sont confrontés est que lors du calcul de modèles massifs, les différentes étapes des mathématiques s’influencent mutuellement – un calcul nécessite la solution d’un autre calcul avant de pouvoir se terminer.
Creusez dans le déboires de la puce d’IA de démarrage entreprises et beaucoup d’entre elles échouent sur ce genre de problèmes. Google doit avoir des modèles si grands que ces interdépendances deviennent des goulots d’étranglement qui ne peuvent être résolus qu’à l’échelle du centre de données. Un candidat probable ici est que Google a besoin de quelque chose comme ça pour former des modèles de conduite autonome – qui doivent prendre en compte un grand nombre de variables interdépendantes. Par exemple, cet objet sur Lidar est-il le même que ce que la caméra voit, à quelle distance se trouve-t-il et combien de temps jusqu’à ce que nous nous écrasions dessus ?
Il est également possible que Google travaille sur d’autres calculs très intenses. Le document traite à plusieurs reprises du calcul haute performance (HPC), qui est généralement le domaine des superordinateurs simulant les réactions météorologiques et nucléaires. Il vaut la peine de réfléchir à ce sur quoi Google travaille ici, car cela sera probablement très important à un moment donné.
Cela étant dit, un deuxième facteur qui s’est démarqué pour nous dans cet article est un sentiment d’ironie extrême.
Nous avons trouvé ce paragraphe en particulier très humoristique (qui en dit certainement plus sur notre sens de l’humour qu’autre chose) :
Les principales différences entre ces paramètres plus spécialisés par rapport aux environnements de centre de données de production incluent : i) la possibilité d’assumer des déploiements à locataire unique ou au moins un partage d’espace plutôt qu’un partage de temps ; ii) moins d’inquiétudes concernant la gestion des pannes ; et iii) une volonté d’adopter des technologies de réseau rétrocompatibles, y compris des formats filaires.
Le point ici est que Google voulait qu’Aquila fournisse des chemins de réseau dédiés pour un seul utilisateur, pour garantir la livraison d’un message et pour prendre en charge les anciens protocoles de communication. Il existe, bien sûr, un ensemble de technologies de mise en réseau qui le font déjà – nous les appelons commutation de circuitset ils sont utilisés par les opérateurs de télécommunications depuis plus de cent ans.
Nous savons qu’Aquila est très différent. Mais cela vaut la peine de réfléchir à la mesure dans laquelle la technologie est un pendule. La commutation de circuits a cédé la place à la commutation de paquets Internet au cours de nombreuses décennies de transition douloureuses et exténuantes. Et maintenant que nous sommes au point où les protocoles Internet alimentent à peu près tous les réseaux de télécommunications, l’état de l’art revient à la livraison déterministe avec des canaux dédiés.
Le fait n’est pas que Google est régressif, mais simplement que la technologie a des compromis et que différentes applications nécessitent des solutions différentes. Rappelez-vous que la prochaine fois que quelqu’un mènera une guerre sainte sur un protocole ou un autre.
Google n’est pas le seul à chercher quelque chose comme ça. La commutation de paquets en général et Internet en particulier présentent de sérieuses limitations. Il existe des dizaines de groupes dans le monde qui cherchent à remédier à ces limitations. Ces groupes vont des pionniers de l’Internet comme le professeur Tim Berners-Lee et ses Initiative solide à de Huawei Nouvelle IP (un peu vue différente de ça).
Ces projets ont évidemment des objectifs très différents, mais tous souffrent d’un problème de dépassement d’une base installée à l’échelle mondiale. En revanche, Google ne cherche pas à changer le monde, juste sa partie.