Dans le contexte: Partha Ranganathan a réalisé il y a environ sept ans que la loi de Moore était morte. Le vice-président de l’ingénierie de Google ne pouvait plus s’attendre à ce que les performances des puces doublent environ tous les 18 mois sans augmentation majeure des coûts, et c’était un problème étant donné qu’il aidait Google à construire son budget de dépenses d’infrastructure chaque année. Confronté à la perspective d’obtenir une puce deux fois plus vite tous les quatre ans, Ranganathan savait qu’il fallait mélanger les choses.
Ranganathan et d’autres ingénieurs de Google ont examiné l’image globale et réalisé le transcodage (pour YouTube) consommait une grande partie des cycles de calcul dans ses centres de données.
Les puces standard que Google utilisait pour exécuter YouTube n’étaient pas très efficaces pour des tâches spécialisées telles que le transcodage. L’infrastructure de YouTube utilise le transcodage pour compresser la vidéo à la plus petite taille possible pour votre appareil, tout en la présentant avec la meilleure qualité possible.
Ce dont ils avaient besoin était un circuit intégré spécifique à une application, ou ASIC – une puce conçue pour effectuer une tâche très spécifique aussi efficacement et efficacement que possible. Les mineurs de Bitcoin, par exemple, utilisent du matériel ASIC et sont conçus à cette seule fin.
“Ce que nous voulons vraiment pouvoir faire, c’est prendre toutes les vidéos qui sont téléchargées sur YouTube et les transcoder dans tous les formats possibles et obtenir la meilleure expérience possible”, a déclaré Scott Silver, vice-président de l’ingénierie chez YouTube.
Il n’a pas fallu longtemps pour vendre à la haute direction l’idée des ASIC. Après une réunion de 10 minutes avec la chef de YouTube, Susan Wojcicki, le premier projet de puce vidéo de l’entreprise a été approuvé.
Après une réunion de 10 minutes avec la chef de YouTube, Susan Wojcicki, le premier projet de puce vidéo de l’entreprise a été approuvé.
Google a commencé à déployer ses unités de codage vidéo (VCU) Argos en 2018, mais n’a annoncé publiquement le projet qu’en 2021. À l’époque, Google a déclaré que les VCU Argos offraient une amélioration des performances de 20 à 33 fois par rapport au matériel de serveur traditionnel. exécutant un logiciel de transcodage bien réglé.
Google a depuis basculé l’interrupteur sur des milliers de puces Argos de deuxième génération dans des serveurs du monde entier, et au moins deux suivis sont déjà en cours.
Le motif évident pour construire votre propre puce dans un but précis est la réduction des coûts, mais ce n’est pas toujours le cas. Dans de nombreux cas, les grandes entreprises technologiques cherchent simplement à créer un avantage stratégique avec des puces personnalisées. La consolidation dans l’industrie des puces joue également dans l’équation, car il n’y a plus que quelques fabricants de puces personnalisés parmi lesquels choisir dans une catégorie donnée, fabriquant des processeurs à usage général qui ne sont pas parfaits pour des tâches spécialisées.
A lire aussi : La mort du calcul général
Jonathan Goldberg, directeur de D2D Advisory, a déclaré que le véritable enjeu était de contrôler la feuille de route des produits des sociétés de semi-conducteurs. “Et donc ils construisent les leurs, ils contrôlent les feuilles de route et ils obtiennent ainsi l’avantage stratégique”, a ajouté Goldberg.
Argos n’est pas la seule puce personnalisée à sortir de Google. En 2016, la société a annoncé son unité de traitement de tenseur (TPU), qui est un ASIC personnalisé pour alimenter les applications d’intelligence artificielle. Google a depuis lancé plus de quatre générations de puces TPU, ce qui lui a donné un avantage sur ses concurrents dans le domaine de l’IA. Google a également conçu sa série de smartphones Pixel 6 à l’aide d’un SoC Tensor personnalisé, réunissant le matériel et les logiciels sous le même toit pour sa gamme mobile.
Crédit image : Studio Eyestix