Pourquoi est-ce important: Le bot d’IA conversationnel d’OpenAI, ChatGPT, est rapidement devenu une sensation virale avec sa capacité à écrire des histoires, à composer des e-mails et à générer du code. Cependant, un nouveau rapport suggère maintenant qu’il en coûte à OpenAI un montant impie juste pour le faire fonctionner quotidiennement.
Selon les recherches de SemiAnalysis, OpenAI est brûlant à travers jusqu’à 694 444 $ en espèces froides et sonnantes et trébuchantes par jour pour maintenir le chatbot opérationnel. La société estime que le système comprend environ 3 617 serveurs HGX A100 comprenant 28 936 GPU, avec un coût par requête estimé à environ 0,36 centime.
Dylan Patel, analyste en chef chez SemiAnalysis, a déclaré à Business Insider que les coûts actuels d’exécution du logiciel pourraient être encore plus élevés, car GPT-4 est probablement encore plus élevé. cher pour fonctionner que GPT-3. Patel a basé les estimations sur l’ancien modèle GPT-3, mais OpenAI a déjà publié une version GPT-4 pour les abonnés payants. La société affirme que le nouveau modèle offre des informations plus précises et protège mieux contre les commentaires hors du commun qui sont devenus un problème avec GPT-3/3.5.
L’une des principales raisons des coûts exorbitants est les puces spécialisées gourmandes en énergie nécessaires pour faire fonctionner le système. Pour lutter contre ce problème, Microsoft, l’un des actionnaires les plus importants d’OpenAI, travaillerait sur sa propre puce AI appelée « Athena » qui pourrait remplacer les GPU NVIDIA et réduire considérablement les coûts de fonctionnement de ChatGPT.
Pendant ce temps, ChatGPT peut également générer du code fonctionnel à partir de zéro, ce qui fait craindre qu’il ne remplace éventuellement les programmeurs. Cependant, des recherches récentes menées par les informaticiens Raphaël Khoury, Anderson Avila, Jacob Brunelle et Baba Mamadou Camara suggèrent que le code généré par le chatbot peut ne pas être très sécurisé.
L’étude indique que ChatGPT génère du code « bien en dessous des normes de sécurité minimales applicables dans la plupart des contextes ». Le chatbot l’avoue même lorsqu’on lui demande si le code qu’il a généré est sécurisé.
« Lorsqu’on lui a demandé si le code produit était sécurisé ou non, ChatGPT a pu reconnaître qu’il ne l’était pas », ont déclaré les auteurs.
Pour vérifier les références de codage de ChatGPT, les chercheurs lui ont demandé de générer 21 programmes et scripts à l’aide de quatre langages de programmation : C, C++, Python et Java. Lors du premier essai, le chatbot AI n’a réussi à écrire que cinq programmes sécurisés, mais a ensuite proposé sept extraits de code sécurisés supplémentaires après quelques incitations des chercheurs. Les résultats suggèrent que l’utilisation de ChatGPT pour coder des applications pourrait être dangereuse dans un avenir prévisible, bien que cela puisse changer à un moment donné.