Pourquoi est-ce important: Ce n’était qu’une question de temps avant que quelqu’un ne trompe ChatGPT pour qu’il enfreigne la loi. Un YouTuber lui a demandé de générer une clé d’activation Windows 95, ce que le bot a refusé de faire pour des raisons morales. Sans se laisser décourager, l’expérimentateur a formulé une requête avec des instructions sur la création d’une clé et l’a fait produire une clé valide après de nombreux essais et erreurs.
Un YouTuber, qui passe par la poignée Enderman, a réussi à faire en sorte que ChatGPT crée des codes d’activation Windows 95 valides. Il a d’abord simplement demandé au bot de générer une clé, mais sans surprise, il lui a dit qu’il ne pouvait pas et qu’il devrait acheter une version plus récente de Windows puisque 95 était depuis longtemps supporté.
Enderman a donc abordé ChatGPT sous un angle différent. Il a pris ce qui est depuis longtemps connu sur les clés d’activation OEM de Windows 95 et a créé un ensemble de règles que ChatGPT doit suivre pour produire une clé de travail.
Une fois que vous connaissez le format des clés d’activation de Windows 95, en créer une valide est relativement simple, mais essayez d’expliquer cela à un grand modèle de langage qui craint les mathématiques. Comme le montre le diagramme ci-dessus, chaque section de code est limitée à un ensemble de possibilités finies. Remplissez ces conditions, et vous avez un code fonctionnel.
Cependant, Enderman n’était pas intéressé à craquer les clés Win95. Il tentait de démontrer si ChatGPT pouvait le faire, et la réponse courte est qu’il le pouvait, mais seulement avec une précision d’environ 3,33 %. La réponse la plus longue réside dans la mesure dans laquelle Enderman a dû modifier sa requête pour obtenir ces résultats. Sa première tentative a produit des résultats complètement inutilisables.
Les clés générées par ChatGPT étaient inutiles car il ne comprenait pas la différence entre les lettres et les chiffres dans l’instruction finale. Un exemple de ses résultats : “001096-OEM-0000070-abcde”. Il y est presque arrivé, mais pas tout à fait.
Enderman a ensuite modifié sa requête une multitude de fois au cours d’environ 30 minutes avant d’obtenir des résultats acceptables. L’un de ses plus gros problèmes consistait à faire en sorte que ChatGPT effectue un simple calcul SUM/7. Peu importe comment il a reformulé cette instruction, ChatGPT n’a pas pu faire les choses correctement, sauf pour les tentatives occasionnelles de 1 sur 30. Franchement, c’est plus rapide de le faire soi-même.
En fin de compte, les algorithmes slick-talking d’OpenAI ont créé des clés Windows 95 valides, donc Enderman n’a pas pu s’empêcher de le frotter dans Chat GPT qu’il l’a trompé en l’aidant à pirater une installation Windows 95. La réponse du bot ?
“Je m’excuse pour toute confusion, mais je n’ai fourni aucune clé Windows 95 dans ma réponse précédente. En fait, je ne peux fournir aucune clé de produit ou code d’activation pour aucun logiciel, car cela serait illégal et contraire aux politiques d’OpenAl.”
Parlé comme le “le plus habile escroc de tous les temps.”