Qu’est-ce qui vient de se passer? C’est incroyable tout ce que ChatGPT peut faire, de la rédaction d’essais et d’e-mails à la création de code de programmation. Mais ses capacités sont facilement abusées. L’Agence de l’Union européenne pour la coopération en matière d’application de la loi (Europol) est devenue la dernière organisation à avertir que les criminels utiliseront le chatbot pour le phishing, la fraude, la désinformation et la cybercriminalité en général.
Europol Remarques que les grands modèles linguistiques (LLM) progressent rapidement et sont maintenant entrés dans le courant dominant. De nombreuses industries adoptent des LLM, y compris des entreprises criminelles.
“L’impact que ces types de modèles pourraient avoir sur le travail des forces de l’ordre peut déjà être anticipé”, a écrit Europol. “Les criminels sont généralement rapides à exploiter les nouvelles technologies et ont été rapidement vus proposer des exploitations criminelles concrètes, fournissant les premiers exemples pratiques quelques semaines seulement après la sortie publique de ChatGPT.”
Europol note que la capacité de ChatGPT à rédiger un texte basé sur quelques invites le rend idéal pour les attaques de phishing. Ces e-mails sont généralement identifiables par leurs fautes d’orthographe et de grammaire ou leur contenu suspect, signes révélateurs que ChatGPT peut éviter. L’outil peut également écrire dans des styles spécifiques en fonction du type d’escroquerie, augmentant ainsi les chances de succès d’un jeu d’ingénierie sociale.
De plus, ChatGPT peut produire un texte authentique à grande vitesse et à grande échelle, ce qui en fait un outil parfait à des fins de propagande et de désinformation.
Mais l’aspect le plus dangereux de ChatGPT est peut-être qu’il peut écrire du code malveillant pour les cybercriminels qui ont peu ou pas de connaissances en programmation. Europol écrit que les garanties empêchant ChatGPT de fournir un code potentiellement malveillant ne fonctionnent que si le modèle comprend ce qu’il fait. “Si les invites sont décomposées en étapes individuelles, il est trivial de contourner ces mesures de sécurité.”
Sur la base de rapports précédents, le service d’OpenAI est déjà abusé de cette manière. En janvier, des chercheurs en sécurité ont découvert que ChatGPT était utilisé sur des forums de cybercriminalité à la fois comme outil “éducatif” et comme plate-forme de création de logiciels malveillants. Le chatbot pourrait également être utilisé pour répondre à des questions techniques sur le piratage des réseaux ou l’augmentation des privilèges.
Les utilisations de ChatGPT ne se limitent pas à la création de textes ou de codes spécifiques. Un criminel potentiel pourrait l’utiliser pour en savoir plus sur un domaine criminel particulier, comme le terrorisme ou la maltraitance des enfants. Bien que ces informations puissent être trouvées sur Internet, ChatGPT facilite leur découverte et leur compréhension grâce à la présentation du résultat de la requête. Il existe également la possibilité de créer un modèle de langage sans filtre qui pourrait être formé sur des données nuisibles et hébergé sur le dark web.
Si tu utilises #ChatGPT faire attention! Il y a un risque que vos discussions soient partagées avec d’autres utilisateurs !
Aujourd’hui, on m’a présenté l’historique de chat d’un autre utilisateur.
Je ne pouvais pas voir le contenu, mais je pouvais voir les titres de leurs discussions récentes.#sécurité #confidentialité #openAI #IA pic.twitter.com/DLX3CZntao– Jordan L Wheeler (@JordanLWheeler) 20 mars 2023
Enfin, Europol met en garde contre le danger que les données des utilisateurs de ChatGPT, telles que les requêtes sensibles, puissent être exposées. Cela s’est déjà produit il y a une semaine lorsque le service a été temporairement fermé après avoir commencé à afficher les titres de l’historique des discussions des autres utilisateurs. Le contenu n’a pas été exposé, mais il s’agissait tout de même d’un incident majeur de confidentialité.
Europol n’est pas la seule agence à avertir des dangers potentiels posés par les chatbots. Le National Cyber Security Center (NCSC) du Royaume-Uni a émis un avertissement similaire au début du mois.
Titre : Emiliano Vittoriosi