Plus de vingt cyberattaques avérées : ChatGPT est devenu un outil redoutable entre les mains des cybercriminels. Consultez notre article pour obtenir davantage d’informations.
L’intelligence artificielle ouvre de nouvelles perspectives, mais pas toujours dans la direction escomptée. D’après OpenAI, l’IA générative, comme ChatGPT, a été impliquée dans plus de vingt cyberattaques. Ces incidents incluent des activités malveillantes telles que le spear-phishing, la création de logiciels malveillants et l’exploitation de failles de sécurité. Ce chiffre alarmant soulève des interrogations sur la manière dont l’IA peut se transformer en un instrument dangereux entre de mauvaises mains.
Deux des cyberattaques documentées dans le rapport d’OpenAI illustrent comment ChatGPT a été utilisé à des fins criminelles. La première, identifiée par Cisco Talos en novembre 2023, a été orchestrée par des hackers chinois ciblant des gouvernements asiatiques via une attaque de spear-phishing dénommée SweetSpecter.
Cette technique impliquait un fichier ZIP malveillant qui, une fois ouvert, déclenchait une chaîne d’infection dans le système de la victime. L’analyse a révélé que plusieurs comptes ChatGPT avaient été employés pour générer des scripts et identifier des vulnérabilités, avec le soutien d’un outil d’intelligence artificielle.
Une autre attaque rapportée a été menée par un groupe iranien connu sous le nom de CyberAv3ngers. Dans ce cas, ChatGPT a été utilisé pour dérober des mots de passe sur des ordinateurs fonctionnant sous macOS, en tirant parti des failles de sécurité des systèmes.
Toujours en Iran, le groupe Storm-0817 a conçu des logiciels malveillants pour Android en recourant à l’IA générative. Le logiciel malveillant en question était capable d’accéder aux contacts, aux journaux d’appels, à l’historique de navigation et même à la localisation des appareils infectés.
Les cybercriminels, sans avoir besoin de créer de nouveaux logiciels malveillants, ont su perfectionner des méthodes déjà existantes en utilisant ChatGPT. Cela illustre la manière dont l’intelligence artificielle peut être aisément exploitée pour concevoir des outils nuisibles, notamment par des individus possédant des compétences techniques de base. En raison des dangers potentiels, OpenAI a appelé à une régulation accrue de l’intelligence artificielle générative.
Dans le but de réduire ces abus, OpenAI a annoncé qu’elle travaillait à renforcer la sécurité de son IA, en collaborant avec des équipes internes et en partageant ses découvertes avec d’autres entreprises et chercheurs. Néanmoins, il existe des inquiétudes quant au fait qu’alors qu’OpenAI s’efforce de trouver des solutions, d’autres acteurs du domaine de l’IA pourraient ne pas être aussi bien équipés pour contrer des menaces similaires.