
Des chercheurs en sécurité ont découvert qu’une nouvelle méthode d’escroquerie exploitait ChatGPT pour convaincre les utilisateurs de Mac d’exécuter une commande dans le Terminal, permettant ainsi l’installation de malwares. En particulier, il s’agit de MacStealer, un malware qui permet aux attaquants de récupérer des mots de passe iCloud, des fichiers et des informations de carte de crédit.
Cette attaque visait des personnes cherchant sur Google des instructions pour libérer de l’espace disque sur leur Mac. Selon Sam Chapman d’Engadget, ce phénomène croissant utilise l’IA pour redynamiser des escroqueries anciennes.
Les hackers ont engagé une conversation avec ChatGPT, introduisant une commande Terminal qu’ils ont ensuite rendue publique, tout en payant Google pour promouvoir le lien. Selon Huntress, cela permettait à leur contenu d’apparaître en haut des résultats de recherche liés à la libération d’espace disque sur Mac.
Les utilisateurs, après avoir recherché « Libérer de l’espace disque sur macOS », voyaient deux résultats fortement valorisés en tête de la page : l’un dirigeait vers une conversation ChatGPT et l’autre vers un chat de Grok. Chacune offrait des conseils détaillés, avec des instructions et des commandes Terminal masquées sous des conseils de « nettoyage système sécurisé ». En cliquant sur le lien ChatGPT, l’utilisateur croyait suivre des recommandations d’un assistant AI fiable, mais exécutait en réalité une commande qui téléchargeait une variante d’AMOS Stealer, permettant aux hackers de récolter silencieusement leurs mots de passe et d’installer un malware persistant.
Un incident similaire a été rapporté avec le chatbot Grok sur X, en ciblant des recherches telles que :
- Libérer de l’espace sur Mac
- Effacer l’espace disque sur macOS
- Comment supprimer des données sur iMac
- Effacer les données système sur iMac
C’est une approche alarmante, car elle contourne toutes les protections intégrées de macOS, permettant ainsi à l’utilisateur d’installer le malware sans aucun avertissement. Cela exploite la confiance que les gens placent dans des marques bien établies, comme Google et ChatGPT.
Notre avis : Coller des commandes dans le Terminal sans en comprendre les implications est risqué, même en temps normal. Si vous devez le faire, assurez-vous de faire confiance à la source. Les résultats sponsorisés sur Google ne doivent pas être considérés comme fiables.