Un individu a réussi à tromper des ministres étrangers et des hauts responsables américains en se faisant passer pour le secrétaire d’État Marco Rubio grâce à des messages vocaux générés par intelligence artificielle. Une affaire qui illustre les nouveaux défis de la cybersécurité à l’ère de l’IA.
L’époque où les arnaqueurs se contentaient de faux emails mal rédigés est révolue. Nous voici entrés dans l’ère du « deep fake » diplomatique, où l’intelligence artificielle permet de créer des imitations si parfaites qu’elles trompent même les plus hauts responsables politiques.
Un stratagème digne d’un film d’espionnage
L’affaire, révélée par le Washington Post ce mardi 8 juillet, remonte à la mi-juin. Un imposteur particulièrement audacieux a créé un compte sur la messagerie cryptée Signal avec l’identité « Marco.Rubio@state.gov », puis a envoyé des messages vocaux à au moins deux personnes ciblées.
Le plus troublant ? Ces messages n’étaient pas de simples enregistrements, mais des créations artificielles générées par un logiciel d’IA à partir d’extraits de vrais discours du secrétaire d’État. De quoi donner des sueurs froides aux services de sécurité du monde entier.
Des cibles de premier plan
L’ampleur de cette opération fait froid dans le dos : au moins trois ministres étrangers, un gouverneur américain et un élu du Congrès ont été contactés via SMS et Signal. L’objectif présumé, selon un câble interne du département d’État daté du 3 juillet, était de « manipuler de hauts responsables dans le but d’accéder à des informations et des comptes personnels ».
Pour les observateurs de la scène politique internationale, cette affaire soulève des questions cruciales : si des ministres peuvent être dupés par une voix artificielle, qu’est-ce qui nous attend quand cette technologie sera encore plus sophistiquée ?
Une tendance inquiétante
Cette usurpation d’identité n’est malheureusement pas un cas isolé. Le FBI tire la sonnette d’alarme depuis avril sur des « acteurs malveillants » qui ciblent les contacts de hauts fonctionnaires américains. Les techniques utilisées ont même leurs propres noms : « smishing » pour les SMS frauduleux et « vishing » pour les appels vocaux artificiels.
Le phénomène a d’ailleurs touché jusqu’à la Maison Blanche. En mai dernier, le téléphone de Susie Wiles, cheffe de cabinet de Donald Trump, avait été infiltré. Des sénateurs, gouverneurs et chefs d’entreprise avaient alors reçu des messages de quelqu’un se faisant passer pour elle.
L’IA : nouvelle frontière de la désinformation
Cette affaire illustre parfaitement les défis auxquels nous sommes confrontés à l’ère de l’intelligence artificielle. Hier, il fallait des compétences techniques poussées pour créer de faux contenus convaincants. Aujourd’hui, quelques extraits audio suffisent pour générer des messages vocaux indétectables.
Pour les Haïtiens, cette réalité résonne particulièrement. Dans un pays où la désinformation politique circule déjà largement sur les réseaux sociaux, l’arrivée de ces nouvelles technologies pourrait compliquer encore davantage la distinction entre vraies et fausses informations.
Riposte institutionnelle
Face à cette menace, le département d’État promet de « mener une enquête approfondie » et de « mettre en œuvre des mesures de protection ». Mais la question demeure : comment vérifier l’authenticité d’un message quand la technologie permet de reproduire parfaitement la voix de n’importe qui ?
Donald Trump, lui, a choisi de minimiser la menace concernant sa cheffe de cabinet, assurant que Susie Wiles était « une femme incroyable » qui pouvait « gérer » la situation. Une réaction qui contraste avec l’ampleur du défi technologique.
À l’heure où l’intelligence artificielle devient accessible au grand public, cette affaire nous rappelle que nous entrons dans une nouvelle ère de la cybercriminalité. La question n’est plus de savoir si de telles tentatives se reproduiront, mais comment nous nous préparerons à les détecter. Car si des diplomates chevronnés peuvent être dupés, qu’en est-il du citoyen lambda ?