
Des appels inquiétants, des e-mails plus vrais que nature, des voix synthétiques qui imitent parfaitement un conseiller Google… Les escrocs ont franchi un nouveau cap. Grâce à l’intelligence artificielle, les arnaques ciblant les comptes Gmail deviennent plus convaincantes que jamais. Et le FBI tire la sonnette d’alarme.
Une nouvelle génération d’arnaques, plus crédible que jamais
Les tentatives de phishing, on connaissait. Mais ce qui se passe aujourd’hui n’a plus rien à voir avec les vieux messages bourrés de fautes. Depuis 2024, une nouvelle forme de cyberarnaque vise spécifiquement les utilisateurs de Gmail. Et cette fois, les escrocs ne se contentent pas d’envoyer un e-mail.
Tout commence souvent par un appel téléphonique soi-disant urgent, affirmant que votre compte Gmail est compromis. L’appel est parfois suivi d’un message vocal, ou d’un e-mail apparemment officiel. Et c’est là que l’IA entre en scène.
La voix au bout du fil ? Générée par une intelligence artificielle, parfaitement calée pour imiter un employé de Google. L’e-mail ? Bien rédigé, sans erreur, et avec tous les codes visuels de la firme de Mountain View. Résultat : même les plus prudents peuvent se faire avoir.
Ce que veulent vraiment les cybercriminels
Le but de la manœuvre ? Vous faire donner votre code de récupération Gmail, prétextant qu’il s’agit d’une vérification de sécurité. Mais en réalité, ce code donne accès à tout : vos e-mails, vos fichiers, vos photos, vos contacts… et plus encore.
Et une fois le compte piraté, c’est un effet domino :
- accès à Google Drive et à vos documents sensibles,
- récupération d’informations personnelles et bancaires,
- usurpation d’identité,
- et dans certains cas, intrusion dans d’autres comptes liés (professionnels ou personnels).
Des attaques qui deviennent impossibles à repérer
Robert Tripp, agent spécial du FBI, le résume en quelques mots :
« L’IA permet de produire des e-mails, des messages vocaux et même des vidéos si crédibles qu’ils deviennent redoutablement efficaces. »
Et c’est bien là le danger. Ces attaques ne ressemblent plus à des escroqueries. Elles imitent à la perfection les communications officielles, jusqu’à vous faire douter de votre instinct.
Un exemple concret : quand l’alerte semble venir de Google
C’est exactement ce qui est arrivé à Sam Mitrovic, consultant en cybersécurité. Un jour, il reçoit une notification de tentative de connexion à son compte Gmail, suivie d’un appel. Au bout du fil, un “agent de sécurité Google” lui explique qu’il doit rapidement confirmer son identité et transférer un code pour sécuriser son compte.
Mais Sam a flairé l’arnaque. Il a raccroché, évité le piège, et alerté les internautes. Tous n’auront pas cette chance.
Comment vous protéger contre ce type d’attaque
Face à ces méthodes de plus en plus poussées, la prudence ne suffit plus. Voici les bons réflexes à adopter :
- Google ne vous appellera jamais spontanément pour vous parler d’un problème de sécurité. Si quelqu’un prétend le contraire, raccrochez.
- Ne communiquez jamais votre code de vérification Gmail, même si on vous dit que c’est “urgent” ou “indispensable”.
- Activez la double authentification, de préférence via une application comme Google Authenticator plutôt que par SMS.
- En cas de doute, ne cliquez sur aucun lien, et allez vérifier directement dans votre compte via le site officiel.
Une vigilance collective plus nécessaire que jamais
Les arnaques à base d’intelligence artificielle sont plus convaincantes, plus ciblées et plus fréquentes. Et c’est justement ce qui les rend dangereuses. Comme le dit Sam Mitrovic :
« C’est l’arnaque la mieux ficelée que j’aie vue. Si j’avais eu la tête ailleurs, j’aurais pu tomber dedans. »
Face à ces nouveaux pièges, notre meilleure défense, c’est l’information. Parlez-en autour de vous. Prévenez vos proches. Les personnes âgées ou peu à l’aise avec le numérique sont les premières cibles.
Parce qu’aujourd’hui, un simple code partagé au mauvais moment peut ouvrir la porte à une cascade de dégâts. Et l’intelligence artificielle, aussi impressionnante soit-elle, peut aussi se transformer en arme redoutable… entre de mauvaises mains.