ARNAQUE GRANDS-PARENTS ET IA : UNE LéGENDE URBAINE QUI NE S’ESSOUFFLE PAS

Les témoignages de personnes convaincues d'avoir été ciblées par des arnaqueurs qui auraient cloné la voix d'un de leurs proches fusent de partout depuis que des outils facilitant ce type de manipulation à l'aide de l'intelligence artificielle (IA) se sont démocratisés, début 2023.

Or, il n'existe toujours aucune preuve que des arnaqueurs ont recours à cette technologie, confirment la Sûreté du Québec (SQ) et le Service de police de la Ville de Montréal (SPVM).

Des cas de clonages vocaux à des fins malveillantes sont habituellement rapportés dans le cadre de fraudes grands-parents, qui consistent à appeler un aîné en se faisant passer pour un petit-fils ou une petite-fille ayant un besoin urgent d'argent, après un accident de voiture, par exemple.

Dans un article publié en début d’année, les Décrypteurs expliquaient que ces nombreuses histoires n'étaient étayées par aucun fait.

La récente perquisition d’un centre d’appels spécialisé en arnaques grands-parents par la SQ a toutefois lancé un nouveau cycle de battage médiatique sur ces fraudes supposément propulsées par l’intelligence artificielle. L'IA est même appelée à la rescousse dans des reportages pour cloner des voix afin de montrer la facilité avec laquelle la chose peut se faire.

Le hic, c’est qu’il n’existe aucune preuve que l’IA est employée pour ces arnaques, qui fonctionnent à merveille au Canada depuis plus de quinze ans.

Les gens s’imaginent que c’est de l’IA, mais ce ne l’est pas vraiment, a expliqué la semaine dernière le coordonnateur des communications de la SQ, Benoît Richard. C’est une situation où l’urgence et la peur sont mises de l’avant, et c’est ça le plus important dans ce stratagème.

Le recours à l’IA serait même contre-productif pour les fraudeurs, fait valoir le lieutenant Richard. Cela s'explique par leur modus operandi, qui consiste à contacter autant de gens que possible afin que, dans le lot, quelques-uns mordent à l’hameçon. Or, si les arnaqueurs devaient chaque fois cloner la voix d'un proche, la tâche serait particulièrement lourde, car il leur faudrait écumer préalablement les réseaux sociaux à la recherche de voix familières à leurs victimes.

Même son de cloche du côté du Service de police de la Ville de Montréal (SPVM) : La situation n’a pas changé depuis la réponse que nous vous avions fournie en janvier dernier : aucune fraude de type grands-parents impliquant des voix créées par intelligence artificielle ne nous aurait été rapportée jusqu’ici, a déclaré par écrit la chargée de communication du corps policier, Anik de Repentigny.

Pourquoi, alors, cette histoire ne cesse-t-elle pas de circuler? Simplement parce que les victimes sont convaincues que la voix au bout du fil est celle de leur proche, et qu'en conséquence seul un clonage vocal aurait pu les duper.

Mais, comme nous le mentionnions en janvier, les victimes disent la même chose depuis bien avant l’avènement de l’IA générative. Troublante constatation, la voix du premier arnaqueur était la même que le réel petit-fils de la victime, qu’il avait vu quelques jours plus tôt, pouvait-on, par exemple, lire dans un article du Journal de Montréal sur une arnaque grands-parents publié en 2014.

Au Japon, où les arnaques grands-parents sont une importante source de financement pour le crime organisé depuis près de deux décennies, 62 % des victimes sondées par la police en 2018 ont admis avoir versé de l’argent aux fraudeurs parce que la voix ressemblait à celle de leur enfant ou de leur petit-enfant.

Comme quoi les arnaques – tout comme la désinformation – n’ont pas besoin d’un haut niveau de sophistication technologique pour faire des victimes. Il suffit de savoir jouer habilement des failles humaines.

2024-06-10T19:18:17Z dg43tfdfdgfd