Recours accru à l'intelligence artificielle pour contrer l'exploitation des enfants
Par Patricia Vasylchuk

Technologie
À titre d'enquêteur au Centre national de coordination contre l'exploitation des enfants de la GRC, le caporal Philippe Gravel conseille aux parents d'éviter de publier des images de leurs enfants sur le Web.
Image par Martine Chénier, GRC
10 octobre 2024
Contenu
Les criminels, comme les policiers, profitent de l'accessibilité accrue à l'intelligence artificielle (IA). « Comme dans n'importe quoi, l'IA peut être utilisée à bon ou à mauvais escient », affirme le caporal Philippe Gravel, enquêteur au Centre national de coordination contre l'exploitation des enfants (CNCEE) de la GRC.
Le caporal Gravel affirme que les policiers constatent que des criminels commencent à se servir de l'IA pour créer du matériel pédopornographique. « Ils fonctionnent dans un système de troc : ils doivent avoir du matériel à échanger pour pouvoir obtenir d'autre matériel », explique l'enquêteur. « Et l'IA crée ce matériel pour eux ».
Au cours de la dernière année, après quelques enquêtes seulement, la GRC a découvert du matériel pédopornographique généré par l'IA sur le disque dur de l'ordinateur d'un suspect. Le caporal Gravel croit que ce n'est que la pointe de l'iceberg. « La vague de matériel pédopornographique généré par l'IA s'apprête à déferler », renchérit-il. « Il y a sans cesse de nouvelles façons de faire, et on peut s'attendre à ce que ça se poursuive parce que les criminels sont toujours à l'affût. »
Aspect technique
L'IA permet de créer une nouvelle image à partir de fragments d'images extraites d'Internet, en fonction de paramètres déterminés par l'utilisateur.
Les dessins et les images numériques à caractère pornographique représentant des enfants sont illégaux au Canada. Le Code criminel interdit toute production et toute possession de pornographie juvénile.
« La pornographie générée par l'IA provient de quelque part, il y a de véritables enfants à la base de ces images », précise-t-il, insistant sur les victimes.
Dangers cachés
À l'ère du numérique où publier des photos et des vidéos de tous les aspects de sa vie est devenu la norme, le caporal Gravel a un conseil à donner.
« Si vous publiez une image, sachez qu'elle restera dans le cyberespace pour toujours, même si vous la supprimez. Vous ne savez pas qui l'a sauvegardée ou partagée ou qui en a fait une capture d'écran », prévient-il.
Les parents devraient réfléchir à l'utilisation des images de leurs enfants. Les objets en arrière-plan de photos et de vidéos peuvent aider des criminels à vous retracer, vous ou votre enfant. « La meilleure façon de ne pas s'exposer, ou exposer ses enfants, est de ne rien publier », ajoute-t-il.
Soyons alertes et conscients
Le Centre antifraude du Canada (CAFC) est également conscient que l'IA pourrait servir aux fins de fraudes et d'escroqueries, avance Jeff Horncastle, agent intérimaire chargé des communications et de la liaison avec les clients au CAFC.
Il affirme que des personnes ayant été la cible d'arnaques téléphoniques et de fausses occasions de placement ont signalé que les fraudeurs pourraient avoir eu recours à l'IA.
Il semblerait que les escrocs utilisent une technologie qui clone la voix. « Ça n'a rien à voir avec ce que c'était il y a deux ans, lorsque la voix était robotisée », explique t-il. « C'est à s'y méprendre, on a l'impression d'interagir avec une véritable personne. »
Il ajoute que l'IA est fort probablement également utilisée par les auteurs de stratagèmes de rencontre et de sextorsion. Les fraudeurs peuvent désormais se servir de logiciels utilisant des images hypertruquées qui apparaissent dans des salles de clavardage vidéo et des réunions virtuelles et donnent l'impression d'être de véritables êtres humains. S'ils détiennent une photo de la victime, les escrocs peuvent également se servir de la même technologie pour donner l'impression que la victime elle-même est présente et parle.
De plus, aux dires de M. Horncastle, la technologie de l'hypertrucage a été utilisée dans des vidéos montrant des célébrités endossant des produits frauduleux et des cryptomonnaies. L'IA serait aussi derrière des courriels d'hameçonnage et de harponnage visant à inciter les gens à donner des renseignements personnels et bancaires.
« Les fraudeurs peuvent intercepter un courriel professionnel demandant de l'argent, comme des comptes à payer ou des factures », précise M. Horncastle. « La victime pense communiquer avec le président de l'entreprise, un collègue ou un fournisseur et lui fournit les renseignements bancaires nécessaires, puis verse l'argent directement à l'escroc. »
Selon lui, la façon d'éviter de se faire escroquer n'a toutefois pas changé. « Les fraudeurs cherchent toujours à créer un sentiment d'urgence, de panique ou de peur. Prenez donc votre temps, ne réagissez pas trop vite et faites vos vérifications », prévient-il.
Aspect positif
Même si elle peut servir à des fins criminelles, l'IA peut aussi être utilisée à bon escient. C'est d'ailleurs déjà le cas. Le CNCEE l'utilise par exemple pour accélérer les enquêtes où il y a des soupçons d'exploitation sexuelle d'enfants sur Internet. Elle permet d'identifier les enfants et de les retirer de milieux où ils sont agressés ou en danger.
Les policiers qui analysent le disque dur de l'ordinateur d'un suspect peuvent également recourir à l'IA pour identifier tout ce qui correspond à du matériel d'exploitation sexuelle d'enfants, une tâche qui se fait normalement par un humain.
« Certains enquêteurs et experts du groupe sont parents, et c'est parfois pour cette raison qu'ils font ce travail, alors s'ils peuvent passer moins de temps à regarder des images choquantes, c'est mieux pour leur santé mentale », constate M. Gravel. Grâce à l'IA, les employés sont aussi moins exposés à ces images et le matériel, dont le volume augmente chaque jour, peut être passé en revue plus rapidement.
Culture de la transparence
L'IA est une technologie opérationnelle jouant un rôle essentiel dans les services de police modernes. Une technologie opérationnelle s'entend d'un outil, d'une technique, d'un dispositif, d'un logiciel, d'une application ou d'un ensemble de données utilisé pour soutenir une enquête ou recueillir des renseignements criminels. Il s'agit notamment d'outils de recherche, de la reconnaissance automatique des plaques d'immatriculation, de la dictée vocale, du filtrage de l'extraction des données, de la traduction, de la reconnaissance faciale et de la fonctionnalité de texte par synthèse vocale.
Ces outils servent à lutter contre la criminalité, à enquêter sur des suspects, à protéger les enfants et les groupes vulnérables, à recueillir des éléments de preuve, à améliorer l'analyse de données, à accroître la reddition de comptes de la police et à faire progresser les objectifs en matière d'application de la loi et de sécurité publique.
Les groupes de la GRC comme le CNCEE consultent les responsables du Programme national d'intégration des technologies (PNIT) lorsqu'ils envisagent d'utiliser de nouvelles technologies, pour s'assurer qu'elles sont efficaces et que leur utilisation se fait dans le respect de la Charte canadienne des droits et libertés et de la Loi sur la protection des renseignements personnels.
« Notre équipe est déterminée à aider tous les secteurs de programme de la GRC à rassembler les renseignements dont ils ont besoin pour qu'ils utilisent les outils de manière appropriée et efficace », déclare Michael Billinger, responsable de la transparence et de la sensibilisation au PNIT.
Le Programme a été créé en 2021 à la suite des préoccupations que la technologie de reconnaissance faciale Clearview AI utilisée par la GRC avait soulevées en ce qui a trait à la protection de la vie privée et après l'enquête subséquente. Le commissaire à la protection de la vie privée avait alors recommandé à l'organisation d'adopter une approche plus structurée pour l'adoption et l'intégration de nouvelles technologies. Le Programme vise à garantir l'utilisation responsable des technologies opérationnelles par la GRC et à encourager une plus grande transparence publique. À cet égard, le PNIT a récemment publié le Plan de transparence : Aperçu des technologies opérationnelles.
M. Billinger affirme avoir constaté un changement de culture dans la façon dont la GRC envisage la protection de la vie privée et son engagement à accroître la transparence.
« Les employés de la GRC pensent d'abord à la protection de la vie privée et se renseignent eux-mêmes sur les problèmes connexes, sans compter sur nous pour le faire », lance M. Billinger. « Il s'agit d'un changement dans la façon de considérer les informations comme classifiées et confidentielles, et d'une plus grande transparence pour favoriser la confiance du public. Je pense que c'est une grande victoire. »