Il est déjà assez problématique que certains enfants envoient des photos d'eux nus à leurs amis et même à des inconnus en ligne. Mais l'intelligence artificielle a élevé le problème à un tout autre niveau.
Selon un nouveau rapport de Thorn, environ 1 enfant sur 10 déclare que ses amis ou ses pairs ont utilisé l'IA générative pour créer des nus d'autres enfants.
L'association à but non lucratif, qui lutte contre les abus sexuels sur les enfants, a interrogé plus de 1 000 enfants âgés de 9 à 17 ans fin 2023 pour son enquête annuelle.
Thorn a constaté que 12 % des enfants âgés de 9 à 12 ans connaissaient des amis ou des camarades de classe qui avaient utilisé l'IA pour créer des nus de leurs pairs, et 8 % préféraient ne pas répondre à la question. Parmi les jeunes de 13 à 17 ans interrogés, 10 % ont déclaré connaître des pairs qui avaient utilisé l'IA pour générer des nus d'autres enfants, et 11 % ont préféré ne pas répondre.
Il s'agissait de la première enquête de Thorn interrogeant les enfants sur l'utilisation de l'IA générative pour créer des nus deepfake.
« Bien que la motivation derrière ces événements soit plus probablement dictée par le comportement des adolescents que par une intention d'abuser sexuellement, les préjudices qui en résultent pour les victimes sont réels et ne doivent pas être minimisés dans le but de se dédouaner de toute responsabilité », indique le rapport Thorn.
La culture du sexting est déjà assez difficile à combattre sans que l'IA ne s'y mêle.
Thorn a constaté que 25 % des mineurs considèrent comme « normal » de partager des photos nues d'eux-mêmes (une légère baisse par rapport aux enquêtes remontant à 2019), et 13 % des personnes interrogées ont déclaré l'avoir déjà fait à un moment donné, une légère baisse par rapport à 2022.
L'association à but non lucratif affirme que le partage de photos de nus peut conduire à la sextorsion, c'est-à-dire à l'utilisation de photos de nus par des acteurs malveillants pour faire chanter ou exploiter l'expéditeur. Ceux qui avaient envisagé de partager des photos de nus ont cité les fuites ou l'exploitation comme une raison pour laquelle ils ont finalement choisi de ne pas le faire.
Cette année, pour la première fois, Thorn a demandé aux jeunes s'ils étaient payés pour envoyer des photos de nus, et 13 % des enfants interrogés ont déclaré connaître un ami qui avait été rémunéré pour leurs nus, tandis que 7 % n'ont pas répondu.
Les enfants veulent que les réseaux sociaux les aident
L'IA générative permet de créer des « images d'abus très réalistes à partir de sources bénignes telles que des photos d'école et des publications sur les réseaux sociaux », selon le rapport de Thorn. En conséquence, les victimes qui ont peut-être déjà signalé un incident aux autorités peuvent facilement être à nouveau victimisées avec du matériel abusif personnalisé et nouveau.
Par exemple, l'actrice Jenna Ortega a récemment signalé qu'on lui avait envoyé des photos d'elle nue générées par l'IA lorsqu'elle était enfant sur X, anciennement Twitter. Elle a choisi de supprimer complètement son compte.
Ce n'est pas très loin de ce que font la plupart des enfants.
réagir dans des situations similaires, a rapporté Thorn.
L'association à but non lucratif a constaté que les enfants, dont un tiers ont eu une forme d'interaction sexuelle en ligne, « Préfère systématiquement les outils de sécurité en ligne aux réseaux de soutien hors ligne tels que la famille ou les amis. »
Les enfants bloquent souvent les mauvais acteurs sur les réseaux sociaux au lieu de les signaler à la plateforme de réseaux sociaux ou à un adulte.
Thorn a constaté que les enfants souhaitent être informés sur « la manière de mieux exploiter les outils de sécurité en ligne pour se défendre contre de telles menaces », qu'ils considèrent comme normales et banales à l'ère des médias sociaux.
« Les enfants nous montrent que ces outils sont privilégiés dans leur kit de sécurité en ligne et qu'ils attendent des plateformes qu'elles les utilisent davantage. Il existe une opportunité évidente de mieux soutenir les jeunes grâce à ces mécanismes », a déclaré Thorn dans son analyse.
En plus de vouloir des informations et des tutoriels sur la façon de bloquer et de signaler quelqu'un, plus d'un tiers des répondants ont déclaré qu'ils souhaitaient que les applications vérifient auprès des utilisateurs leur sentiment de sécurité, et un nombre similaire a déclaré qu'ils souhaitaient que la plateforme offre un soutien ou des conseils après une mauvaise expérience.
- Les enfants sont exposés aux deepfakes via l'IA.
- Thorn rapporte des chiffres alarmants sur l'utilisation de l'IA pour créer des nus.
- La culture du sexting est complexe à contrôler, surtout avec l'intervention de l'IA.
- Les enfants demandent aux réseaux sociaux plus de soutien face à ces menaces en ligne.