
L’UNICEF tire la sonnette d’alarme face à la multiplication des images à caractère sexuel d’enfants générées ou modifiées par l’intelligence artificielle (IA). Dans une déclaration rendue publique, l’organisation onusienne dénonce une menace croissante pour la protection de l’enfance, qualifiant l’utilisation abusive des deepfakes de forme d’abus à part entière, aux conséquences bien réelles.
Les deepfakes images, vidéos ou fichiers audio créés ou altérés par l’IA pour paraître authentiques sont de plus en plus utilisés pour produire des contenus sexualisés impliquant des mineurs. Parmi les pratiques les plus préoccupantes figure la « nudification », qui consiste à détourner des photos d’enfants afin de créer artificiellement des images de nudité ou à caractère sexuel.
De nouvelles données confirment l’ampleur du phénomène. Selon une étude menée par l’UNICEF en collaboration avec ECPAT et INTERPOL dans 11 pays, au moins 1,2 million d’enfants déclarent avoir vu leurs photos détournées en images deepfakes sexuellement explicites au cours de l’année écoulée. Dans certains pays, cela équivaut à un enfant sur 25, soit environ un élève par classe.
Les enfants eux-mêmes mesurent la gravité du risque. Dans plusieurs pays concernés, jusqu’à deux tiers des enfants interrogés disent craindre que l’IA soit utilisée pour créer de fausses images ou vidéos sexuelles à leur sujet. Un niveau d’inquiétude variable d’un pays à l’autre, qui révèle néanmoins une urgence commune qui est de renforcer la prévention, la sensibilisation et les mécanismes de protection.
Des images fictives, des préjudices bien réels
Pour l’UNICEF, aucune ambiguïté n’est permise. Les images sexuelles d’enfants générées ou modifiées par l’IA constituent du matériel pédopornographique (CSAM). « L’utilisation abusive des deepfakes est une forme d’abus, et le préjudice qu’elle cause n’a rien de fictif », souligne l’organisation.
Lorsqu’un enfant est identifiable, il est directement victime d’abus. Même en l’absence de victime clairement reconnue, ces contenus contribuent à normaliser l’exploitation sexuelle des enfants, à alimenter la demande et à compliquer considérablement le travail des forces de l’ordre dans l’identification et la protection des victimes réelles.
L’UNICEF reconnaît les efforts de certains développeurs d’IA qui intègrent des mécanismes de sécurité dès la conception de leurs outils. Toutefois, l’organisation note que ces initiatives restent inégales. De nombreux modèles d’IA continuent d’être développés sans protections suffisantes, un risque aggravé lorsque ces technologies sont directement intégrées aux plateformes de réseaux sociaux, facilitant la diffusion rapide de contenus trafiqués.
Un appel urgent à l’action
Face à cette menace, l’UNICEF appelle à une mobilisation immédiate. Elle exhorte les gouvernements à adapter leurs cadres juridiques afin d’inclure explicitement les contenus pédopornographiques générés par l’IA et à criminaliser leur production, leur possession et leur diffusion.
L’organisation interpelle également les développeurs d’IA, invités à intégrer des garde-fous robustes dès la conception de leurs systèmes, ainsi que les entreprises numériques, appelées à empêcher activement la circulation de ces contenus, au-delà de leur simple suppression après signalement. « Les dommages causés par l’utilisation abusive des deepfakes sont réels et urgents. Les enfants ne peuvent pas attendre que la loi rattrape son retard », prévient l’UNICEF, appelant à une réponse collective à la hauteur d’un enjeu devenu mondial.
Romain HESSOU

