Actualité

IA

Images pédocriminelles et IA : la nouvelle "menace qui explose"

Par Vincent Lautier - Publié le

C'est un des côtés les plus sombres de l'IA générative. Dans une enquête publiée ce matin, le journal Le Monde alerte sur l'explosion des images pédocriminelles créées par intelligence artificielle. Un phénomène qui submerge les enquêteurs et pose des questions juridiques et éthiques inédites.

Images pédocriminelles et IA : la nouvelle "menace qui explose"


Une "explosion" du nombre de contenus



Comme le rapporte Le Monde, les chiffres fournis par le NCMEC, l'organisation américaine de référence qui centralise les signalements, sont vertigineux. En 2023, elle avait reçu 4 700 signalements d'images pédocriminelles liées à l'IA. En 2024, ce chiffre est passé à 67 000. Et pour la première moitié de 2025 seulement, on dépasse déjà les 485 000.

"C'est vraiment en train d'exploser", déplore un responsable de l'organisation. D'autant que la qualité et le réalisme de ces images s'améliorent de jour en jour, rendant la distinction avec de vraies photos de plus en plus difficile.

Images pédocriminelles et IA : la nouvelle "menace qui explose"


Le faux argument du "crime sans victime"



L'enquête du Monde relate le cas d'un homme arrêté au Danemark en possession de plus de 36 000 images de ce type, qu'il créait et vendait. Sa ligne de défense : "Si l'enfant n'est pas réel, alors, pour moi, ce n'est pas illégal." Il a même osé affirmer qu'en créant ces fausses images, il "évitait que de vrais enfants soient maltraités".

Cet argument est balayé par tous les experts, et l'homme a été condamné à de la prison ferme. Les associations rappellent que ces images banalisent la pédocriminalité et qu'il existe un lien prouvé entre le visionnage de ces contenus et le passage à l'acte. De plus, ces IA sont souvent entraînées à partir de vraies photos d'enfants, parfois simplement récupérées sur les réseaux sociaux des parents.

Le calvaire des enquêteurs



Pour les forces de l'ordre, cette prolifération est un cauchemar. La directrice d'Europol, citée par Le Monde, explique que ses enquêteurs sont désormais "débordés". Ils perdent un temps précieux à essayer de déterminer si une image est réelle ou générée par IA.

"Cela rend très difficile pour nous d'identifier les vraies victimes, que nous devons protéger", alerte-t-elle. Un temps d'analyse perdu qui peut avoir des conséquences dramatiques pour de vrais enfants en danger.

Images pédocriminelles et IA : la nouvelle "menace qui explose"


On en dit quoi ?



Cette enquête glaçante met en lumière une conséquence terrible et prévisible de la démocratisation des IA génératives. L'argument selon lequel "aucun enfant réel n'est blessé" est une dangereuse supercherie, qui ignore la manière dont ces contenus normalisent des actes criminels et peuvent être utilisés pour créer des "deepfakes" de vrais enfants.

La course à l'IA la plus puissante, menée par de nombreux acteurs, a des effets concrets et dévastateurs qui n'ont pas été anticipés. Il devient urgent pour les législateurs et les entreprises de la tech de prendre la mesure du problème et de mettre en place des garde-fous bien plus stricts sur la génération d'images, car la technologie semble aujourd'hui avoir pris une longueur d'avance sur la protection de l'enfance.

Et vous, la prolifération de ces "deepfakes", ça vous inquiète pour l'avenir ?

Pour suivre toute l'actualité de la tech et ses enjeux de société, pensez à télécharger notre application Mac4Ever pour iPhone !