De plus en plus d’images pédopornographiques générées par IA circulent sur internet, et ça fait peur

L'intelligence artificielle a plein d'avantages. Mais comme toute nouvelle technologie, elle entraîne aussi beaucoup de dérives... De plus en plus d'images pédopornographiques circulent sur les réseaux sociaux et forums, et elles sont créées grâce à des IA.

Écrit par Alice Legrand le

Viols de bébés et jeunes enfants, agressions sexuelles sur des célébrités rajeunies, scènes BDSM (entre autres) impliquant des adolescents... La liste est longue. 

Vous pensiez qu'avec le deepfake, cette technique qui consiste à mettre des visages sur des corps qui ne sont pas les bons et qui sont souvent nus, on avait touché le fond ? Eh bien non, cette création de nudes à la demande s'étend désormais aussi aux enfants et adolescents mineurs.

Des pédophiles en fabriquent, en intégrant des enfants victimes de viols et des célébrités "rajeunies" à des scènes d'abus sexuels.

Chat GPT nous a déjà donné des conseils inédits sur le sexe, nous a aidés à créer une routine sportive efficace selon nos besoins, ou nous a été utile pour organiser un mariage. Si les intelligences artificielles peuvent nous aider beaucoup dans notre quotidien, le deepfake pédopornographique est clairement une dérive. On vous explique.

Une nouvelle dérive de l'intelligence artificielle : la pédopornographie

À la façon de Midjourney, qui peut générer les images que vous voulez, certaines applications seraient utilisées pour générer des photographies et vidéos pédopornographiques. Et ces dernières sont accessibles en un claquement de doigts, sans nécessiter des connaissances approfondies en informatique.

L'association britannique Internet Watch Foundation (IWF) a mené l'enquête pendant un mois, en infiltrant un forum du dark web. Sur les plus de 11.000 images générées par IA qui ont été examinées, près de 3.000 représentent des abus sexuels sur mineurs.

Et outre les célébrités et les inconnus, d'anciennes victimes de viol sont également la cible de ces contenus. BFM rapporte que des enquêteurs ont trouvé un fichier contenant 500 images d'une véritable victime d'agression sexuelle quand elle avait environ 9 ans. En bref, c'est une véritable horreur qui se déroule sous nos yeux.

Une dizaine de jeunes mineures espagnoles se retrouvent nues sur internet

En Espagne, une dizaine de mineures ont subi ces deepfakes pédopornographiques. Âgées de 11 à 17 ans, ces jeunes filles sont totalement nues, avec leur vrai visage et un faux corps, sur internet. Et c'est tellement réaliste que cela a de quoi affoler.

Évidemment, une enquête a été ouverte. Une mère a voulu faire parler de l'affaire, en diffusant une vidéo sur les réseaux sociaux où elle explique sa crainte que les photos de sa fille se retrouvent désormais sur des sites pornographiques.

Martine Brousse, présidente de La Voix de L'Enfant, a expliqué à BFM TV le danger de la situation. "Je pense que c'est un véritable danger. Tous les parents qui prennent en photo leurs enfants, en toute légitimité, qui vont se retrouver dénudés, c'est monstrueux. C'est la boîte de Pandore qui s'ouvre ! La pédopornographie va se répandre à une vitesse qui fait froid dans le dos".

Quelle solution pour éviter le deepfake pédopornographique ?

Il est important, plus que jamais, de faire attention à ce que vous postez sur les réseaux sociaux. Que ce soit les parents qui postent des photos de leurs enfants sur des comptes publics, ou ceux qui autorisent leurs jeunes adolescents à poster des photos d'eux sur les réseaux sociaux. Tout peut être sujet à être repris et modifié. Alors il vaut mieux s'en méfier !

Quand on sait que les catégories "adolescentes" ou encore "belle-fille" sont très populaires sur les sites pour adultes, on se dit que, à notre grand désarroi, la pédopornographie a encore de beaux jours devant elle.

Retrouvez plus d'articles Société dans notre rubrique dédiée.

À lire aussi