L’essor fulgurant des outils d’intelligence artificielle bouleverse les usages numériques, mais il expose également les plateformes à des dérives d’une gravité extrême. Une enquête récente menée par l’organisation espagnole Maldita.es met en lumière une réalité troublante : sur TikTok, des vidéos générées par intelligence artificielle représentant ce qui semble être des jeunes filles mineures dans des postures ou des tenues sexualisées ont accumulé des millions de mentions « j’aime », en dépit de règles internes pourtant explicites.
Selon les chercheurs, plus d’une douzaine de comptes publiaient régulièrement des contenus montrant des filles d’apparence juvénile, vêtues de lingerie, d’uniformes scolaires ou de vêtements moulants, parfois dans des positions suggestives. Ces comptes, toujours actifs pour la plupart au moment de la publication du rapport, totalisaient à eux seuls plusieurs centaines de milliers d’abonnés. Plus préoccupant encore, les sections de commentaires regorgeaient de liens redirigeant vers des groupes privés sur Telegram, où des contenus pédopornographiques étaient proposés à la vente.
Maldita.es indique que certains comptes se présentaient ouvertement comme diffusant des vidéos de « lycéennes séduisantes » ou de « junior models », tandis que d’autres adoptaient une approche plus insidieuse, diffusant par exemple des séquences de jeunes filles léchant une glace, immédiatement détournées par des commentaires à caractère explicitement sexuel. Dans plusieurs cas, les vidéos avaient été créées à l’aide de la fonctionnalité « AI Alive » de TikTok, qui permet d’animer des images fixes générées par intelligence artificielle.
Face à ces constats, les chercheurs ont signalé quinze comptes et soixante vidéos via les outils de signalement intégrés à l’application, en les classant comme des cas de « comportement sexuellement suggestif impliquant des mineurs ». Pourtant, la réponse de TikTok a suscité l’incompréhension : quatorze comptes ont été jugés conformes aux règles de la plateforme et un seul a fait l’objet de restrictions limitées. Après appel, les décisions ont été maintenues quasi automatiquement, parfois en moins de trente minutes, laissant en ligne des contenus que les chercheurs jugent manifestement problématiques.
Ces conclusions interrogent directement la capacité de TikTok à faire respecter ses propres règles. La plateforme affirme pourtant appliquer une politique de tolérance zéro à l’égard de toute forme d’exploitation sexuelle des mineurs, y compris lorsque les images sont générées par intelligence artificielle. TikTok indique s’appuyer sur une combinaison d’outils automatisés et d’équipes humaines pour modérer les contenus, et affirme avoir supprimé plus de 189 millions de vidéos entre avril et juin 2025, dont une large majorité de manière proactive.
Cependant, pour les auteurs du rapport, le problème ne relève ni de l’ambiguïté ni de l’interprétation. Selon Carlos Hernández-Echevarría, responsable de la recherche chez Maldita.es, il est impossible pour un observateur humain de ne pas comprendre la nature profondément malsaine de ces contenus, d’autant plus que les commentaires et les liens associés révèlent clairement une logique d’exploitation sexuelle et financière.
L’enquête met également en évidence le rôle de plateformes tierces comme Telegram, où les discussions privées servent de relais à la commercialisation de contenus illégaux. Telegram affirme de son côté avoir supprimé plus de 900 000 groupes et chaînes liés à des contenus pédopornographiques en 2025, tout en reconnaissant les limites techniques du contrôle des échanges chiffrés.
Cette affaire survient alors que la pression réglementaire s’intensifie sur les grandes plateformes numériques. Plusieurs pays adoptent ou renforcent des législations visant à protéger les mineurs en ligne, à l’image de l’Australie, qui vient d’interdire l’accès aux réseaux sociaux aux moins de 16 ans. Dans ce contexte, l’incapacité apparente de TikTok à agir rapidement et efficacement face à des contenus aussi sensibles risque d’alimenter les appels à une régulation plus stricte.
Au-delà du cas TikTok, ce rapport pose une question plus large : comment encadrer l’usage de l’intelligence artificielle lorsque celle-ci est détournée à des fins d’exploitation, et comment garantir que les outils de modération suivent le rythme des technologies qu’ils sont censés surveiller ? À mesure que les images générées deviennent de plus en plus réalistes, la frontière entre fiction numérique et abus réel devient dangereusement floue, exigeant des réponses fermes, cohérentes et transparentes.
Source
CNN – Enquête citant le rapport de Maldita.es, décembre 2025.
Pour suivre l’actualité technologique, les enjeux numériques et leurs impacts sociétaux, abonnez-vous à TekTek sur Twitter/X : https://x.com/iam_tektek?s=21


