En quelques années, la pornographie générée par IA s’est imposée comme un phénomène mondial. Les recherches Google liées aux « générateurs de porno IA », aux « applications de nudification » ou aux outils de deepfake connaissent une croissance spectaculaire. Selon une étude menée par des chercheurs d’Oxford et de Cambridge, les dix sites les plus populaires proposant des compagnons IA à dimension sexuelle ont cumulé 78,5 millions de visites au premier trimestre 2025. Leur trafic aurait ensuite triplé en quelques mois. Même les géants de la Tech, comme xAI, l’entreprise d’Elon Musk, investissent désormais ce marché en plein essor.
Une sexualité virtuelle sans limites apparentes
Cette ruée vers les sexbots et les expériences sexuelles virtuelles repose sur une promesse simple : offrir une sexualité à la demande, entièrement personnalisable et affranchie de toute contrainte humaine. Les utilisateurs peuvent créer un « partenaire » numérique dans ses moindres détails – apparence, personnalité, comportements – et l’intégrer dans des scénarios qui se déclinent à l’infini.
D’autres se tournent vers des chatbots érotiques textuels ou vocaux, capables de générer récits et dialogues en quelques instructions. À mesure que ces outils d’intelligence artificielle gagnent en sophistication, ils permettent de simuler des situations impossibles – et illégales – dans le monde réel, posant de nouveaux défis en matière de sécurité numérique et de régulation de l’IA.
L’essor inquiétant des contenus pédopornographiques générés par IA
C’est sur ce terrain que les inquiétudes sont les plus fortes. L’IA permet désormais de produire des images qui seraient strictement interdites si elles représentaient de véritables personnes. L’Internet Watch Foundation, chargée de repérer les contenus d’abus sexuels sur mineurs, a déjà identifié des milliers de visuels générés par IA mettant en scène des enfants dans des situations d’agression.
Le nombre de signalements de contenus pédopornographiques générés par IA a plus que doublé sur les dix premiers mois de 2025, dépassant déjà le total de l’année 2024. Ces images deviennent plus réalistes, plus explicites, plus violentes, alimentées par des modèles open source faciles à détourner.
Les grandes plateformes d’IA affirment interdire ces usages. Mais il suffit de télécharger un modèle, de l’exécuter localement et de contourner les garde‑fous via des instructions détournées pour produire, en toute discrétion, des contenus relevant de la criminalité. Une dérive qui relance le débat sur la régulation des deepfakes, la responsabilité des développeurs et les limites de l’IA générative.






