THE VERTEX.
Retour à l'accueil
INTERNATIONAL6 mai 2026

L’IA « slop » inonde les forums du cyber‑crime, déclenchant une nouvelle vague de critiques

Les cybercriminels dénoncent l’inondation de contenus générés par IA dans leurs forums, ce qui menace la qualité des échanges illicites et incite à renforcer la modération.

La
La Rédaction
The Vertex
Lecture 5 min
L’IA « slop » inonde les forums du cyber‑crime, déclenchant une nouvelle vague de critiques
Source: www.wired.com
Dans l’ombre des forums où les cybercriminels échangent des exploits de zero‑day et des schémas de ransomware, une nouvelle plainte surgit : la surabondance de « slop » généré par l’IA qui inonde chaque fil de discussion. L’émergence de grands modèles de langage permet une production de leurres de phishing crédibles, d’instructions d’exploitation automatisées et de conversations synthétiques imitant l’expertise humaine. Des plateformes comme « Exploit.in », aujourd’hui en partie fermée, signalent une hausse de 40 % des publications de faible effort, obligeant les modérateurs à mobiliser des ressources disproportionnées et affaiblissant la qualité des conseils d’experts. Au-delà du simple désagrément technique, ce flot bouleverse l’économie du crime. Les acteurs de faible compétence peuvent désormais acquérir des charges utiles générées par IA sur les marchés noirs, démocratisant les vecteurs d’attaque et intensifiant la concurrence. Parallèlement, la crédibilité des praticiens chevronnés pâtit, les débats authentiques se confondant avec du remplissage algorithmique, ce qui pousse une partie de la communauté à se réfugier dans des espaces plus exclusifs et sur invitation. Ce rejet rappelle les crises du spam au début des années 2000 et des guerres des botnets des années 2010, où de nouveaux vecteurs de communication ont systématiquement remis en cause les modèles de confiance établis. La crise du « slop » actuel reflète la diffusion accélérée des modèles génératifs à travers tout l’écosystème internet, dépassant la capacité tant des modérateurs de plateforme que des communautés à s’autoréguler. À l’avenir, la pérennité de ces espaces underground dépendra de l’apparition d’outils de modération conscients de l’IA, de systèmes de réputation sanctionnant le contenu synthétique et d’un éventuel glissement culturel vers une provenance vérifiable. Si la communauté ne parvient pas à s’adapter, les plateformes qui sous-tendent le cyber‑crime moderne risquent de se fragmenter, poussant l’activité vers des recoins encore plus opaques du darknet.