Retour à l'accueil
INTERNATIONAL16 mars 2026
Les Doppelgängers Numériques : Quand l'IA Recrute des Visages Humains pour Arnaquer
Des femmes sont recrutées via Telegram pour devenir des 'modèles de visage IA' dans des arnaques sophistiquées générant jusqu'à 100 appels vidéo quotidiens. Cette tendance inquiétante représente une nouvelle évolution de la cybercriminalité, combinant authenticité humaine et scalabilité IA pour créer des opérations frauduleuses plus convaincantes.
La
La Rédaction
The Vertex
Lecture 5 min

Source: www.wired.com
Dans les recoins obscurs de Telegram, une tendance inquiétante émerge : des dizaines de chaînes publient des offres pour des 'modèles de visage IA' destinés à des arnaques sophistiquées. Ces annonces, ciblant principalement des femmes, promettent de l'argent facile en échange de prêter son visage à des opérations frauduleuses pouvant générer jusqu'à 100 appels vidéo par jour.
Le mécanisme est d'une simplicité effrayante mais efficace. Les escrocs utilisent la technologie IA pour créer des deepfakes de ces modèles, puis les déploient dans des arnaques sentimentales, des fraudes financières et autres combines. Le visage humain ajoute une couche d'authenticité irremplaçable que le contenu purement IA ne peut encore atteindre, rendant les victimes plus enclines à faire confiance et, finalement, à se séparer de leur argent.
Ce phénomène représente une évolution troublante de la cybercriminalité. Contrairement aux arnaques traditionnelles qui reposaient sur des photos volées ou des identités complètement fabriquées, ces opérations créent une symbiose perverse entre les modèles humains et la technologie IA. Les modèles fournissent l'élément humain essentiel – voix, manières, apparence – tandis que l'IA gère la scalabilité et l'automatisation.
Ce qui rend cela particulièrement insidieux, c'est l'exploitation de la vulnérabilité économique. Beaucoup de ces femmes, souvent issues de pays en développement, ne comprennent peut-être pas pleinement comment leur image sera utilisée ou l'ampleur du préjudice que leurs doppelgängers numériques causeront. Elles essaient simplement de gagner de l'argent dans une économie des petits boulots qui offre peu d'alternatives.
Les implications vont au-delà des victimes individuelles. À mesure que la technologie IA devient plus accessible, nous sommes susceptibles d'assister à une course aux armements entre escrocs et systèmes de vérification. Le visage humain, autrefois un indicateur fiable d'authenticité, est devenu un simple outil dans l'arsenal des fraudeurs. Cela soulève des questions profondes sur l'identité, le consentement et l'avenir de la confiance dans notre monde de plus en plus numérique.
À l'avenir, la prolifération de ces arnaques suggère que nous devrons peut-être repenser fondamentalement la façon dont nous établissons la confiance en ligne. Les méthodes de vérification traditionnelles deviennent obsolètes, et de nouveaux systèmes – peut-être basés sur la blockchain ou d'autres technologies émergentes – pourraient être nécessaires pour combattre cette nouvelle génération de tromperie alimentée par l'IA.