Retour à l'accueil
INTERNATIONAL1 mai 2026
Le Financement Occulte derrière la Campagne de Peur de l’IA
Build American AI, soutenue par un super PAC lié à OpenAI et Andreessen Horowitz, finance des influenceurs TikTok pour diffuser un message pro‑IA et alimenter la peur d’une menace chinoise. Cette opération voilée interroge la transparence, l’influence algorithmique et la rhétorique géopolitique autour de l’IA.
La
La Rédaction
The Vertex
Lecture 5 min

Source: www.wired.com
Build American AI, une association liée à un super PAC financé par des cadres d’OpenAI et d’Andreessen Horowitz, a lancé une opération voilée consistant à rémunérer des influenceurs TikTok pour diffuser un message pro‑IA tout en alimentant la peur selon laquelle l’intelligence artificielle chinoise constituerait une menace stratégique pour les États‑Unis. Le financement, dissimulé derrière des flux monétaires opaques, exploite l’ampleur algorithmique de la plateforme pour incruster des discours anti‑Chine dans le quotidien des créateurs.
Cette stratégie illustre une mutation du lobbying technologique : au lieu de miser sur la publicité traditionnelle, le groupe privilégie le paiement d’acteurs de l’influence pour contourner les exigences de déclaration de la FEC et créer l’illusion de une adhésion populaire. Le manque de transparence soulève des interrogations éthiques sur la véracité du débat en ligne et sur la possible fabrication du consentement dans un domaine où les enjeux géopolitiques sont élevés.
En contexte, cette initiative s’inscrit dans une longue stratégie américaine visant à présenter la Chine comme le principal rival dans la course à l’IA, une rhétorique qui a justifié des contrôles d’exportation, des interdictions d’investissement et une hausse des dépenses militaires. Des tactiques similaires de « dark money » ont déjà été observées lors de campagnes électorales et de débats politiques, révélant un manuel d’utilisation des plateformes numériques pour servir des objectifs de sécurité nationale.
À l’avenir, la campagne pourrait intensifier les critiques des régulateurs et des ONG exigeant plus de transparence sur les dépenses politiques. Si elle parvient à ses objectifs, elle pourrait consolider un soutien bipartisan en faveur de politiques restrictives sur l’IA, mais elle risque également de susciter une réaction négative si le public perçoit une manipulation, ce qui pourrait éroder la confiance tant dans la technologie que dans les institutions qui la promeuvent.