Retour à l'accueil
TECHNOLOGY29 avril 2026
Silence de la ménagerie numérique : la directive Codex d'OpenAI
OpenAI a imposé à son système Codex d’interdire toute mention de créatures mythiques (gobelins, gremlins, ratons laveurs, trolls, ogres, pigeons) sauf si la référence est indispensable à la clarté technique. Cette mesure soulève des questions sur la liberté d’expression de l’IA, la sécurité et l’équilibre entre ouverture et contrôle.
La
La Rédaction
The Vertex
Lecture 5 min

Source: www.wired.com
Dans un guide interne discret, le système Codex d’OpenAI interdit de citer toute créature fantastique – gobelins, gremlins, ratons laveurs, trolls, ogres, pigeons – sauf si la mention est strictement indispensable à la clarté technique.\n\nCette consigne, incrustée dans les instructions du agent de codage, traduit une tension entre liberté d’expression et contrôle de la sortie. En bannissant même les métaphores les plus anodines, OpenAI cherche à éviter que le modèle ne génère des récits fantaisistes susceptibles de brouiller la transmission de faits ou de nuire à la précision du code. La mesure s’inscrit dans une dynamique plus large de renforcement des filtres de contenu, visant à réduire les hallucinations, les biais et la diffusion d’histoires populaires mal interprétées.\n\nPlacée dans le contexte des débats récents sur la sécurité de l’IA, cette interdiction s’aligne avec l’effort d’OpenAI d’intégrer des garde-fous d’alignement à chaque niveau de son architecture, du prétraitement des données à l’inférence. Historiquement, la société oscille entre une posture d’ouverture massive – mise à disposition de modèles puissants – et une stratégie de contrôle accrue, motivée par des incidents où un langage imagé a provoqué des dérives inattendues. Ce verrouillage interne témoigne d’une volonté de renforcer les garde-fous avant le déploiement public.\n\nL’efficacité de ce bannissement dépendra de la capacité du modèle à distinguer une mention contextuelle d’une référence décorative. Si la règle s’avère trop restrictive, elle risque de freiner la transparence scientifique et d’exaspérer les développeurs qui s’appuient sur des exemples métaphoriques pour vulgariser des algorithmes complexes. À l’inverse, une approche plus nuancée, qui autorise les allusions pertinentes tout en contrôlant les digressions, pourrait renforcer la confiance du public et servir de modèle pour d’autres laboratoires d’IA, en conciliant sécurité et expressivité.