Une conférence de machine learning a piégé ses propres reviewers avec des watermarks invisibles. 497 papers ont été rejetés.
L'ICML a encodé des instructions invisibles dans ses soumissions pour détecter les reviewers utilisant des LLMs en violation des règles. La méthode est techniquement élégante — et soulève des questions qui dépassent largement le monde académique.
Le peer review est le mécanisme central de validation de la recherche scientifique. C’est aussi l’un des systèmes les plus sous-tendus du monde académique : des experts bénévoles, surchargés, évaluent des centaines de soumissions dans des délais serrés, sans rémunération, souvent pour des conférences qui reçoivent des dizaines de milliers de papiers par an. L’arrivée des LLMs dans ce contexte n’est pas surprenante. Ce qui est nouveau, c’est qu’on commence à le mesurer.
En mars 2026, l’ICML (l’International Conference on Machine Learning, l’une des conférences de référence du domaine) a annoncé avoir rejeté 497 soumissions, soit environ 2% du total, pour violation de sa politique d’usage des LLMs en peer review.
La méthode de détection
Techniquement élégante. Les organisateurs ont créé un dictionnaire de 170 000 phrases. Pour chaque paper soumis, deux phrases ont été tirées aléatoirement et encodées sous forme d’instructions invisibles dans le PDF, lisibles par un LLM, imperceptibles pour un humain. La probabilité qu’une paire donnée soit choisie par coïncidence est inférieure à une sur dix milliards.
Si un reviewer passait le paper dans un LLM pour générer sa review, le modèle incluait les deux phrases dans son texte. Les reviews suspectes ont ensuite été vérifiées manuellement avant toute sanction.
Ce qui a été sanctionné
L’ICML avait mis en place deux régimes distincts pour cette édition : une “Policy A” interdisant tout usage de LLM, et une “Policy B” permettant leur utilisation pour comprendre le paper et polir la review. Les 497 rejections concernent uniquement des auteurs ayant explicitement choisi la Policy A, puis violé les règles qu’ils avaient acceptées. Sur les 506 reviewers flaggés, 51 avaient utilisé des LLMs dans plus de la moitié de leurs reviews.
Ce que ça révèle
L’incident va au-delà de la triche individuelle. Plus de la moitié des chercheurs interrogés dans une enquête Frontiers de 2025 déclarent utiliser l’IA dans leurs activités de peer review, souvent en violation des politiques officielles. Ce n’est pas un comportement marginal : c’est une adaptation à des conditions de travail intenables. Les organisateurs de conférences n’ont pas encore trouvé de réponse systémique à cette réalité, et la tension entre application stricte des règles et pragmatisme reste entière.
La méthode de détection elle-même pose des questions. Elle ne fonctionne que dans sa version non divulguée : maintenant que le procédé est public, il suffit de supprimer ou paraphraser l’output du LLM pour contourner le watermark. C’est un outil de forensique, pas de prévention. Et rejeter les papers de co-auteurs pour une violation commise par un seul auteur dans son rôle de reviewer est une sanction collective qui a fait débat dans la communauté.
Ce qui reste : la démonstration que des techniques d’injection de prompts peuvent être déployées à grande échelle pour inférer des comportements dans des systèmes qui ne le déclarent pas. C’est une capacité qui ne restera pas cantonnée au peer review académique.
Sources : Elizabeth Gibney, “Major conference catches illicit AI use and rejects hundreds of papers”, Nature, 25 mars 2026. ICML Blog, “On Violations of LLM Review Policies”, 18 mars 2026.
MediaPaon
Une question ? Un projet ?
Studio numérique à Bernay, Normandie. On accompagne les TPE et institutions locales sur leur présence en ligne.
Prendre contact →