Une discussion animée sur Reddit met en lumière des préoccupations concernant la forte variance des scores attribués aux articles lors du processus d’évaluation pour la conférence ICML 2026.
Des contributeurs au subreddit r/MachineLearning ont signalé des écarts notables entre les différents « lots » d’articles évalués. Certains évaluateurs rapportent que très peu de soumissions dans leur lot ont obtenu une note supérieure à 3,5, tandis que d’autres observent une moyenne d’environ 3,75 pour la majorité des articles qu’ils ont examinés.
Ces disparités soulèvent des interrogations au sein de la communauté scientifique quant à leur origine. Les hypothèses avancées incluent l’influence potentielle de différences de domaines de recherche entre les lots, ou la possibilité que certains groupes d’évaluateurs se montrent intrinsèquement plus sévères que d’autres. La question de savoir si l’ICML dispose de mécanismes pour identifier et compenser de telles variations afin d’assurer une équité dans le processus de sélection est également posée.
Cette discussion souligne les défis complexes inhérents à l’évaluation par les pairs à grande échelle, un pilier essentiel de la publication scientifique dans les conférences majeures d’intelligence artificielle.
Source : Reddit r/MachineLearning