Le processus d’évaluation des articles soumis aux grandes conférences en apprentissage automatique est souvent perçu comme une « loterie », une observation nuancée par la communauté.
Cette perception d’aléatoire ne s’applique pas uniformément. Les contributions scientifiques jugées manifestement solides, bien exécutées et faciles à comprendre, sont généralement acceptées. À l’inverse, les articles clairement faibles sont le plus souvent écartés par les comités de lecture.
La complexité et l’impression d’incertitude résident principalement dans le vaste ensemble des propositions qui sont bonnes, mais pas indéniables. C’est dans cette catégorie intermédiaire que l’échelle des soumissions et la subjectivité des évaluations peuvent introduire une variabilité perçue comme aléatoire.
Cette dynamique met en lumière les défis inhérents à l’évaluation par les pairs dans un domaine en expansion rapide.
Source : Reddit r/MachineLearning