Un chercheur a récemment signalé un écart de performance de près de 4 points de pourcentage lors de la reproduction d’une architecture de réseau neuronal hybride, initialement implémentée en TensorFlow, dans le cadre de PyTorch. L’objectif était de répliquer les résultats d’un article publié par Ahmed et al. (IJCV 2026) intitulé « A Lightweight Hybrid Gabor Deep Learning Approach ».
L’architecture en question combine une banque de filtres de Gabor fixe en entrée avec un réseau de neurones convolutifs (CNN). Sur le jeu de données DermaMNIST, l’implémentation originale rapportait une précision de test de 77,01 %. Cependant, la reproduction en PyTorch n’a atteint que 73-74 %, soulevant des interrogations sur les différences inter-frameworks. Le chercheur sollicite l’aide de la communauté pour identifier les causes potentielles de cet écart, telles que les variations dans l’initialisation des poids, le prétraitement des données ou les comportements par défaut des couches.
Ce cas met en lumière les défis de la reproductibilité en apprentissage automatique, notamment lorsque l’on passe d’un environnement de développement à un autre. L’incident souligne l’importance de la standardisation et de la documentation détaillée pour garantir la fidélité des reproductions de modèles d’IA, et invite à une vigilance accrue quant aux subtilités techniques qui peuvent influencer les performances entre TensorFlow et PyTorch.
Source : Reddit r/MachineLearning