Un étudiant a conçu HyNAS-R, un outil hybride de recherche d’architecture neuronale (NAS) destiné à optimiser automatiquement la conception des réseaux de neurones récurrents (RNN) pour les tâches de traitement du langage naturel (TLN).
Ce système innovant vise à identifier les configurations RNN les plus performantes en combinant deux approches : un proxy à coût zéro et une optimisation métaheuristique. HyNAS-R intègre spécifiquement un optimiseur du loup gris amélioré (Improved Grey Wolf Optimizer) et une méthode basée sur la covariance cachée (Hidden Covariance), des techniques avancées pour affiner la recherche d’architectures.
Actuellement en phase d’évaluation finale pour son projet de fin d’études, le créateur a partagé son travail sur la plateforme Reddit, sollicitant activement les retours et suggestions de la communauté des chercheurs en apprentissage automatique. Une vidéo explicative accompagne la présentation, détaillant l’algorithme central et la pile technologique sous-jacente au système.
Cette initiative met en lumière les efforts continus de la recherche étudiante pour automatiser et améliorer l’efficacité de la conception des modèles d’intelligence artificielle dédiés au traitement du langage.
Source : Reddit r/MachineLearning
