Un développeur indépendant a mis en ligne le code de « Project Aurelia », un système d’IA multi-agents capable de percevoir l’environnement physique et l’état physiologique de son utilisateur en temps réel.
Ce projet vise à dépasser le paradigme classique des interactions textuelles avec l’IA. Il intègre une architecture de trois modèles (80B, 13B et 9B) fonctionnant entièrement localement, sans aucune dépendance aux API cloud. L’IA réagit aux données captées par divers capteurs.
Un radar mmWave mesure la fréquence cardiaque de l’utilisateur, un capteur Lidar assure la conscience spatiale et un accéléromètre détecte les vibrations. L’ensemble est alimenté par un ordinateur de bureau Framework équipé d’une carte graphique externe AMD v620 de 32 Go.
Cette approche explore les possibilités d’une IA véritablement « située », interagissant directement avec son environnement physique immédiat. L’initiative, développée sur le temps libre de son créateur, met en lumière l’intérêt croissant pour des systèmes d’IA personnels et autonomes.
Le code source est désormais disponible pour la communauté, invitant à l’exploration de ces nouvelles formes d’interaction homme-machine.
Source : Reddit r/artificial