Project Aurelia : Une IA locale qui perçoit l’environnement physique et le corps

Un développeur indépendant a mis en ligne le code de « Project Aurelia », un système d’IA multi-agents capable de percevoir l’environnement physique et l’état physiologique de son utilisateur en temps réel.

Ce projet vise à dépasser le paradigme classique des interactions textuelles avec l’IA. Il intègre une architecture de trois modèles (80B, 13B et 9B) fonctionnant entièrement localement, sans aucune dépendance aux API cloud. L’IA réagit aux données captées par divers capteurs.

Un radar mmWave mesure la fréquence cardiaque de l’utilisateur, un capteur Lidar assure la conscience spatiale et un accéléromètre détecte les vibrations. L’ensemble est alimenté par un ordinateur de bureau Framework équipé d’une carte graphique externe AMD v620 de 32 Go.

Cette approche explore les possibilités d’une IA véritablement « située », interagissant directement avec son environnement physique immédiat. L’initiative, développée sur le temps libre de son créateur, met en lumière l’intérêt croissant pour des systèmes d’IA personnels et autonomes.

Le code source est désormais disponible pour la communauté, invitant à l’exploration de ces nouvelles formes d’interaction homme-machine.

Source : Reddit r/artificial

Catégories : Brèves IA
← Article précédentMinisforum : des mini-PC à l'architecture de l'IA localeArticle suivant →Taylor Swift dépose sa voix comme marque, face à l'IA

Restez informé de l'actualité IA

Recevez chaque semaine notre sélection des meilleures analyses sur l'intelligence artificielle.

Pas de spam. Désinscription en un clic.

Laisser un commentaire

FR EN ES