Le modèle de langage Gemma 4 de Google peut désormais fonctionner nativement sur iPhone, permettant une inférence d’IA entièrement hors ligne.
Cette avancée technique a été démontrée par l’équipe de recherche en apprentissage automatique d’Apple. Ils ont converti le modèle Gemma 4, dans sa version à 7 milliards de paramètres, au format Core ML. Cette adaptation permet d’exploiter pleinement le Neural Engine des iPhones, optimisant ainsi la vitesse de traitement des tâches d’IA directement sur l’appareil.
L’exécution locale de Gemma 4 signifie que les utilisateurs n’ont plus besoin d’une connexion internet pour bénéficier de ses capacités. Cela offre des avantages significatifs en termes de confidentialité, les données restant sur l’appareil, et réduit considérablement la latence. Cette capacité ouvre la voie à de nouvelles applications d’IA embarquées, plus réactives et sécurisées.
Cette démonstration s’inscrit dans une tendance plus large vers l’IA sur appareil, ou « edge AI », où les traitements complexes sont effectués localement. Elle souligne l’évolution des capacités matérielles des smartphones, capables de gérer des modèles d’IA de plus en plus sophistiqués. L’intégration native de modèles comme Gemma 4 pourrait redéfinir l’expérience utilisateur des assistants intelligents et des applications mobiles.
Source : Hacker News (Algolia)