L’exécution de grands modèles de langage (LLM) localement sur les Mac équipés de puces Apple Silicon devient plus accessible, selon un guide partagé sur Reddit. Ce guide propose une répartition des performances et des modèles possibles en fonction de la quantité de mémoire vive (RAM) disponible sur l’ordinateur.
Avec 32 à 64 Go de RAM, des modèles comme Qwen 3.6 ou Gemma 4 seraient utilisables, offrant des performances comparables à celles de Claude Sonnet. Ces configurations conviendraient à un usage quotidien, à l’aide au codage ou à des agents légers.
Pour des tâches plus exigeantes, comme le raisonnement complexe ou des contextes plus longs, 128 Go de RAM permettraient de faire tourner des modèles de taille moyenne à grande, tels que Minimax M2.7, avec des performances approchant celles de Claude Opus. Les configurations supérieures à 256 Go de RAM ouvrent la voie à des modèles comme GLM 5.1, se rapprochant des performances des modèles propriétaires de pointe.
Source : Reddit r/artificial