Pour les tâches nécessitant de longs contextes, les modèles d’intelligence artificielle Gemma 4 31B et Qwen 3.5 27B s’imposent comme les solutions locales les plus performantes sur une carte graphique de 24 Go. C’est le constat d’un utilisateur sur Reddit, après avoir testé diverses options.
Ces deux modèles sont jugés comme les premiers à atteindre un niveau « state-of-the-art » pour leur taille, surpassant les précédentes générations souvent limitées à des usages basiques comme la réécriture ou la génération de textes courts.
L’utilisateur a utilisé une configuration matérielle incluant un processeur i7 12700K, une carte graphique RTX 3090 Ti et 96 Go de RAM pour ses expérimentations.
La comparaison directe entre Gemma 4 31B et Qwen 3.5 27B pour des flux de travail sur de longs contextes soulève la question de leur supériorité respective dans ce domaine spécifique.
Source : Reddit r/LocalLLaMA