La dernière version du modèle d’intelligence artificielle Opus, la 4.7, consomme significativement plus de tokens que son prédécesseur, Opus 4.6, malgré des performances accrues. Cette observation, relayée par Next.ink, met en lumière un enjeu économique pour les utilisateurs.
Cette consommation accrue s’explique principalement par une tokenisation plus dense des requêtes et une phase de « réflexion » interne plus intense du modèle avant de générer une réponse. Ces processus, bien que contribuant à l’amélioration des résultats et à une meilleure qualité des réponses générées par Opus 4.7, entraînent une utilisation plus rapide des quotas de tokens alloués.
En conséquence, même si le coût par token via l’API reste identique pour les versions 4.6 et 4.7, l’usage de la version la plus récente se traduit par une dépense effective plus élevée pour un même volume de requêtes. Les utilisateurs doivent donc ajuster leurs prévisions budgétaires en fonction de cette nouvelle réalité.
Cette évolution soulève des questions quant à l’optimisation des ressources et la stratégie tarifaire des modèles d’IA à l’avenir, alors que la complexité et les capacités des modèles continuent de croître.
Source : Next.ink