Un dépôt PyTorch minimaliste pour comprendre les LLM de zéro
Un nouveau dépôt GitHub propose des implémentations de grands modèles de langage (LLM) en PyTorch minimaliste pour en faciliter la compréhension interne.
Un nouveau dépôt GitHub propose des implémentations de grands modèles de langage (LLM) en PyTorch minimaliste pour en faciliter la compréhension interne.
Une étude révèle que 2,1% des routeurs d’API LLM sont malveillants, un cas ayant entraîné le vol d’éther.
Physical Intelligence présente π0.7, un modèle robotique capable de combiner des compétences comme les LLM, signe d’une généralisation compositionnelle.
La nouvelle variante Qwen3.6-35B-A3B « Uncensored Aggressive » est disponible, offrant un modèle linguistique sans aucune restriction de contenu ni perte de capacités.
Des recherches récentes suggèrent que les grands modèles de langage (LLM) comme GPT-4 et Claude 3.5 Sonnet peuvent hériter de vulnérabilités psychologiques humaines.
Un nouvel outil, « sqz », optimise l’usage des tokens par l’IA en remplaçant les lectures répétées de fichiers par de courtes références.
Un dictionnaire collaboratif, le « LLM Dictionary », centralise le vocabulaire technique des grands modèles de langage.
Un utilisateur de Reddit préfère Qwen3.5-122B-A10B à MiniMax-M2.7 pour l’exécution locale de LLM sur des systèmes avec 96 Go de VRAM.
La méthode actuelle d’évaluation des grands modèles de langage (LLM) est remise en question pour son coût en ressources et son efficacité par la communauté IA.
Face à la prolifération des termes liés à l’intelligence artificielle, TechCrunch AI a publié un guide simple pour démystifier le jargon courant.