Une nouvelle version du modèle de fondation pour données tabulaires, TabPFN-3, a été publiée. Ce modèle, conçu pour effectuer des prédictions en une seule passe sans nécessiter d’entraînement ou d’ajustement d’hyperparamètres, s’appuie sur les versions précédentes TabPFN-2.5 et TabPFNv2, qui ont cumulé plus de 3 millions de téléchargements et plus de 200 applications.
La principale nouveauté de TabPFN-3 réside dans son échelle accrue, capable de traiter jusqu’à 1 million de lignes sur une seule puce H100, soit dix fois plus que son prédécesseur. Cette amélioration s’accompagne d’une réduction de la mémoire cache KV, estimée à environ 8 Go par million de lignes traitées.
Ces avancées ouvrent la voie à l’application de modèles pré-entraînés sur des ensembles de données tabulaires de plus grande taille, potentiellement simplifiant le déploiement de solutions d’IA dans des contextes où les données sont volumineuses.
Source : Reddit r/MachineLearning