Les modèles d’intelligence artificielle préfèrent deviner plutôt que de solliciter de l’aide lorsqu’il leur manque des informations visuelles, selon une récente étude.
Une étude menée via l’outil ProactiveBench révèle que les modèles de langage multimodaux peinent à identifier leurs lacunes. Conçu pour évaluer leur capacité à demander des précisions en cas d’informations visuelles manquantes, ce banc d’essai a mis en lumière un comportement inattendu.
Sur les 22 modèles testés, la quasi-totalité a opté pour une réponse approximative plutôt que d’interroger l’utilisateur sur les données manquantes. Ce constat souligne une limitation significative dans l’autonomie et la fiabilité de ces systèmes.
Cette tendance à l’extrapolation plutôt qu’à la clarification peut entraîner des erreurs et réduire la pertinence des interactions. Elle met en évidence un manque de « conscience » de leurs propres limites informationnelles. Cependant, les chercheurs ont observé qu’une approche simple basée sur l’apprentissage par renforcement pourrait corriger ce biais.
L’intégration de cette capacité à solliciter de l’aide pourrait transformer la manière dont nous interagissons avec les intelligences artificielles à l’avenir.
Source : The Decoder