En février 2019, OpenAI, laboratoire de recherche en intelligence artificielle, a annoncé ne pas vouloir publier intégralement son modèle de langage GPT-2, le jugeant trop dangereux en raison de sa capacité avancée à générer du texte.
Ce modèle, capable de produire des textes cohérents et réalistes à partir d’une simple phrase d’amorce, soulevait des inquiétudes majeures. OpenAI craignait une utilisation malveillante pour la diffusion de fausses nouvelles, la création de spams automatisés ou l’usurpation d’identité en ligne à grande échelle.
Face à ces risques potentiels, l’organisation a opté pour une approche progressive. Elle a initialement mis à disposition une version plus limitée de GPT-2, prévoyant de publier le modèle complet par étapes. Cette décision a ouvert un débat significatif sur l’éthique du développement et du déploiement des intelligences artificielles.
L’épisode GPT-2 a ainsi mis en lumière les défis inhérents à la diffusion de technologies d’IA puissantes.
Source : Hacker News (Algolia)