OpenAI juge GPT-2 trop dangereux pour une publication complète en 2019

En février 2019, OpenAI, laboratoire de recherche en intelligence artificielle, a annoncé ne pas vouloir publier intégralement son modèle de langage GPT-2, le jugeant trop dangereux en raison de sa capacité avancée à générer du texte.

Ce modèle, capable de produire des textes cohérents et réalistes à partir d’une simple phrase d’amorce, soulevait des inquiétudes majeures. OpenAI craignait une utilisation malveillante pour la diffusion de fausses nouvelles, la création de spams automatisés ou l’usurpation d’identité en ligne à grande échelle.

Face à ces risques potentiels, l’organisation a opté pour une approche progressive. Elle a initialement mis à disposition une version plus limitée de GPT-2, prévoyant de publier le modèle complet par étapes. Cette décision a ouvert un débat significatif sur l’éthique du développement et du déploiement des intelligences artificielles.

L’épisode GPT-2 a ainsi mis en lumière les défis inhérents à la diffusion de technologies d’IA puissantes.

Source : Hacker News (Algolia)

Catégories : Brèves IA
← Article précédentAnthropic publie une "System Card" pour son modèle Claude MythosArticle suivant →Musk redirige les potentiels dommages d'OpenAI vers une fondation

Restez informé de l'actualité IA

Recevez chaque semaine notre sélection des meilleures analyses sur l'intelligence artificielle.

Pas de spam. Désinscription en un clic.

Laisser un commentaire

FR EN ES