OpenAI a officialisé sa pratique de surveillance des conversations des utilisateurs de ChatGPT, détaillant l’infrastructure déployée pour analyser ces échanges. L’entreprise affirme que cette démarche vise à prévenir les usages illégaux et dangereux, notamment la génération de contenu violent ou la diffusion d’informations erronées.
Dans un billet de blog, la société explique que les données collectées peuvent être examinées par des employés et potentiellement transmises aux autorités compétentes en cas de violation des conditions d’utilisation. Ce dispositif, présenté comme une mesure de sécurité, soulève des questions sur la protection de la vie privée des utilisateurs.
La communication d’OpenAI intervient alors que l’entreprise renforce ses contrôles sur l’utilisation de son modèle d’IA générative. La portée exacte de cette surveillance et les garanties juridiques entourant la transmission de données restent des points de vigilance pour les utilisateurs.
Source : Les Numériques