Le modèle d’IA conversationnelle Claude, développé par Anthropic, pourrait désormais demander une vérification d’identité à ses utilisateurs dans certaines circonstances. Cette mesure vise à renforcer la sécurité et à prévenir les abus potentiels du service.
La procédure de vérification, détaillée dans une note de support, n’est pas systématique. Elle pourrait être déclenchée par des comportements jugés suspects ou pour des raisons de conformité réglementaire. Les détails précis des critères activant cette vérification ne sont pas explicitement mentionnés.
Cette évolution soulève des questions sur l’équilibre entre la protection des utilisateurs et la confidentialité des données. L’implémentation de telles mesures pourrait avoir un impact sur l’accessibilité et l’adoption des outils d’IA générative par le grand public.
Source : Hacker News (Algolia)