OpenAI dévoile un nouveau modèle, baptisé « Privacy Filter », conçu pour identifier et masquer automatiquement les informations personnelles identifiables (PII) dans les textes.
Ce système, dont le code source est désormais ouvert, atteint une précision de pointe dans la détection de données sensibles telles que les noms, adresses ou numéros de téléphone. L’objectif est de permettre aux développeurs d’intégrer plus facilement des protections de la vie privée dans leurs applications basées sur l’IA.
Le modèle peut être utilisé pour nettoyer des ensembles de données avant leur entraînement ou pour filtrer les sorties des grands modèles de langage, contribuant ainsi à une utilisation plus sûre et respectueuse de la vie privée de ces technologies.
Alors que l’utilisation des données personnelles dans l’IA soulève des préoccupations croissantes, cette initiative d’OpenAI pourrait encourager une approche plus responsable dans le développement d’outils d’intelligence artificielle.
Source : OpenAI Blog