Une femme a découvert que la reconnaissance faciale pouvait lier son image professionnelle actuelle à des vidéos pornographiques qu’elle avait tournées il y a plus de dix ans.
En 2023, alors qu’elle débutait un poste de chercheuse pour une organisation à but non lucratif, Jennifer a testé son nouveau portrait professionnel avec un programme de reconnaissance faciale. Son objectif était de vérifier si la technologie retrouverait les vidéos pornographiques qu’elle avait réalisées au début de sa vingtaine, plus d’une décennie auparavant. Le programme a effectivement identifié ces contenus.
Cette expérience, rapportée par le MIT Technology Review, met en lumière la persistance du passé numérique et la capacité des technologies d’IA à relier des identités à travers le temps. Elle souligne les vulnérabilités accrues face à l’utilisation non consensuelle d’images, un enjeu majeur à l’ère des deepfakes.
L’incident de Jennifer illustre comment l’IA peut rendre difficile la séparation entre vie privée et vie professionnelle, même pour des contenus anciens et potentiellement oubliés. Il pose la question de la maîtrise de son image à l’ère numérique, où les frontières entre le passé et le présent s’estompent sous l’effet des algorithmes.
Source : MIT Tech Review AI