L’utilisation non consensuelle d’images personnelles pour créer des deepfakes pornographiques représente une menace croissante, comme en témoigne le cas de Jennifer.
En 2023, cette chercheuse a découvert que son portrait professionnel avait été exploité pour générer des contenus pornographiques truqués. Elle a utilisé un programme de reconnaissance faciale pour identifier cette utilisation abusive, soulignant la vulnérabilité des individus face à la réappropriation malveillante de leurs images.
Cette situation met en lumière les risques inhérents à la diffusion d’images en ligne et la facilité avec laquelle l’intelligence artificielle peut être détournée. Les outils de création de deepfakes, de plus en plus accessibles, permettent la fabrication de contenus trompeurs, portant atteinte à l’intégrité numérique et à la réputation des personnes ciblées.
La protection des données personnelles et la régulation des technologies de deepfake demeurent des enjeux cruciaux face à ces dérives, nécessitant une vigilance accrue de la part des utilisateurs et des législateurs.
Source : MIT Tech Review AI