Deepfakes pornographiques : l’inquiétante réappropriation d’images personnelles

L’utilisation non consensuelle d’images personnelles pour créer des deepfakes pornographiques représente une menace croissante, comme en témoigne le cas de Jennifer.

En 2023, cette chercheuse a découvert que son portrait professionnel avait été exploité pour générer des contenus pornographiques truqués. Elle a utilisé un programme de reconnaissance faciale pour identifier cette utilisation abusive, soulignant la vulnérabilité des individus face à la réappropriation malveillante de leurs images.

Cette situation met en lumière les risques inhérents à la diffusion d’images en ligne et la facilité avec laquelle l’intelligence artificielle peut être détournée. Les outils de création de deepfakes, de plus en plus accessibles, permettent la fabrication de contenus trompeurs, portant atteinte à l’intégrité numérique et à la réputation des personnes ciblées.

La protection des données personnelles et la régulation des technologies de deepfake demeurent des enjeux cruciaux face à ces dérives, nécessitant une vigilance accrue de la part des utilisateurs et des législateurs.

Source : MIT Tech Review AI

Catégories : Brèves IA
← Article précédentLes data centers AI suscitent une opposition croissante aux États-UnisArticle suivant →L'IA crée des montres Audemars Piguet x Swatch imaginaires, la Chine les fabrique

Restez informé de l'actualité IA

Recevez chaque semaine notre sélection des meilleures analyses sur l'intelligence artificielle.

Pas de spam. Désinscription en un clic.

Laisser un commentaire

FR EN ES