Fantasme des hommes, cauchemar des femmes
Le porno deepfake est un techno-terrorisme (par Genevieve Gluck)
Voici la traduction d’un essai de Genevieve Gluck publié en anglais le 19 février 2024.
Vos filles seront ou sont peut-être déjà confrontées à cette nouvelle forme de terrorisme patriarcal qui sévit aujourd’hui dans de nombreux pays prétendument « développés ».
Nos commentaires sont entre crochets.
Ces dernières années, les nouvelles technologies de l’information et de la communication ont été synonymes d’une dégradation rapide de la vie privée. Les frontières entre le soi public et le soi privé se sont estompées jusqu’à la quasi-transparence, étant donné que nous sommes constamment encouragé·es à poster en ligne des informations sur notre quotidien. Les conséquences pour les droits des femmes et des filles, dont les corps étaient déjà traités comme des propriétés publiques avant cette érosion étendue de la vie privée, se manifestent à travers une myriade de nouveaux procédés visant à transformer la chair des femmes, et même l’identité des femmes elles-mêmes, en propriété intellectuelle.
[S’il est vrai que la technologie désintègre la vie privée en s’immisçant partout, toujours plus profondément, y compris par le biais de processus de surveillance ou d’espionnage, l’existence d’une séparation entre vie publique et vie privée au sein des organisations étatiques nuit aux filles et aux femmes depuis très longtemps, en favorisant les maltraitances commises en privé. Il ne s’agit pas de regretter une époque antérieure du développement technologique où la vie privée était davantage respectée. NdT]
Par le biais de la pornographie, des caméras-espionnes, des deepfakes, du revenge porn, des assistants IA « féminins », des poupées sexuelles, de l’idéologie de l’identité de genre et de la traite des femmes et des filles favorisée par les réseaux sociaux, les corps et les images des femmes sont maintenant protégées par des droits d’auteur et vendues par des hommes pour faire du profit. La femme réelle a été dissociée, séparée de son humanité et réduite à des images hypersexualisées, voire à une expérience à laquelle les hommes peuvent s’essayer eux-mêmes. Les progrès technologiques facilitent les abus sexuels et les violences masculines contre les femmes, le manque de surveillance procure une forme d’impunité, et la vitesse à laquelle se développent ces technologies force les défenseuses des droits des femmes à une vigilance constante.
Crédit photo : MIT Technology Review
Assez récemment et dans divers pays, grâce aux réseaux sociaux, des militantes ont réalisé d’importants progrès en vue d’attirer l’attention sur les atteintes aux droits humains des femmes que génèrent certains aspects du développement technologique. Toutefois, à moins de s’attaquer au cœur du problème — le fait que les hommes traitent les femmes comme des marchandises — les femmes et les filles resteront vulnérables et seront forcées de chercher à se défendre contre chaque nouvelle violation, facilitée par les technologies médiatiques émergentes qui promeuvent notre déshumanisation et incitent [les hommes] à commettre des violences sexuelles et physiques contre les femmes.
[Au lieu de faire avancer l’humanité, nous sommes perpétuellement occupées à devoir lutter pour accéder au statut de personne humaine. Pour faire avancer l’humanité, il faut retirer de force aux hommes leurs privilèges sur le vivant et sur toute chose. Ils ne les céderont jamais de bonne volonté. NdT]
La principale forme de techno-terrorisme qui se répand à grande vitesse en menaçant la sécurité et la dignité des femmes est aujourd’hui la prolifération de la pornographie deepfake (« pornographie truquée profondément crédible »). À l’heure actuelle, quantité de photos sont volées sur des profils de réseaux sociaux à cette fin. Cependant, les algorithmes développés, en partie par le géant coréen de la technologie Samsung, permettent de produire du contenu pornographique à partir d’une seule photo. Des données récentes montrent que près de 7 milliards de personnes, soit plus de 85 % de la population mondiale, possèdent un smartphone. Il est terrifiant, mais pas très compliqué, d’imaginer un avenir dans lequel n’importe quelle femme ou enfant qui se promène dans la rue peut être furtivement prise en photo et transformée en pornographie contre son gré — et même à son insu.
La pornographie deepfake : un techno-terrorisme mondial
« Toute violation du corps d’une femme peut devenir du sexe pour les hommes : c’est la vérité essentielle de la pornographie. »
— Andrea Dworkin, Intercourse (1987)
« La technologie deepfake est utilisée comme une arme contre les femmes via l’incrustation de leur visage dans du porno. C’est terrifiant, embarrassant, humiliant et silençant. Les vidéos pornographiques deepfake indiquent aux individues que leur corps ne leur appartient pas. La menace ou le fait d’être transformée en deepfake peut les contraindre à limiter leur présence en ligne, les empêcher d’accéder à ou de conserver un emploi, et de se sentir en sécurité. »
— Danielle Citron, professeure de droit à l’université de Boston autrice de Hate Crimes in Cyberspace (2014)
Un nouveau type de terrorisme sexuel est apparu en parallèle de la très lucrative industrie de la pornographie. Dans le porno deepfake, les victimes sont insérées dans un contexte pornographique sans leur consentement et à leur insu. « Deepfake » est un mot-valise constitué de « deep learning » (apprentissage profond) et « fake » (faux). Grâce à l’intelligence artificielle, il est possible de superposer l’image d’une personne à un contenu vidéo existant, avec une précision élevée.
Le terme et la méthode de manipulation sont apparus en 2017 via un utilisateur de Reddit nommé « Deepfakes », qui publiait de la pornographie modifiée figurant des visages de célébrités sur le corps d’actrices pornographiques. Le sujet des deepfakes est arrivé à la connaissance du grand public en Occident avec un article de Vice publié à la fin de la même année, remarquant que des célébrités américaines et britanniques telles que Scarlett Johansson, Gal Gadot, Maisie Williams, Aubrey Plaza et Taylor Swift s’étaient fait voler leur image et s’étaient retrouvées dans des films pornographiques hardcore.
Les deepfakes prolifèrent à une vitesse accélérée, stimulée par une objectification effrénée des femmes et par l’érotisation du viol de leurs limites. Lorsque les médias abordent le sujet des vidéos deepfakes, ils se concentrent surtout sur la menace de la désinformation, en particulier en ce qui concerne les élections politiques. Pourtant, la pornographie représente 98 % de toutes les vidéos deepfakes trouvées en ligne, et 99 % des victimes ciblées par la pornographie deepfake sont des femmes. Un rapport publié en 2023 par le groupe de recherche Sensity fait état d’une augmentation de 550 % du nombre de vidéos deepfakes uploadées en ligne par rapport à 2019.
La majorité des vidéos de pornographie deepfake analysées par le groupe de recherche représentaient des femmes sud-coréennes, un fait attribué à la popularité de la K‑pop. Trois des quatre membresses du groupe Blackpink, considéré comme l’un des groupes de K‑pop les plus populaires, figurent dans le top 10 des personnes les plus ciblées. Après la Corée du Sud, les principales victimes de pornographie deepfake sont issues des États-Unis, du Japon et du Royaume-Uni.
Pourtant, la popularité de la K‑pop n’est pas à l’origine de ce contenu. Le porno deepfake est exclusivement le fait d’hommes. La raison pour laquelle les femmes sud-coréennes en sont les cibles principales est probablement due à l’expansion rapide des industries technologiques en Asie, associée à une atmosphère sociale de misogynie décomplexée.
Plusieurs théories expliquent la raison pour laquelle la Corée du Sud, en particulier, est devenue l’épicentre mondial de la pornographie par caméra-espionne et des violences sexuelles numériques. Au cours des dernières décennies, le pays est devenu une puissance économique, entraînant sur le marché du travail et en nombre sans précédent toute une génération de jeunes femmes éduquées. Les attaques misogynes virulentes pourraient en constituer le contrecoup. [Toutes les avancées des femmes doivent affronter un retour de bâton masculiniste, NdT]. Selon Lee Mi-jeong, chargée de recherche à l’Institut coréen pour le développement des femmes, « les jeunes sont très frustrés, en particulier les hommes, lorsqu’ils comparent leur vie à celle de la génération de leurs parents. Cette frustration est projetée sur les femmes. »
[Eh oui, ils ne sont plus automatiquement entitrés à posséder une servante domestique et sexuelle. Ils sont obligés d’essayer d’être aimables s’ils veulent des femmes dans leur vie et une descendance. C’est compliqué. NdT]
En outre, la Corée du Sud peut se targuer d’avoir la connexion Internet la plus rapide de la planète, accessible gratuitement dans ses plus grandes villes, et d’abriter le géant de la technologie Samsung, qui a joué un rôle de premier plan dans le développement de l’imagerie deepfake. Ces facteurs ont largement contribué au développement d’une culture voyeuriste de la pornographie en ligne, à un rythme supérieur à celui des autres pays riches. Cependant, l’épidémie de deepfakes est en train de se propager à l’échelle mondiale. À l’heure où nous rédigeons ces lignes, il existe déjà plusieurs sites web dédiés au porno deepfake, ainsi normalisé comme un nouveau genre, et surtout, comme une nouvelle forme de terrorisme [masculin] contre les femmes.
Selon le groupe de recherche Sensity, jusqu’à 1 000 vidéos deepfakes par mois ont été mises en ligne sur des sites pornographiques au cours de l’année 2020. Ces vidéos, hébergées sur trois des plus grands sites pornographiques (XVideos, XNXX et xHamster) enregistrent des millions de vues qui génèrent à leur tour des revenus publicitaires. Selon Wired.com, une vidéo de 30 secondes d’Emma Watson apparaît sur les trois sites et a été visionnée au moins 23 millions de fois. Billie Eilish, Natalie Portman et Anushka Shetty sont d’autres célébrités victimes de ce type de « viol numérique ».
Si la copie virtuelle d’une femme peut être utilisée de manière convaincante dans le porno hardcore, n’importe quelle femme qui envoie une simple photo d’elle en ligne est une victime potentielle d’agression sexuelle numérique.
Avec le numérique, il est de plus en plus facile de remplacer un visage par un autre. En 2019, un laboratoire russe de Samsung a annoncé avoir créé un système d’IA capable de générer une vidéo complètement fausse à partir d’une seule image, et l’a démontré en utilisant des photos de célébrités et des peintures célèbres, dont la Joconde, que l’on peut voir parler, sourire et même bouger la tête. Le titre « Living Portraits » (« Portrait vivant ») apparaît en haut de la vidéo, comme si le spectateur était supposé croire que cette technologie trouve sa motivation dans un intérêt pour l’histoire et l’art, et pas dans la perspective d’exploiter sexuellement les femmes.
[Le texte original dit « d’exploiter sexuellement les femmes contre leur gré ». Toutefois, en tant que féministes radicales, nous savons que l’exploitation sexuelle ne peut être consentie, et qu’elle est donc toujours contre notre gré. Même par la grande majorité de cette qui le revendiquent. Consentir à sa propre exploitation dans une société qui nous y conditionne n’est pas un choix. D’ailleurs, les hommes qui sont contre le voile mais ne s’oppose pas forcément à la prostitution et ne comprennent pas pourquoi les femmes battues ne quittent pas tout de suite leur conjoint, vous êtes en état de dissonance cognitive. NdT]
(…)
L’intégralité de la traduction est publiée sur Le Partage : la suite ici