Le réseau social X (ex-Twitter) a bloqué les recherches sur Taylor Swift des jours après que le site eut été inondé d’images pornographiques générées par l’intelligence artificielle (IA) et non consensuelles de la chanteuse américaine.
Les tentatives de rechercher son nom sur la plateforme lundi mènent à un message d'erreur qui invite les internautes à essayer une autre recherche.
Les requêtes empruntant les variantes de son nom, telles que taylorswift
et Taylor Swift AI
, génèrent le même message d'erreur. Cependant, l'ajout de guillemets autour du nom de la chanteuse permet d'afficher des publications mentionnant son nom.
Il s'agit d'une mesure temporaire et réalisée avec beaucoup de prudence alors que nous accordons la priorité à la sécurité sur cette question
, a précisé Joe Benarroch, responsable des opérations commerciales de X, dans un communiqué.
De fausses images sexuellement explicites et non consensuelles de la chanteuse américaine ont commencé à circuler largement à partir du 24 janvier sur X, faisant d'elle la victime la plus célèbre d'un fléau que les plateformes technologiques et que les groupes antiabus ont du mal à résoudre.
Après que les images ont commencé à se répandre en ligne, des fans de la chanteuse y ont été de mobilisations, lançant une contre-offensive sur X et un mot-clic, #ProtectTaylorSwift, pour inonder le fil d'images plus positives de la vedette pop. Plusieurs ont déclaré signaler des comptes partageant ces images explicites générées par l’IA.
Vendredi, le compte @safety du réseau social affirmait que de publier des images de nudité non consensuelle est strictement interdite sur X
et que la plateforme applique une politique de tolérance zéro à l’égard de ce type de contenu
.
Nos équipes sont activement en train de supprimer toutes les images identifiées et à prendre les mesures qui s'imposent à l'encontre des comptes responsables de leur publication. Nous suivons de près la situation afin de nous assurer que toute nouvelle violation est immédiatement traitée et que le contenu est supprimé.
Le groupe américain de détection d'hypertrucages Reality Defender affirme avoir suivi un déluge de matériel pornographique non consensuel représentant Taylor Swift, en particulier sur X. Certaines images ont également été diffusées sur Facebook, propriété de Meta, et sur d'autres plateformes de réseaux sociaux.
L’équipe de recherche a trouvé au moins une vingtaine d'images uniques générées par l'IA. Elle affirme que le nombre de fausses images explicites a augmenté au cours des dernières années, à mesure que la technologie utilisée pour les produire est devenue plus accessible et plus facile à utiliser.
En 2019, un rapport publié par la société d’IA DeepTrace Labs montrait que ces images étaient majoritairement utilisées comme une arme contre les femmes. La plupart des victimes, selon le rapport, étaient des acteurs et des actrices d’Hollywood, et des personnes sud-coréennes.