Le mépris de la vie privée va de pair avec l'armement technologique.

L'extraction de données et la misogynie doivent être stoppées dès aujourd'hui.

Camera Wall, Toronto, Canada

Lorsque la technologie est conçue pour exposer et discréditer les utilisateurs, les conséquences peuvent être brutales. C'est pourquoi la protection de la vie privée est primordiale et les grandes entreprises technologiques doivent assumer leurs responsabilités.


L’importance de la vie privée

Cette histoire nous rappelle pourquoi la protection de la vie privée est importante: Même si vous n’avez rien à cacher. Nous ne sommes pas des données ou des indicateurs commerciaux, nous sommes des personnes, et lorsque les entreprises ne le comprennent pas, cela a des conséquences concrètes.

La responsabilité des grandes entreprises technologiques

En mars, une application permettant de créer des vidéos “DeepFake FaceSwap” a diffusé plus de 230 publicités sur les services de Meta, notamment Facebook, Instagram et Messenger, selon un examen de la bibliothèque de publicités de Meta. Certaines de ces publicités montraient ce qui semblait être le début de vidéos pornographiques, avec le son d’intro de la plateforme pornographique Pornhub. Quelques secondes plus tard, les visages des femmes étaient remplacés par ceux d’acteurs célèbres. Les légendes de dizaines de ces publicités indiquaient “Remplacez le visage par n’importe qui” et “Amusez-vous avec la technologie d’échange de visages de l’IA”.

Après que NBC News a demandé à Meta de commenter, toutes les publicités de l’application ont été retirées des services de Meta. Bien qu’aucun acte sexuel n’ait été montré dans les vidéos, leur nature suggestive illustre la manière dont l’application peut potentiellement être utilisée pour générer des contenus sexuels truqués , non seulement avec des femmes célèbres, mais aussi avec une simple photo du visage d’une personne téléchargée par l’utilisateur de l’application. Les mêmes publicités ont également été repérées sur des applications gratuites de retouche photo et de jeux téléchargées sur l’App Store d’Apple, où l’application est apparue pour la première fois en 2022, gratuitement pour les 9 ans et plus, et elle était également disponible en téléchargement gratuit sur Google Play, où elle était classée “Teen” pour “thèmes suggestifs”. Apple et Google ont tous deux déclaré avoir retiré l’application de leurs magasins après avoir été contactés par NBC News.

Est-ce le travail des journalistes de rechercher les applications abusives dans les magasins d’applications ?

La même histoire s’est produite avec une autre application en décembre 2021, après une enquête de Reuters.

Des dizaines d’applications “deepfake” sont toujours disponibles sur les boutiques d’applications de Google et d’Apple, la plupart d’entre elles étant utilisées pour générer du porno non consensuel et “nudifier” des personnes. Google et Apple prétendent interdire les applications qui génèrent du contenu diffamatoire, discriminatoire ou susceptible d’intimider, d’humilier ou de blesser quelqu’un, mais c’est exactement ce qui s’est passé sous leur nez. Google a ajouté “l’imagerie pornographique synthétique involontaire” à sa liste d’interdictions, permettant à quiconque de demander au moteur de recherche de bloquer les résultats qui les représentent faussement “nus ou dans une situation sexuellement explicite” - mais les victimes doivent-elles être responsables de la résolution de ce problème ou Google doit-il mieux prévenir ce type d’abus ?

Avec l’amélioration et la généralisation de la technologie “deepfake”, le marché de l’imagerie sexuelle non consensuelle a explosé. Certains sites web permettent aux utilisateurs de vendre des images pornographiques non consensuelles derrière un mur payant. Une étude réalisée en 2019 par DeepTrace a révélé que 96 % des contenus deepfake en ligne sont de nature pornographique, tandis qu’une autre étude réalisée par Genevieve Oh a révélé que le nombre de vidéos pornographiques deepfake a presque doublé chaque année depuis 2018.

Puisque la technologie permettant de détecter les deepfake existe, bien que derrière des murs payants, pourquoi toutes les plateformes qui permettent aux utilisateurs de télécharger des photos et des vidéos ne les filtrent-elles pas automatiquement et n’étiquettent-elles pas automatiquement les deepfake comme tels ? Elles échouent déjà à identifier et à retirer les contenus abusifs, mais au moins cette partie devrait être assez facile si elles s’en souciaient vraiment.

Rien de nouveau

Récemment, un article de Katie Jgln s’est penché sur la longue histoire de la violence sexiste facilitée par les technologies. Certains des exemples les plus “anciens”, comme les caméras cachées dans les toilettes, sont encore utilisés : il y a quelques jours, le ministère américain de la justice a levé les scellés contre un homme qui aurait placé une caméra dans les toilettes d’un bateau de croisière de la Royal Caribbean et filmé 150 personnes, dont 40 mineures.

TechSafety propose un certain nombre de guides utiles et la Clinic to End Tech Abuse (CETA) de l’université Cornell dispose également de ressources pour aider les gens à protéger leur vie privée et à rester en sécurité en ligne. Les recherches approfondies qu’elle mène en partenariat avec l’université de New York montrent à quel point les abus en ligne et les abus facilités par les technologies sont systémiques, en particulier lorsqu’ils sont motivés par la misogynie et la transphobie.

En plus de leurs publications universitaires évaluées par des pairs, ils renvoient également à quelques articles de presse plus accessibles aux profanes, tels que :

Il existe une juxtaposition intéressante entre la vision de l’organisation, qui souhaite que les voix des survivants d’abus, de harcèlement et d’autres mauvais traitements soient au centre de la conception des technologies, et le fait que ses recherches sont en partie financées par Google et Meta. C’est une bonne chose que ces géants de la technologie consacrent une partie de leurs bénéfices à faire la lumière sur des problèmes qu’ils contribuent à créer, mais ce serait encore mieux s’ils prenaient réellement en compte les résultats des recherches qu’ils parrainent et amélioraient leurs produits en conséquence.

Voici d’autres exemples très répandus d’utilisation de la technologie à des fins militaires :

  • Les brimades et le harcèlement, y compris les menaces physiques. Les agresseurs brouillent les frontières entre la violence en ligne et la violence hors ligne, comme le montre un rapport mondial détaillé de l’Economist Intelligence Unit, qui mesure également l’impact de la violence en ligne contre les femmes sur l’économie et la société dans son ensemble. De nombreuses fusillades de masse sont des exemples de violence en ligne se traduisant par des actions dans le monde réel, le dernier exemple en date étant celui du tireur du centre commercial d’Allen, au Texas, dont le profil sur les médias sociaux était rempli de diatribes contre les Noirs, les Asiatiques, les Juifs et les femmes en général. Les liens entre la violence raciale et la violence sexiste sont documentés depuis longtemps.
  • Doxing - particulièrement utilisé contre les personnes transgenres, souvent accompagné d’efforts visant à faire licencier la personne ciblée de son emploi et à la faire expulser de son logement, et à la pousser à s’automutiler.
  • Apple AirTags et autres dispositifs similaires
  • lesappareils domestiques intelligents, notamment les thermostats, les serrures et les lumières.

Comme le dit Katie Jgln, souvent “la technologie moderne - et le monde en ligne qu’elle a créé - n’est qu’une extension du patriarcat. [Elle ferme les yeux sur les abus, le harcèlement, la violence, la misogynie, le sexisme, l’hypersexualisation non désirée et l’objectivation dont nous faisons l’expérience dans le monde réel, et les rend même souvent possibles. Et comme beaucoup d’autres outils du patriarcat - par exemple, la culture de la pureté ou les rôles “traditionnels” des hommes et des femmes - il sert trop souvent à nous remettre à notre place, à faire taire ou à discréditer nos voix et, surtout, à protéger un statu quo”.

La frontière entre les logiciels de harcèlement et les “applications normales” est floue

La Coalition Against Stalkerware souligne que “si le terme “stalkerware” est parfois utilisé de manière familière pour désigner toute application ou tout programme qui porte atteinte ou est perçu comme portant atteinte à la vie privée d’une personne, nous pensons qu’une définition claire et précise est importante compte tenu de l’utilisation des stalkerwares dans les situations de violence entre partenaires intimes”. Le fait qu’il y ait de sérieux motifs de confusion sur cette question n’est pas de bon augure pour des entreprises comme Google, Meta et de nombreuses autres sociétés qui proposent des applications de messagerie, de courrier électronique, de médias sociaux et d’autres services qui nécessitent des autorisations sensibles sur votre téléphone et collectent vos données. Ils reconnaissent également “que des applications légitimes et d’autres types de technologie peuvent jouer et jouent souvent un rôle dans de telles situations”. Sur la même page, l’un des critères recommandés pour détecter les stalkerwares est “les applications capables de collecter et d’exfiltrer les données sensibles des utilisateurs de l’appareil (par exemple, les données de localisation, les contacts, les journaux d’appels et de textes, les mots de passe, l’historique du navigateur, etc. Combien d’applications parmi les plus téléchargées au monde ne répondent pas à ces critères ?

Il n’est pas nécessaire qu’il en soit ainsi. Les applications parentales n’ont jamais besoin d’être cachées sur le téléphone ; si c’est le cas, il s’agit d’un logiciel de harcèlement, pas d’une application parentale. Les téléphones n’ont pas besoin d’avoir le GPS activé par défaut. Les applications n’ont pas besoin d’avoir des permissions de localisation (et bien d’autres) par défaut (ou jamais, dans de nombreux cas), les utilisateurs devraient plutôt choisir d’activer ces permissions lorsque c’est nécessaire, uniquement pour les applications qui en ont légitimement besoin. Tous les téléphones devraient automatiquement retirer les autorisations aux applications que vous n’utilisez pas. Les AirTags, Tiles et autres produits similaires devraient toujours être dotés de notifications sonores fortes lorsqu’ils sont activés/utilisés et les régulateurs devraient sévir contre les versions “modifiées” vendues sur ebay, etc.

Nous ne pouvons pas attendre des entreprises technologiques qu’elles sacrifient les profits qu’elles réalisent dans le système capitaliste de surveillance actuel au nom de la compassion et du respect de l’humanité de chacun. Nous devons constamment augmenter la pression sur elles pour qu’elles le fassent. En attendant, nous ne sommes pas en sécurité. Nous devons continuer à nous battre pour notre droit à la vie privée.