fbpx
Aller au contenu

Violence Basée sur le Genre Facilitée par la Technologie

Par Émilie Robidoux, intervenante en relation d’aide au GAIHST

          Avec le développement fulgurant de l’intelligence artificielle (IA) dans les dernières années, on peut se questionner sur les répercussions d’une telle technologie dans nos milieux de travail et nos interactions entre collègues, employeur·euses-employé·es et employé·es-usager·ères. En effet, l’utilisation des applications d’IA dans les milieux de travail est de plus en plus normalisée : les compagnies les adoptent parfois afin de faciliter les tâches quotidiennes, par exemple. Malgré certains avantages, ces technologies peuvent parfois être détournées de façon malveillante et introduire de nouveaux préjudices en matière de harcèlement, en particulier pour les femmes et les minorités de genre. En janvier 2024, des deepfakes ou “hypertrucages” – ces photos générées par l’IA à l’aide de réels clichés ou vidéos ou élaborées synthétiquement1 – de la chanteuse Taylor Swift la présentant dans des postures sexuellement suggestives ont circulé sur les réseaux sociaux et ont été vu plus de 47 millions de fois2. Par ailleurs, selon l’agence de cybersécurité Deeptrace, 96% des hypertrucages sont de nature pornographique. Deeptrace ajoute que les utilisateur·rices peuvent en venir à faire du chantage aux personnes victimes afin d’obtenir des compensations financières ou d’autres photos sexuellement suggestives, par exemple (revenge porn ou pornodivulgation)3.  À l’été 2023, plusieurs applications de génération d’image synthétique “à but sexuel” ont vu le jour. 18,5 millions de personnes ont consulté leur sitewebs, et ce, par mois.  En quelques minutes et sans talent particulier, les utilisateur·rices peuvent générer ces images très convaincantes4.

          À cet effet, la docteure en sociologie de l’Université Western, Kaitlynn Mendes, conférencière au Symposium Collaborer pour prévenir et combattre le harcèlement et la violence au travail, s’est penché sur le sujet dans ces dernières études. Elle étudie davantage ce phénomène en lien avec les enfants. Durant sa présentation dans le cadre du Symposium, Mendes explique que les termes Violence Sexuelle Facilitée par la Technologie (VSFT) ou Violence Basée sur le Genre Facilitée par la Technologie (VBGFT) sont employés par les chercheur·euses et les activistes afin de nommer ce phénomène émergent5 6.  Les Nations Unies Femmes définit la VBGFT ainsi : « tout acte commis ou amplifié à l’aide d’outils ou de technologies numériques causant un préjudice physique, sexuel, psychologique, social, politique ou économique »7. De plus, le Fond des Nations Unies pour la population (UNFPA) nomme que ces violences sont en constante évolution. Celles-ci peuvent prendre notamment plusieurs formes : “sextorsion (chantage par la menace de publication d’informations, photos ou vidéos à caractère sexuel), abus basés sur l’image (partage non consensuel de photos intimes), doxxing (publication d’information personnelles privées), cyberharcèlement sexuel et de genre, harcèlement en ligne […]”8. Bien que l’exposé de Mendes concernât davantage les violences à l’égard des enfants, la chercheuse soulève que ces violences pourraient s’introduire dans l’espace de travail. Si une telle méthode est appliquée à l’encontre d’un·e  collègue de travail, par exemple, le harcèlement au travail prendrait une toute autre ampleur et portée. Mais quels sont les recours des victimes face à ces technologies?

          En ce qui concerne les enfants, telle que Mendes le souligna durant sa présentation, le Projet ARACHNID peut aider les victimes de ces violences. Il s’agit d’un robot de détection d’images officiellement illégales, par exemple d’abus pédosexuels, qui envoie un avis de retrait de ces images à l’hébergeur de la photo9. Ce faisant, les hébergeurs d’images se voient contraints de les supprimer de l’espace web, un grand soulagement pour les victimes. Autrement, dans le milieu de travail, si une telle image circule, il est essentiel de demander immédiatement le retrait de celle-ci et de dénoncer la situation aux ressources humaines, gestionnaire ou toute autre personne en position d’autorité. Si des actions ne sont pas entreprises par l’employeur.euse, une plainte en harcèlement sexuel peut être déposée à la CNESST. Une plainte peut aussi être formulée à la police. Enfin, le projet de loi 73 a été adopté à l’unanimité à l’Assemblée nationale le 29 novembre 2024. Présenté par le ministre Simon Jolin-Barette, ce projet vise à contrer le partage non consensuel d’images intimes et à renforcer la protection et le soutien en matière civile des personnes victimes de violence. L’une de ses mesures phares prévoit la mise en place d’un processus simplifié pour empêcher ou faire cesser rapidement la diffusion d’une image intime sans consentement. Toute personne ou compagnie — y compris les intermédiaires Internet — qui ne se conformerait pas à une ordonnance de retrait pourrait être passible d’amendes allant de 500 $ à 50 000 $ par jour10Cette avancée législative représente un pas important vers une meilleure reconnaissance des préjudices numériques et une réponse plus efficace à ce type de violence.

Tous les articles