Elles sont codeuses, ingénieures logiciels dans de grandes multinationales, graphistes ou artistes. Toutes portent un regard féministe sur l’évolution de notre société numérique de plus en plus fragmentée. De Lagos à La Nouvelle-Orléans en passant par Berlin, ces militantes dénoncent les biais de genre qui gangrènent les réseaux.
La technologie a-t-elle un sexe»? Le questionnement date de 2013, à l’issue d’un reportage dans les milieux hackers de Copenhague avec des reines du code informatique. Elles étaient quatre, dans la trentaine, évoluant au milieu d’un océan d’hommes. La rencontre avec ces expertes buveuses de Red Bull, grimées comme Lisbeth Salander – l’héroïne de la saga Millénium – fut déterminante. Pour la première fois, j’ai pris conscience que le réseau – de même que les outils numériques de mon quotidien – avait un genre. Le mien. Rien de bien surprenant. Internet et ses algorithmes sont conçus en majorité par des hommes blancs hétérosexuels et américains. Ils bâtissent ainsi des technologies à leur image. Malgré cette évidence, je n’avais pas pris pleinement conscience des travers existants.
Les codeuses copenhaguoises m’ont ouvert les yeux. C’est d’ailleurs la mission éducative qu’elles se sont donnée. A leur échelle, elles cassent la technologie, la triturent pour en révéler les travers de genre et de sexe. Elles la détournent surtout pour en faire des objets et des outils au service d’un féminisme dit «technologique». Une approche, vais-je le découvrir plus tard, qui essaime aux quatre coins du monde, de manière plus ou moins organisée. A l’instar de Micah Elizabeth Scott. L’Américaine a d’abord fait carrière dans l’industrie du logiciel avant d’embrasser le monde de l’art. Celle qui ne cache pas souffrir d’une dysphorie de genre explore sans cesse les frontières entre la technologie, l’humain et la société.
Le futur d’internet sera-t-il inclusif et diversifié ou prendra-t-il les traits d’une plateforme de harcèlement et d’exclusion? Julia Kloiber œuvre pour la première option alors que l’évolution du réseau tend vers la seconde. Dans le monde de la tech, la Berlinoise est une voix qui compte. Boursière de la Fondation Mozilla, Julia Kloiber a travaillé pour l’Open Knowledge Foundation – l’organisation internationale qui chapeaute au niveau mondial les initiatives open data – avant de cofonder en 2019 Superrr Lab avec Elisa Lindinger. Cette organisation vient en aide aux acteurs publics et privés pour qu’ils favorisent des innovations technologiques inclusives.
La première initiative de Superrr Lab fut le lancement du Feminist Tech Fellowship en 2019. Soit un programme de financement pour les technard.e.s, les artistes et les activistes qui travaillent à l’intersection du féminisme et des technologies. La raison? «Cette bourse donne du pouvoir aux personnes et aux projets revendiquant un internet différent, commente Julia Kloiber. C’està-dire un réseau ouvert, sécurisé et participatif dans lequel des personnes de sexes et de couleurs différents sont aidées à influencer et à créer des outils et des concepts qui permettent des interactions numériques.»
Selon Julia Kloiber, c’est une condition préalable indispensable: «Aujourd’hui, internet est une source d’exclusion, mais aussi un réseau de harcèlement pour de nombreuses femmes, ainsi que pour les minorités. Les entreprises recueillent le plus de données possible sur leurs utilisateurs, afin de mieux les cibler par des annonces et de prévoir leur comportement. En outre, les algorithmes avec lesquels nous interagissons chaque jour présentent des biais dans leur code même. Si nous ne plaidons pas en faveur d’un web ouvert et décentralisé, l’avenir d’internet risque d’être encore plus sombre avec davantage de surveillance, de contrôle et d’atteintes à la vie privée.»
C’est à New York en 2008 que Julia Kloiber s’est penchée pour la première fois sur les inégalités de genre et de race dans l’industrie du cinéma. De retour à Berlin, elle poursuit ses recherches sur le thème de l’accès à l’information. La chercheuse parle «d’un manque de données sur le genre. Le fait est que nous vivons dans un monde qui a été conçu pour les hommes parce que, pour la plupart, nous n’avons pas recueilli de données sur les femmes. Les exemples vont de disciplines comme la médecine – où nous disposons de plus de données sur les symptômes des crises cardiaques chez les hommes, par exemple –à l’urbanisme et autres. Les femmes sont évidemment les principales victimes de cette lacune. Dans un monde où nous externalisons de plus en plus notre prise de décision à des algorithmes formés sur des données présentant un grand trou, ce problème va très vite devenir beaucoup plus grave.»
Ce premier plongeon dans la critique du patriarcat numérique agit comme un électrochoc: «Au début, on ne se rendait pas compte qu’il y avait un problème de domination sur le réseau et dans les outils numériques que nous utilisons. Tout simplement parce que, pendant des années, personne n’a regardé d’assez près les données avec lesquelles nous alimentions notre système numérique. Dès que vous vous rendez compte que l’inégalité des sexes est profondément ancrée dans les outils numériques que nous utilisons, vous pouvez commencer à changer les choses.» La première initiative de Julia Kloiber consiste à promouvoir des mécanismes de financement pour les projets technologiques menés par des femmes: «L’industrie technologique est dominée par les hommes. Ce sont eux qui détiennent la majorité des investissements. Et comme dans d’autres domaines, il y a toujours une tendance à financer des gens qui sont comme vous.»
Julia Kloiber n’en fait pas mystère. Elle plaide aujourd’hui en faveur d’un internet décentralisé et plus local. En d’autres termes, un réseau composé de micro-réseaux qui ont un sens pour les utilisateurs. Ce n’est qu’une autre façon pour le Net de représenter la réalité: «Le réseau et les services en ligne d’aujourd’hui sont dominés par des multinationales américaines et chinoises. Il en résulte une longue liste de problèmes tels que la surveillance, la désinformation, les préjugés, etc. Ces entreprises n’ont pas réussi à lutter contre ces problèmes. Le veulent-elles vraiment? En revenant aux principes fondamentaux du World Wide Web, décentralisé et accessible à tous, nous serons en mesure de créer un web différent et inclusif. Un web axé sur les besoins des communautés plutôt que sur ceux des entreprises.»
Selon la Berlinoise d’adoption, «nous devons changer d’échelle. Internet est devenu un super-continent, dominé par quelques-uns plutôt que par la multitude. Nous devons le faire évoluer de manière plus locale. Nous devons embrasser la diversité culturelle de ses utilisateurs et la soutenir. C’est en y regardant de plus près que nous pourrons construire une Toile représentative de la société et utile.» Pour Julia Kloiber, il ne s’agit pas d’activisme, mais d’une urgence: «Nos démocraties sont en danger. L’hyper-connectivité n’arrête pas ce déclin. Remettre en question l’égalité et la diversité sur les réseaux est une façon de nous protéger des attaques contre nos démocraties. C’est un débat qui concerne autant les individus que les politiciens ou les multinationales technologiques.» C’est dans cette logique fédératrice que Julia Kloiber entre dans le débat.
«Les biais de langage disent beaucoup sur ce que doit être une femme»
Dans une société numérique patriarcale, Omayeli Arenyeka subit une double peine. Celle d’être une femme et de couleur. «Yeli» en fait une force. Née au Nigéria, elle sort diplômée en informatique, art et design de l’Université de New York en 2017. Elle travaille aujourd’hui en tant qu’ingénieure logiciel pour la multinationale LinkedIn. En parallèle, l’artiste et designer mène plusieurs projets de recherches dans le domaine de la technologie. Parmi eux, le «Gendered Project». Il s’agit d’une bibliothèque évolutive répertoriant les mots sexistes (ou à connotation) qui existent dans la langue anglaise. Cet outil en ligne prend la forme d’une très riche base de données. Le projet vise à changer les perceptions relatives au langage quotidien, et à le faire évoluer.L’idée du «Gendered Project» germe en 2016 au détours d’une conversation: «Je parlais avec mes amies d’une relation purement sexuelle que j’entretenais avec un homme. Pour le décrire, j’ai utilisé le mot “fuckboy”. Ce mot n’existe pas dans le dictionnaire. Je me suis demandée pourquoi il y avait une myriade de mots pour décrire de manière honteuse une femme sexuellement libérée et si peu pour les hommes? J’ai donc décidé d’essayer de créer quelque chose qui nous permettrait d’explorer ce que la langue anglaise nous dit sur les hommes, les femmes et ceux qui ne correspondent pas à ces deux genres.» Inégalités de genres et de mots Omayeli Arenyeka le revendique: son travail «est une critique de la technologie. La langue et la technologie reflètent nos propres biais en tant qu’êtres humains. Nous ne sommes ainsi pas égaux sur les réseaux. Au-delà de ce constat, mon travail consiste à dénoncer ces biais, les comprendre, et trouver les mécanismes qui permettent de restaurer une certaine égalité.» Le «Gendered Project» attire notamment l’attention sur la sexualisation de certains mots et le processus par lequel des termes finissent avec le temps par prendre une connotation négative. «Yeli» prend l’exemple de «Mistress» (Mademoiselle) qui était autrefois l’équivalent de «Mister» (Monsieur). Aujourd’hui le terme fait référence à une femme commettant un adultère. «Le “Gendered Project” vise donc à fournir des données nourrissant notre dialogue permanent sur le patriarcat et la manière dont il imprègne chaque facette de notre vie quotidienne.»
«Le Machine Learning doit être réexaminé avec une paire de lunettes féministes»
Elle partage sa vie entre sa ville natale de la Nouvelle-Orléans et la capitale allemande. Caroline Sinders est à l’image de ces deux cultures: plurielle. Artiste, designer, activiste et experte en Machine Learning – la technologie d’apprentissage automatique nécessaire à l’entraînement des intelligences artificielles –, l’Américaine passée par IBM démultiplie les casquettes pour traquer les algorithmes sexistes. En effet, ces petits logiciels informatiques ultra performants conçus pour prendre des décisions sans interventions humaines ne sont pas neutres. Ils produisent des mondes qui dépendent de la vision de ceux qui les ont conçus.» A l’heure où la société s’encapsule dans de gigantesques bases de données, Caroline Sinders s’attaque aux biais sexistes du Big Data, et plus particulièrement aux intelligences artificielles. Après avoir enquêté sur le fléau du harcèlement dans la communauté gamers, Caroline Sinders a lancé en 2017 le projet baptisé «Feminist Data Set»: «Il s’agit d’un projet de recherches et d’art critique qui examine les préjugés dans le Machine Learning par la collecte de données, la formation aux données, les réseaux neuronaux et les nouvelles formes d’interface utilisateur», explique la designer. Le projet prévoit la création d’une intelligence artificielle (IA) féministe. Changer de point de vueUne partie du projet consiste à nourrir une base de données féministes. Ce corpus sert ensuite à entraîner les algorithmes: «Ce projet est un acte militant et de protestation contre les algorithmes conventionnels qui reproduisent les stéréotypes sexistes, explique Caroline Sinders. La communauté impliquée dans le «Feminist Data Set» se réunit très régulièrement autour d’ateliers: «Nous discutons de podcasts et de textes. Nous examinons le genre et l’origine de leurs auteurs. Ce faisant, nous recherchons un contenu féministe. Les données féministes peuvent être des œuvres d’art, des essais, des interviews ou des livres qui traitent du féminisme ou adoptent une perspective féministe. Il s’agit avant tout de nous intéresser au point de vue adopté.»
Mais les recherches de Caroline Sinders vont encore plus loin, puisque la designer adopte cette perspective féministe dans son analyse de l’ensemble des processus de fabrication d’un algorithme: «Mon point de vue sur ces logiciels est à la fois critique et artistique. J’examine chaque angle de fabrication, d’itération et de conception afin de trouver la manière de faire du Machine Learning de manière réfléchie. Chaque étape du processus doit être réexaminée avec une paire de lunettes féministes.» Selon Caroline Sinders, ce travail est crucial: «Une fois implémentés, ces algorithmes vont permettre le développement d’outils et de services en ligne, nous suggérant des lectures ou des contenus. Ils impactent donc fortement notre vision du monde et nos comportements. Leurs biais sexistes vont ainsi influencé la place et l’image de la femme sur les réseaux et dans la société. Pour combattre le problème, il faut remonter à l’origine du mal en entraînant la technologie avec des contenus égalitaires et non genrés. De cette manière, nous serons capables de construire un Web beaucoup plus représentatif de la diversité existant dans le monde physique.»Ce dossier est paru dans Le Temps