« L’absence de femmes dans l’IA augmente le menace de biais sexistes »

« L’absence de femmes dans l’IA augmente le menace de biais sexistes »

L’élaboration de modules particuliers sur « encoder l’égalité », dans les écoles d’informatique et de mathématiques, transformerait les regards, développent les docteures en sciences Aude Bernheim et Flora Vincent.

Docteures en sciences, Aude Bernheim et Flora Vincent ont créé l’association Wax Science, qui vise à encourager la mixité dans les sciences. Elles publient ces jours-ci L’IA, pas sans elles ! (Belin, collection « Egale à égal » du Laboratoire de l’égalité, 112 pages, 8,50 euros).

Pourquoi vous êtes-vous passionnées à la place des femmes dans les métiers de l’intelligence artificielle (IA) ?

L’IA fait aussitôt partie de notre vie, elle participe comme aide à la décision dans de nombreux domaines comme l’éducation, la police, la justice, la santé… La question de l’égalité et de l’équité de ces solutions automatiques est une participation sérieuse. Ecrire du code, c’est comme écrire tout court. On fait des choix, on privilégie une solution, une façon d’aborder le sujet, de traduire une problématique en langage informatique. Or, l’absence de femmes dans les métiers de l’intelligence artificielle augmente le risque de biais sexistes liés à ces choix, et prévient de faire jaillir une réflexion sur ce sujet.

Comment cela se produit-il ?

Les études de Rosabeth Kanter [professeure à la Harvard Business School] ont présenté que, à partir d’un certain seuil de diversité dans une groupe, on assiste à l’apparition de nouveaux points de vue, à des améliorations de comportements. C’est vrai dans toutes les disciplines. Quand les femmes ont commencé à investir des domaines comme l’histoire ou la géographie, on a vu des sujets émerger, par exemple le rôle des femmes dans ces disciplines.

Dans le domaine de l’algorithmique, les lanceurs d’alerte sont souvent intéressés au premier chef par les biais. C’est leur histoire personnelle qui les conduite à questionner le fonctionnement du système et à présenter que le biais est systématique. En 2018, Joy Buolamwini, étudiante noire au MIT [Massachusetts Institute of Technology], s’est touchée aux logiciels de reconnaissance faciale parce qu’elle a constaté que certains d’entre eux ne marchaient pas bien pour elle. Elle a pu montrer qu’ils étaient ajustés aux hommes blancs et discriminaient les femmes noires.

Existe-t-il des méthodes pour créer des algorithmes inclusifs ?

De nouvelles pistes d’étude se développent à l’interface entre l’éthique des mathématiques et de l’informatique. Les méthodes de construction d’algorithmes équitables débutent à être documentées. Il s’agit de placer des questions précises à chaque étape de leur développement : l’algorithme a-t-il été pensé avec des communautés différentes ? Le jeu d’apprentissage (c’est-à-dire les données à partir desquelles le logiciel est entraîné) est-il typique de l’ensemble de la population ? Véhicule-t-il des stéréotypes ?

Avatar
LJD

Les commentaires sont fermés.