Arrêt sur l’algorithme machiste

Arrêt sur l’algorithme machiste

Le machisme ambiant poursuit de faire des dégâts. En matière d’IA, en particulier.

«  Conçus à 88 % par des hommes, robots et algorithmes ont un besoin urgent d’être mentorés. »
«  Conçus à 88 % par des hommes, robots et algorithmes ont un besoin urgent d’être mentorés. » Ingram / Photononstop

Riche idée que celle du Professional Women’s Network (PWN), réseau international de femmes responsables, qui, à quelques jours du 8 mars, Journée internationale des droits des femmes, lance un programme de mentoring « femmes-hommes ». L’ordre des mots a son importance. On s’était habitué aux systèmes de parrainage « hommes-femmes » admettant à des femmes de se faire « mentorer » par des hommes pour faire carrière. Le PWN inverse les rôles. Il ne s’agit plus d’apprendre aux femmes les codes masculins, mais d’offrir aux hommes qui le convoitent de comprendre ce que conduite inclusif veut dire, pour plus d’intelligence collective.

Bien, mais pas assez. Car, en souhaitant que ce type de programme porte ses fruits, le machisme ambiant poursuit de faire des dégâts. En matière d’IA, surtout. Robots et algorithmes ont un besoin urgent d’être mentorés, eux aussi. Conçus à 88 % par des hommes – non encore dégagés de leurs biais sexistes, on l’aura compris –, ces algorithmes « reflètent les systèmes de représentation de leurs concepteurs », éclairent deux scientifiques, Aude Bernheim et Flora Vincent, dans L’IA, pas sans elles ! (Laboratoire de l’égalité/Belin).

Les solutions existent

Or, l’Intelligence Artificielle est utilisée dans plusieurs domaines : pour choisir des candidats à l’embauche, poser des diagnostics médicaux, accorder ou non un crédit bancaire. Les biais qu’ils portent se prouvent alors discriminatoires. Le mathématicien et député (LRM) de l’Essonne Cédric Villani, qui préface leur ouvrage, avait déjà prévenu, en janvier 2018 : « L’intelligence artificielle peut augmenter les biais, renforcer les inégalités. »

Les solutions présentent. La première serait de surveiller à ce que les équipes chargées des projets IA dans les entreprises assimilent plus de femmes. Maintenant, cet objectif est rarement affiché. Une étude du Cercle InterElles, qui sera présentée, le 12 mars, à la Cité universitaire de Paris, lors du colloque annuel de ce méta-réseau de femmes œuvrant dans quatorze grandes entreprises, le confirme. Plus de la moitié (55 %) des personnes interrogées ignorent l’existence d’une telle démarche au sein de leur groupe ; et les trois quarts de celles qui, au contraire, en réaffirment l’existence, sont incapables d’en donner la teneur.

Certainement, les femmes expertes du domaine sont rares. Alors que les classes de terminale S reçoivent 46,7 % de filles et que celles-ci réussissent davantage de mentions au bac que les garçons, elles se dévient ensuite d’un domaine jugé « hostile ». « Le secteur de l’IA est aussi masculin qu’un bar des sports le soir d’un match [de football] de Ligue 1. Moins formées, moins payées, moins promues, les femmes ne sont pas les bienvenues », citent Aude Bernheim et Flora Vincent. Traquer les stéréotypes et mettre en place des incitations propres à aider les femmes à se faire une place chez les geeks devraient être une priorité.

Avatar
LJD

Les commentaires sont fermés.