La création de modules spécifiques sur « encoder l’égalité », dans les écoles d’informatique et de mathématiques, changerait les regards, expliquent les docteures en sciences Aude Bernheim et Flora Vincent.
Docteures en sciences, Aude Bernheim et Flora Vincent ont fondé l’association Wax Science, qui vise à promouvoir la mixité dans les sciences. Elles publient ces jours-ci L’Intelligence artificielle, pas sans elles ! (Belin, collection « Egale à égal » du Laboratoire de l’égalité, 112 pages, 8,50 euros).
Pourquoi vous êtes-vous intéressées à la place des femmes dans les métiers de l’intelligence artificielle (IA) ?
L’IA fait désormais partie de notre quotidien, elle intervient comme aide à la décision dans de nombreux domaines comme l’éducation, la police, la justice, la santé… La question de l’égalité et de l’équité de ces solutions automatiques est un enjeu important. Ecrire du code, c’est comme écrire tout court. On fait des choix, on privilégie une solution, une façon d’aborder le sujet, de traduire une problématique en langage informatique. Or, le manque de femmes dans les métiers de l’intelligence artificielle accroît le risque de biais sexistes liés à ces choix, et empêche de faire émerger une réflexion sur ce sujet.
Comment cela se produit-il ?
Les études de Rosabeth Kanter [professeure à la Harvard Business School] ont montré que, à partir d’un certain seuil de diversité dans une équipe, on assiste à l’émergence de nouveaux points de vue, à des changements de comportements. C’est vrai dans toutes les disciplines. Quand les femmes ont commencé à investir des domaines comme l’histoire ou la géographie, on a vu des sujets émerger, par exemple le rôle des femmes dans ces disciplines.
Dans le domaine de l’algorithmique, les lanceurs d’alerte sont souvent concernés au premier chef par les biais. C’est leur histoire personnelle qui les conduit à questionner le fonctionnement du système et à montrer que le biais est systématique. En 2018, Joy Buolamwini, étudiante noire au MIT [Massachusetts Institute of Technology], s’est intéressée aux logiciels de reconnaissance faciale parce qu’elle a constaté que certains d’entre eux ne marchaient pas bien pour elle. Elle a pu montrer qu’ils étaient adaptés aux hommes blancs et discriminaient les femmes noires.
Existe-t-il des méthodes pour produire des algorithmes inclusifs ?
De nouvelles pistes de recherche se développent à l’interface entre l’éthique des mathématiques et de l’informatique. Les méthodes de construction d’algorithmes équitables commencent à être documentées. Il s’agit de poser des questions précises à chaque étape de leur développement : l’algorithme a-t-il été pensé avec des communautés différentes ? Le jeu d’apprentissage (c’est-à-dire les données à partir desquelles le logiciel est entraîné) est-il représentatif de l’ensemble de la population ? Véhicule-t-il des stéréotypes ?
Que pensez-vous des chartes et autres serments d’Hippocrate pour une IA équitable ?
C’est une piste nouvelle et intéressante. Des cabinets commencent aussi à proposer de l’audit aux entreprises pour vérifier que leurs algorithmes sont équitables même s’il n’existe pas de standards reconnus. La réflexion sur l’équité se généralise, et c’est une bonne chose. On voit bien l’intérêt de débattre de ces sujets au sein d’une communauté qui compte autant de femmes que d’hommes. Une plus grande diversité de personnes dans les équipes qui conçoivent les logiciels permettrait d’élargir le champ des questionnements.
Ces notions sont-elles prises en compte en France ?
La plupart des débats sur ce sujet ont lieu à l’étranger. Comme c’est un milieu où les savoirs se disséminent rapidement, cela infuse assez vite. En France, on sent une prise de conscience. Il faut maintenant intégrer cette réflexion aux formations sur l’intelligence artificielle. Aujourd’hui, les cursus informatiques ne prennent pas en compte les sciences humaines, l’éthique, les études de genre, l’inclusion. Dans les écoles d’informatique et de mathématiques, des modules spécifiques sur « encoder l’égalité » changeraient les regards.
Aucun commentaire:
Enregistrer un commentaire