Aller au contenu

Conf’574 – « Tou.te.s IA » par Moojan Asghari, Héloise Nonne, Claire Nicodème et Geneviève Fieux-Castagnet

Dans cette conférence au « 574 », Moojan Asghari, Héloise Nonne, Claire Nicodème et Geneviève Fieux-Castagnet abordent la problématique des biais dans l’intelligence artificielle, et notamment ceux qui entraînent des discriminations envers les femmes. En quoi la diversité et la parité sont-elles importantes pour les entreprises ? Comment éviter les biais de l’IA ? Quelle est la place de l’éthique dans la mise en place d’une IA ?

Publié le

Par La Redaction

femme intelligence artificielle

Qui ?

Moojan Asghari est la créatrice de « Thousand eyes on me » et la co-fondatrice de « Women in AI ».

Héloise Nonne est head of data science & engineering au sein de la Fab Data IA chez ITNOVEM.

Claire Nicodème est ingénieure de recherche chez SNCF SA à la Direction innovation et recherche.

Geneviève Fieux-Castagnet est déontologue à la direction de l’éthique.

Où ?

Au 574, le siège parisien de SNCF Digital situé à Saint-Denis (93), soit à environ 1435 kilomètres de Rome, en Italie, où a été signé le 25 mars 1957, le Traité de Rome instituant la Communauté économique européenne (CEE).

Quand ?

Lundi 8 mars 2021, soit 107 ans jour pour jour après l’organisation de la première Journée internationale des droits des femmes.

« En cette journée internationale des droits des femmes, nous allons parler intelligence artificielle » introduit Anne-Sophie Nomblot, Présidente de SNCF au féminin, le réseau qui vise à faire bouger les lignes de la mixité dans l’entreprise. « C’est un réseau transverse et a-hiérarchique ouvert à toutes et à tous, qui comprend aujourd’hui près de 9300 membres. » précise-t-elle.

« Je voudrais vous témoigner de l’importance qu’accorde SNCF à la mixité et en particulier dans la filière numérique du Groupe. Au sein de cette filière, il y a 25% de femmes, nous avons progressé ces dernières années, mais aujourd’hui nous sommes vraiment en manque de candidates. Donc, nous avons un devoir sociétal de promouvoir les métiers du numérique pour faire naître au plus tôt des talents féminins » ajoute Henri Pidault, directeur e.SNCF.

De l’importance de la diversité

moojan asghari

L’IA pour tou.te.s est donc uniquement possible quand les chefs d’entreprise et les ingénieurs travaillent ensemble pour créer une main d’œuvre diverse, égale et inclusive. »

Moojan Asghari, co-fondatrice de "Women in AI"

« Pour que l’IA marche pour tout le monde, il faut avoir une vision très globale, car chacun de nous a des biais, parce que nous venons de cultures différentes et d’environnements différents. Il faut donc avoir des équipes diverses pour justement éviter les biais dans la construction de l’IA. Les questions que l’on doit poser aujourd’hui sont : est-ce que l’IA est intelligente pour apporter de la valeur à la société ? Est-ce qu’elle est éthique ? » explique Moojan Asghari.

Le manque de diversité au sein des entreprises a différents coûts : l’argent, la réputation des entreprises et les dommages humains, d’où la nécessité de voir ces problèmes avant le lancement des produits sur le marché. « L’IA pour tou.te.s est donc uniquement possible quand les chefs d’entreprise et les ingénieurs travaillent ensemble pour créer une main d’œuvre diverse, égale et inclusive. La diversité comprend plusieurs dimensions, pas uniquement le genre : l’âge, la culture, l’identité ethnique, la langue, l’orientation sexuelle, la classe sociale etc. Il est également prouvé que la diversité n’est pas seulement nécessaire pour créer des produits qui fonctionnent pour tout le monde, mais aussi pour obtenir de meilleurs revenus. » explique-t-elle. Selon un rapport de BCG, les entreprises qui ont des équipes plus diverses ont 45% de CA en plus, car cette diversité apporte plus d’innovation et de créativité au sein des équipes.

Un des plus gros problèmes que l’on constate, c’est le manque de diversité à des postes élevés (Fortune 500 CEOs) : seulement 5% de femmes, 1% de personnes noires, 2% de personnes LGBTQ+. Ce manque de diversité dans le leadership est lié aux barrières externes, comme le recrutement (biais inconscients), mais aussi comme les biais hérités qui sont notamment le manque de confiance en soi pour postuler à de tels postes.

« Thousand Eyes On Me » est une plateforme de développement de talents pour aider à améliorer la confiance des femmes en leur capacité de leadership. « Nous proposons un parcours personnalisé de développement où chacune est accompagnée par des personnes qui partagent les mêmes valeurs de communauté mondiale et solidaire (cours en ligne, coaching, podcasts…). » explique-t-elle.

Le but de « Women in AI » est de réduire l’écart entre les hommes et les femmes dans le domaine de l’intelligence artificielle. « Sa mission est de créer différents dispositifs pour la communauté de 7000 membres dans 130 pays. Quatre catégories sont ainsi mises en place, l’événementiel, l’éducation, la communauté et la publications et la recherche. » conclut-elle.

Fiabilité du Machine Learning

heloise nonne

La prédiction, aussi performante et précise soit-elle, ne suffit pas, il faut l’accompagner d’un diagnostic, d’où l’importance de passer d’une boite noire à une boite blanche ou grise.

Héloise Nonne, Head of data science & engineering chez ITNOVEM

« Je dirige une équipe data science et date engineering qui a vocation de travailler sur l’IA pour l’ensemble du groupe SNCF » explique Héloise Nonne. « Depuis 2018, nous travaillons sur la question de l’IA explicable et on a abouti en 2020 à la création du projet ML. Le Machine Learning est une boite noire, on collecte des données, on les prépare et finalement ce qui rentre dans le Machine Learning, ce sont des nombres. Ensuite, l’algorithme apprend sur la base d’un historique à prédire quelque chose, c’est ce qu’on appelle la cible qui permet de dire s’il y a eu une panne ou pas. Enfin, cet algorithme permet de faire des prédictions sur des nouvelles données. La prédiction, aussi performante et précise soit-elle, ne suffit pas, il faut l’accompagner d’un diagnostic, d’où l’importance de passer d’une boite noire à une boite blanche ou grise. Plus on complexifie les modèles de Machine Learning, plus on est précis et correct, mais moins on est interprétable. La question est de comment expliquer au mieux ces algorithmes compliqués. Il faut donc fiabiliser et valider afin d’être certain que le modèle a appris correctement, identifier les biais sur certaines données qu’il faudrait corriger, acquérir de nouvelles connaissances » ajoute-t-elle.

La prochaine étape de ce projet est d’open-sourcer le produit ReadML sous un repository public de SNCF afin de montrer le savoir-faire de l’entreprise dans ce domaine.

Les différents biais en IA

Claire Nicodème est ingénieure de recherche chez SNCF SA à la Direction innovation et recherche, qui a pour objectif d’accompagner l’ensemble des métiers du Groupe pour construire le ferroviaire de demain. L’IA est donc primordiale pour parvenir à cet objectif. « Dans le cas de la vidéo protection, nous avons remarqué des biais dans la reconnaissance faciale. Pour un homme blanc, il y avait moins d’1% d’erreur, pour une femme blanche jusqu’à 7% d’erreur, pour un homme de couleur 12% d’erreur et une femme de couleur 1 chance sur 3 d’être mal reconnue » explique-t-elle.

Si cette technologie n’est ni raciste ni sexiste, alors d’où viennent ces erreurs ? Elles viennent des biais, c’est-à-dire d’une distorsion systématique qui compromet la représentativité, qui introduit des discriminations et donc ne permet pas d’être utilisée dans le monde réel. « Nous avons des biais sur la donnée, d’abord un biais historique qui est l’écart entre le monde tel qu’il est et ce que la société souhaite transmettre, également un biais temporel c’est-à-dire le manque de considération de l’évolution des comportements dans le temps, mais aussi un biais de représentation soit le déséquilibre des bases de données en défaveur des minorités ou des cas rares, et enfin le biais d’acquisition et pré-traitement qui englobe les erreurs de sélection ou préparation des données d’apprentissage. » précise-t-elle.

Il y a également des biais sur les algorithmes, notamment le problème de l’agrégation, c’est faire l’hypothèse selon laquelle une tendance qui apparaît au niveau d’un groupe va être identique pour tous les individus composant ce groupe. On parlera aussi de la sélection des caractéristiques, d’où l’importance d’avoir des données correctes et représentatives. Le dernier point au niveau algorithmique est de pouvoir évaluer à la fois le modèle via la sélection des métriques.

« Et si on fait une synthèse de tous ces biais, on se rend compte que c’est de la faute de l’humain. L’humain est le créateur, l’inventeur, le développeur des IA, sauf que l’humain possède environ 180 biais cognitifs (croyances personnelles, expériences, sentiment d’appartenance…). Tous ces biais vont dérégler l’algorithme, c’est pour cela qu’un algorithme ne se développe jamais seul, car il n’y aurait pas suffisamment de diversité, de challenge des idées » ajoute-t-elle.

« Ainsi, pour pouvoir minimiser les biais en IA, il faut savoir développer un modèle qui prend en compte le contexte, le cas d’usage, les performances souhaitées, les données personnelles, pour ensuite rédiger et suivre des lignes de conduite communes pour s’assurer de l’impartialité du système. » conclut-elle.

IA et éthique

Geneviève Fieux-Castagnet

Nous travaillons avec l’aide d’une équipe pluridisciplinaire et nous appliquons les guidelines de la commission européenne pour une IA de confiance et une IA éthique.

Geneviève Fieux-Castagnet, déontologue à la direction de l’éthique chez SNCF

« L’éthique de l’IA est l’éthique by design, c’est-à-dire avant la mise en place du cas d’usage qui utilise l’IA » introduit Geneviève Fieux-Castagnet, déontologue à la direction de l’éthique. La direction de l’éthique a pour mission d’élaborer la politique éthique du Groupe SNCF et de veiller à sa bonne application. « Nous travaillons avec l’aide d’une équipe pluridisciplinaire et nous appliquons les guidelines de la commission européenne pour une IA de confiance et une IA éthique. Nous commençons par faire une cartographie des risques, puis nous les hiérarchisons et ensuite avec l’équipe nous essayons de mettre en place des mesures correctives, c’est-à-dire de suppression ou d’atténuation des risques » détaille-t-elle.

Dans le cas de l’IA au service du recrutement, les entreprises utilisent des algorithmes de sourcing pour trouver des candidats, notamment via les réseaux sociaux, qui correspondent à leurs critères de sélection. Ensuite, elles utilisent des algorithmes de screening ou de filtrage, et enfin des algorithmes de matching. L’IA pour le recrutement présente de nombreux avantages, tels que de pouvoir traiter un très grand nombre de données, de baisser les coûts et de diminuer la marge d’erreur en fonction des critères posés. Quels sont les enjeux éthiques de l’utilisation de l’IA pour le recrutement ? « Le premier enjeu est de savoir si c’est l’IA qui assiste l’humain ou l’inverse. Il faut que l’humain soit dans la boucle et surtout qu’il garde la décision. Second enjeu, ce sont toutes les problématiques de discrimination. Enfin, la question de l’accessibilité au mode de recrutement par tous, il faut donc utiliser des outils ludiques, simples d’utilisation et accessibles au plus grand nombre. Un autre enjeu majeur est la transparence qui regroupe trois notions différentes, la traçabilité, l’explicabilité et la communication. Une autre exigence de la commission européenne est la robustesse et la reproductibilité du système, cela revêt quatre notions, la sécurité, la sûreté, la précision et la fiabilité. Enfin, le dernier enjeu pour la commission européenne est le bien-être sociétal et environnemental » conclut-elle.

Recommandé pour vous