#Atelier574 – « Ethique et algorithmes, solutions pour une IA équitable », par Anna Choury
L’intelligence artificielle est utilisée dans tous les domaines : de la santé à la finance, en passant par la sécurité. Pourtant, de nombreuses questions éthiques subsistent, notamment sur la reproduction des discriminations. Comment peut-on rendre l’IA plus équitable ? Quels sont les garde-fous à avoir ? Dans cette conférence au « 574 », Anna Choury donne les solutions pour que l’IA soit la moins discriminante possible.
Publié le
Par La Redaction
Qui ?
Où ?
Au 574, le siège parisien de la Direction Générale e.SNCF, situé à Saint-Denis (93), soit à environ 381 500 kilomètres de la lune. Le premier humain à y avoir marché est l’astronaute américain Neil Armstrong le 21 juillet 1969.
Quand ?
Mardi 12 février 2019, soit 127 ans jour pour jour après le dépôt de brevet du cinématographe par l’inventeur français Léon Bouly.
Qu’est-ce que l’intelligence artificielle ?
« L’intelligence artificielle est un grand mot qui regroupe beaucoup de choses, beaucoup de mythes et beaucoup de réalités », explique Anna Choury.
Le mot artificiel correspond à ce qui n’est ni humain, ni végétal, ni vivant. Quant au terme « intelligence », c’est la reproduction dans une certaine mesure des caractéristiques du comportement humain, la capacité d’analyse, et une possibilité d’extrapolation et de prédiction. L’objectif est donc de créer un ensemble de méthodes et d’algorithmes qui permettent de confier des tâches à une machine qui étaient auparavant réservées à l’humain, pour la rendre plus ou moins autonome, avec l’objectif ultime de la rendre plus performante qu’un être humain.
Aujourd’hui, on retrouve l’intelligence artificielle un peu partout : dans les arts et les jeux, la santé, l’industrie, la finance, en ressources humaines, la publicité et le commerce ou encore la sécurité. « L’IA, ce n’est pas Robocop, ni C3PO, ni R2D2, ni une bande de robots humanoïdes qui vont nous voler notre travail et se rebeller contre l’être humain », précise-t-elle.
Une éthique liée à la réalisation
« L’IA a la fâcheuse tendance d’exacerber toutes les inégalités qu’elle observe », constate Anna Choury.
« Par exemple, dans la publicité sur les pages web, on va pousser le consommateur à acheter ce qu’on estime qu’il soit susceptible d’acheter. Pour ce faire, on va mettre les personnes dans une case avec des gens que l’on estime comme eux. Cette case va souvent regrouper les gens de la même couleur de peau ou du même niveau social, mais rien d’autre », explique-t-elle.
De même, si vous demandez un prêt à la banque, vous allez remplir une fiche d’information qui sera mise en regard avec les informations des gens qui sont considérés comme vous, et c’est cela qui va déterminer votre taux de crédit. Si les personnes comme vous sont d’une classe sociale aisée, vous aurez un taux bas, et inversement. Les femmes auront, par exemple, un taux plus élevé que les hommes, voire un refus de prêt, puisqu’elles gagnent en moyenne moins que les hommes.
On assiste au même problème dans le recrutement. Il y a quelques temps, Amazon avait mis au point une IA pour son recrutement. Cette dernière a analysé les profils dans la tech et a conclu que la majorité d’entre eux étaient des hommes de 35 à 42 ans. Elle a donc automatiquement éliminé tous les profils féminins. Amazon s’est donc retrouvé à embaucher exclusivement des hommes.
La faute à la donnée ?
Le Machine Learning va observer le monde contenu dans les données. Si ce monde n’est pas juste, ni diversifié, s’il y a une majorité qui est prégnante, alors, l’algorithme ne va choisir que cette majorité. « L’intelligence artificielle est donc intelligente mais pas maline », conclut la PDG de Maathics.
Une des premières utilisations du Deep Learning était le « Google Deep Dream » qui permettait de faire de la reconnaissance de formes dans des images. Cet algorithme avait été entrainé sur un jeu de données exclusivement composé de chiens. En conséquence, si on lui donnait d’autres images, telles que la nébuleuse Carina vue par le télescope Hubble, il y reconnaissait aussi un chien, car c’est exactement ce qu’on lui demandait de faire.
En reconnaissance faciale, les meilleurs acteurs du marché sont très bons pour reconnaître des caucasiens, et mauvais pour le reste de la population. Il y a moins d’1% d’erreur pour reconnaître un homme blanc, et jusqu’à 36% d’erreur pour reconnaître une femme noire. « Pour l’égalité des chances par l’IA, on repassera, car l’IA est le reflet de celui qui l’a codé », termine-t-elle.
Les solutions pour rendre l’IA plus équitable
Les moyens pour rendre l’intelligence artificielle équitable, c’est-à-dire non discriminante, sont la loi et la science.
Au niveau de la loi, l’Europe a mis en place le RGPD depuis mai 2018 afin d’assurer la transparence du traitement, la sécurité et la confidentialité et enfin la non-discrimination. En France, la discrimination est définie par 21 caractéristiques dont l’origine ethnique, le genre, l’âge, les préférences religieuses, la catégorie socio-professionnelle…
La science s’est également emparée du sujet. Il existe aujourd’hui un consensus sur comment définit-on formellement le fait qu’un processus discrimine quelqu’un. La question est donc de savoir si la décision prise par l’IA est trop fortement impactée par une des 21 caractéristiques. « Aujourd’hui, la loi américaine dit que si l’on est équitable à 80%, cela passe », précise Anna Choury.
« La science sans conscience n’est que ruine de l’âme », disait Rabelais. « Nous avons tous les moyens techniques pour limiter la discrimination par l’intelligence artificielle. Nous avons donc la responsabilité de les mettre en place. Dans le monde de la recherche, les gens se sont emparés du sujet, maintenant, il faut transformer l’essai », conclut-elle.
[ #Atelier574 ] [ Live] Nous accueillons aujourd'hui @a_choury, co-fondatrice et CEO de @Maathics, pour parler #éthique & algorithmes : des solutions pour une #IA équitable ? pic.twitter.com/PlubGMTO8q
— SNCF Digital (@SNCF_Digital) 12 février 2019
Punchlines
– « L’intelligence artificielle est un grand mot qui regroupe beaucoup de choses, beaucoup de mythes et beaucoup de réalités. »
– « L’IA a la fâcheuse tendance d’exacerber toutes les inégalités qu’elle observe. »
– « L’intelligence artificielle est donc intelligente mais pas maline ».
– « Nous avons tous les moyens techniques pour limiter la discrimination par l’intelligence artificielle. Nous avons donc la responsabilité de les mettre en place. »