Quand la techno ne fait pas d’égaux : éthique en intelligence artificielle

Camille Déraspe et Justine Robidoux

Selon le dictionnaire le Robert, l’intelligence artificielle est désignée par l’ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine tels le raisonnement et l’apprentissage.

Selon les mots de James Zou, professeur en science des données biomédicales et génie informatique et électrique à l’Université de Stanford, l’IA est comme un bébé qui lit vraiment vite,  c’est-à-dire que l’IA se nourrit de toutes les données qu’il se fait transmettre et exécute ensuite les tâches auxquelles il est assigné. Comme l’IA ne peut faire preuve de discernement ou de morale, des problèmes éthiques majeurs peuvent survenir. Afin de comprendre en profondeur ces problématiques éthiques, il importe de se pencher sur la cause de celles-ci.

Facebook Office : Sarah Jacobs, Business insider

TROP BLANC, TROP MÂLE

L’intelligence artificielle relève d’une technologie plutôt biaisée: c’est pourquoi il importe de se questionner sur l’identité de ses créateurs. Tout d’abord, l’industrie de l’IA demeure majoritairement dominée par les hommes blancs. En effet, selon l’UNESCO, seulement 22% des professionnels de l’IA sont des femmes. De plus, l’UNESCO dénote que les assistants personnels virtuels tels que Siri, Alexa ou Cortana sont tous de type féminin. Selon l’organisation, la soumission associée à ces assistantes personnelles illustre un exemple concret de renforcement de préjugés envers les femmes. 

Dans son livre Brotopia : Breaking Up the Boys’ Club of Sillicon Valley, l’autrice Emily Chang dénonce une culture hétéronormative et patriarcale dominante dans la sphère des technologies, notamment face aux double standards envers les femmes et à l’égalitarisme de la chance d’y participer. En 2016, les investisseurs de capitaux à risque dans l’industrie technologique témoignent d’un soutien financier accru envers les entreprises créées par des hommes, soit 58 milliards, comparativement à 1.46 milliard pour des compagnies gérées par des femmes.

OÙ SONT LES MINORITÉS?

Ce constat s’accompagne d’un isolement des communautés marginalisées. Les minorités et les femmes font majoritairement partie de ce secteur, en étant peu recrutées ou retenues à long terme. En ce sens, l’autrice relate qu’en 2017, les femmes représentent 31% du personnel global chez Google contre 35% chez Facebook. Seulement 19% (Google) et 20% (Facebook) d’entre elles occupent alors des postes techniques notoires. Face aux minorités visibles spécialisées en programmation, les statistiques sont encore plus décevantes: 3% sont des femmes de couleur et 1% sont des femmes hispaniques.


En dépit des avancées technologiques, le pourcentage de femmes diplômées en informatique a quant à lui régressé entre 2017 et 2019, pour un total de 22% aux États-Unis, 16% au Canada et 11% en France. Bien souvent, les femmes sont écartées des possibilités d’emploi et quand elles sont admises, leur salaire n’est pas équivalent. Selon Chang, l’écart salarial aux États-Unis s’élève en moyenne à 28% entre les hommes et femmes dans le secteur informatique. Dans les autres domaines économiques du pays, le taux est de 5,4%. Le résultat ? Une industrie reflétant une vision majoritairement mâle et blanche.

iStock Photo : izusek

LES BIAIS DE LA RECONNAISSANCE FACIALE

L’une des grandes inquiétudes des spécialistes liés au développement de l’intelligence artificielle concerne la reconnaissance faciale et ses dérives. La physiognomonie est une fausse croyance qui étudie la personnalité d’un individu à partir de ses traits et expressions faciales. Cette méthode de repérage a servi par le passé d’outil de profilage racial, comportemental ou social favorable à la discrimination. La dangerosité de l’IA découle de sa fonction similaire à analyser les traits du visage. De ce fait, elle favorise également l’expansion de ces mesures discriminatoires.

Pour tester ce potentiel néfaste, des programmeurs de l’Université de Stanford, Michal Kosinski et Yilun Wang, ont conçu en 2017 un programme visant à repérer les personnes homosexuelles via leur photographie sous un radar intelligent nommé “Gaydar”. Non seulement cette technologie n’obtient aucun consentement des usagers, mais sa marge d’erreur n’est que de 20%! 

UNE IA À L’IMAGE DE SES DÉVELOPPEURS?

Au sein des développeurs de l’IA, le manque de diversité et les enjeux d’inégalités raciales en intelligence artificielle sont flagrants. Même parmi les meilleures compagnies, les plus puissants algorithmes de reconnaissance faciale font des erreurs. Ils peuvent identifient faussement les personnes racisées, soit 10 fois plus que les personnes blanches. C’est notamment le cas de l’entreprise française IDEMIA, leader en sécurité numérique.

Ceci devient extrêmement problématique face aux forces policières qui commencent à utiliser davantage d’outils technologiques de ce genre pour traquer les criminels. Toutefois, on ignore pourquoi les programmes d’IA reconnaissent moins les visages racisés. Selon Joy Buolawini, chercheur au MIT et activiste, les bases de données offertes aux compagnies pour développer la reconnaissance faciale ne sont pas assez représentatives. Ainsi, ces compagnies se tournent vers Internet pour récolter facilement des visages, dont le contenu est majoritairement masculin et blanc.

L’intelligence artificielle au service des humains. ©Blurredculture.com 

SUJET SENSIBLE, SOLUTIONS SENSÉES

De nos jours, nous vivons dans une société postmoderne où l’on associe majoritairement progrès et technologie. L’innovation humaine nécessite de s’appliquer à l’échelle sociale, tant au niveau économique qu’éthique. Ce principe est fondamental pour que l’IA soit reconnue d’un point de vue démocratique et philosophique. L’intelligence artificielle témoigne-t-elle d’une déficience égalitaire de ses concepteurs?

D’après Emily Chang, « Si les robots s’apprêtent à diriger le monde, ou à tout le moins à jouer un rôle résolument déterminant dans notre futur, les hommes ne devraient pas les programmer tout seuls. À cela s’ajoute sans équivoque les minorités non « privilégiées » ou autrement dit; tout être humain qui ne soit pas cis, blanc, riche ou hétéro.

UN CADRE ÉTHIQUE CRÉÉ PAR DES HUMAINS

Selon Marc-Antoine Dilhac, professeur en éthique et philosophie politique de l’Université de Montréal, il est « primordial d’élaborer un cadre éthique créé par des humains pour des humains.

Ceci prendrait la forme d’une déclaration de principes, le tout dans un processus inclusif, multipartite et démocratique. En somme, cette proposition atténuerait le sentiment de désorientation provoqué par le développement rapide de l’IA. »

Sources

Le Robert, (2021). Définition : Intelligence artificielle. Le Robert https://dictionnaire.lerobert.com/definition/intelligence 

Martin Gilbert, (2019, 19 décembre). Le nerd, le bro et le proféministe, À propos du livre Brotopia d’Émilie Chang. Martin Gilbert. https://martin-gibert.medium.com/le-nerd-le-bro-et-le-proféministe-a85b60bccc42

Jorge Barrera et Albert Leung, (2021, 17 mai). AI has a racism problem, but fixing it is complicated, says expects. CBC. https://www.cbc.ca/news/science/artificial-intelligence-racism-bias-1.6027150 

UNESCO, (2021). Élaboration d’une Recommandation sur l’éthique de l’intelligence artificielle. UNESCO https://fr.unesco.org/artificial-intelligence/ethics 

Tom Simonite, (2019, 22 juin). The Best Algorithms Struggle to Recognize Black Faces Equally. Wired. https://www.wired.com/story/best-algorithms-struggle-recognize-black-faces-equally/ 

Régis Meyran, (2021). Quels risques éthiques ? . UNESCO https://fr.unesco.org/courier/2018-3/ethical-risks-ai

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *