Les biais dans les algorithmes
C’est connu, les algorithmes contrôlent nos interactions et comportements numériques. Ceux-ci sont théoriquement objectifs, cependant en pratique, ils ne le sont pas du tout. Ils sont en fait saturés de biais. Ce sont les individus qui codent ces algorithmes qui transmettent leurs propres, biais qu’ils soient de sources sociale, raciale ou de genre.
Algorithmes biaisées sur TikTok
La plateforme TikTok, accueillant maintenant plus d’un milliard d’utilisateurs annuels, est assurément un des médias sociaux les plus populaires. Les algorithmes de cette plateforme sont axés sur la personnalisation de niche de la consommation de l’utilisateur. En effet, selon les politiques et conditions d’utilisations de l’application, les algorithmes utilisés par la plateforme analysent et mémorisent les préférences de ses utilisateurs pour personnaliser le contenu de chacun. Cependant, ils ne sont pas épargnés de biais.
De nombreux utilisateurs marginalisés de la plateforme dénoncent les biais raciaux et de genre des algorithmes. Ceux-ci affirment que l’algorithme supprime du contenu relié à des identités sociales marginalisées. Que ce soit basées sur l’ethnie, les statuts de classes, les identités LGBTQ, ou les groupes de justice sociopolitique.
Les événements de l’été 2020
Depuis l’été 2020, l’application Tiktok fait face à des allégations de traitements inégaux envers ses créateurs noirs. En effet, au début de l’été, pendant la monté des manifestations contre la brutalité policière, plusieurs créateurs et créatrices noirs ayant un grand nombre d’abonnés, ont remarqué leurs visionnements diminuer soudainement après la publication de vidéos appuyant ces causes. Ce phénomène est communément appelé le shadow-banning. En juin, Tiktok sortit une déclaration officielle “en présentant des excuses aux membres de sa communauté noire qui se sont sentis en danger, non soutenus ou réprimés” en s’engageant à apporter des changements positifs.
Cependant, selon un article du Time , plusieurs créateurs noirs disaient encore remarquer un déclin sur leur compte. Évidemment, cette baisse était en lien avec du contenu Black Lives Matter, malgré les promesses des représentants TikTok.
Processus d’embauche problématique causé par les algorithmes
L’utilisation d’algorithmes pour le recrutement en ligne sur les plateformes numériques est de plus en plus commun, comme le relate Forbes. Dénicher les candidatures les plus qualifiées, le plus rapidement possible tout en limitant les coûts, c’est le but. Par contre, l’algorithme est-il vraiment objectif?
Comme toutes les autres techniques d’embauche, l’employeur se doit d’être objectif et de ne pas laisser ses préjugés et ses idéaux affecter son choix. L’intelligence artificielle (IA) n’est pas conçue pour avoir un esprit critique, donc n’est pas en mesure de faire une sélection de candidatures objectives.
L’algorithme a donc une importante influence face au recrutement en ligne. Ceci rend le tout problématique, car l’employeur établit les mots-clés du moteur de recherche. La technologie des algorithmes, étant relativement nouvelle, ne devrait pas être autant porteuse de confiance par les employeurs. Notamment, e géant du web Amazon a fait face à de fortes critiques durant les années 2014 à 2017. En effet, son algorithme d’embauche était carrément sexiste, celui-ci disqualifiait catégoriquement les candidatures féminines.
Les biais ethniques de l’algorithme dans les logiciels de reconnaissance faciale
Les biais dans les algorithmes des logiciels de reconnaissance faciale utilisés dans les forces policières sont extrêmement lourd de conséquences. En effet, de nombreux regroupements de polices utilisent la reconnaissance faciale pour accélérer le processus d’identification des suspects. Par ce fait même, la police est accusée de renforcer la discrimination envers les minorités. Le processus n’est pas assez optimisé pour demeurer impartial envers tous les genres et toutes les ethnies. Ce système a été conçu pour trier et filtrer les visages types d’origine caucasienne et ne prend très peu en considération les différences que ce soit par les traits ou par la couleur.
L’algorithme en pratique
Par exemple, le documentaire Coded Bias dévoile que les systèmes de reconnaissance faciale utilisés par la police détiennent une marge d’erreur d’environ 1% sur un homme blanc, mais d’environ 35 à 38% sur une femme de couleur. Une chercheuse de l’Institut de Technologie au Massachussett, Joy Buolamwini, a essayé le logiciel de reconnaissance faciale à des fins de recherche. Ce dernier n’aurait pas réussi à identifier son visage à cause du grand manque de données de personnes de couleur. Elle a ensuite essayé en recouvrant son visage d’un masque blanc et le logiciel l’a automatiquement reconnu. Cette expérimentation démontre que le logiciel n’est pas du tout apte à être utilisé dans un contexte de recherches policières.
Les forces policières ont longtemps collaboré avec les géants du web afin d’améliorer leur base de données. C’est en 2020, en parallèle du mouvement Black Lives Matter, que IBM, Microsoft et Amazon ont tous interdit l’accès à leurs données par la police suite aux nombreuses tragédies qui sont arrivées aux États-Unis. Cette décision a été un marqueur moral dans l’histoire du numérique, même si les résultats resteront minimes tant que les logiciels de reconnaissance faciale seront encore utilisés.
En bref
Finalement, les biais dans les algorithmes sont bien plus sournois qu’on le pense. Ils se faufilent et nous manipulent sans qu’on le remarque réellement. Dans certaines situations cela peut être banal, mais d’en d’autre fatal. C’est pourquoi il est important de toujours garder l’oeil et l’esprit ouvert que ce soit sur les réseaux sociaux, au moment de recruter du personnel ou bien pour des enquêtes policières.
Par Rosalie Pertin, Emilie Foucher et Solenn Duguay