Dossier

Crypter les oppressions

En fondant leurs décisions sur un modèle d’humain faussement neutre, les algorithmes pourraient nous faire reculer socialement d’un demi-siècle.

Les algorithmes façonnent de nombreux aspects de la vie contemporaine et jouent aujourd’hui un rôle actif dans notre espace social et privé. Ils se retrouvent dans à peu près tous les domaines de nos vies – allant des sites de rencontre à la consolidation des dossiers de crédit – et sont dorénavant responsables d’importantes décisions: recommandation culturelle, pronostic médical, prédiction policière, classement hiérarchique des contenus auxquels nous accédons en ligne, etc. S’ils sont omniprésents, c’est surtout leur pouvoir d’action sur nos cultures qui les rend à la fois puissants, inquiétants et addictifs. Si nous ne voulons pas que les iniquités du passé et du présent modulent nos futurs, il est capital de réfléchir à la collecte et à la transformation des données dans la conceptualisation des algorithmes, et à leurs conséquences directes sur les communautés marginalisées. En examinant la conception, les idées, les préjugés et les stéréotypes qui meuvent l’organisation des algorithmes, nous pourrions imaginer une culture numérique plus saine et moins oppressive.

Qu’est-ce qu’un algorithme et en quoi cette notion donne-t-elle naissance à des cultures, à leur tour, algorithmiques? Le terme dérive du nom du mathématicien perse Al-Khwârizmî (783-850) et désigne un ensemble d’instructions qui rend possible la réalisation d’un calcul et, plus largement, qui fournit un résultat. La meilleure comparaison, c’est la recette de cuisine: il faut réunir les ingrédients et suivre les instructions dans l’ordre prescrit pour obtenir le résultat souhaité. De la même manière, un algorithme – telle que la notion est entendue dans le domaine informatique – est un ensemble de procédures qui doit être réalisé dans l’ordre pour transformer la matière brute – les données – en une tierce action. Récapitulons à l’aide d’un exemple: l’algorithme de l’application Yelp utilise des données (les restaurants aimés par l’utilisateur·trice dans le passé ou les pages consultées, la situation géographique de l’usager·ère, les commentaires laissés par les autres membres, la concordance des mots-clés associés à la requête, etc.) pour produire une liste d’établissements susceptibles de plaire aux consommateur·trices en regard des facteurs mentionnés. Cet exercice simplifie notre circulation dans des contenus numériques denses et complexes, et oriente nos décisions. C’est précisément pour que ces informations nous apparaissent digestes qu’ont été développés des outils, soit les algorithmes, qui servent à classifier les informations (moteur de recherche), à personnaliser le contenu consulté (envois publicitaires, ciblage comportemental en ligne) ou à recommander les meilleurs trajets à emprunter (GPS). En quoi, donc, ces raisonnements mathématiques rendent-ils possible l’émergence d’un virage culturel dit algorithmique? Précisément parce que le rôle de ceux-ci est de lire, d’ordonner, de classifier et de hiérarchiser les données. Ces agents sont diffus et le pouvoir qui leur est accordé ainsi que la valeur qu’on leur octroie transforment nos sociétés en profondeur.

Alors, en quoi ces lignes de code peuvent-elles nous amener à penser selon un modèle prescriptif, voire à percevoir le monde selon des paramètres déterminés? La réponse tient dans l’origine des données utilisées pour créer ces algorithmes, dans le manque de diversité parmi les personnes qui les programment et, par conséquent, dans la normativité des espaces numériques. L’expression garbage in, garbage out provient du jargon numérique et fait référence au développement d’un programme informatique: si les données initiales sont erronées, les résultats le seront tout autant. Il va sans dire que, lorsque des préjugés sont cryptés dans un algorithme, les résultats qui seront produits seront à l’image de ces a priori négatifs. D’une part, ces stéréotypes et ces exclusions sont fondés sur les données mobilisées dans l’écriture des algorithmes. Celles-ci sont fréquemment non inclusives et leur lecture ainsi que leur traitement sont teintés d’un regard blanc, capacitiste et hétéronormatif. Aussi, ce sont précisément les données produites dans le passé par nos sociétés qui fondent l’identité des algorithmes et, par conséquent, leurs résultats. Ceux-ci sont empreints d’une histoire nouée d’oppressions fondées sur le racisme structurel, l’inégalité entre les sexes, la non-reconnaissance du genre en dehors d’une logique binaire, parmi d’autres. D’autre part, cette catégorisation des données circonscrit notre circulation numérique à un territoire minuscule. Le sociologue Dominique Cardon, dans Culture numérique, mentionne que 95% de nos activités numériques se déroulent sur uniquement 0,03% de l’ensemble des contenus disponibles en ligne. Ce sont les algorithmes qui, après avoir hiérarchisé et filtré l’information, guident les internautes dans ce que Cardon nomme un nano-espace informationnel. Si nous croyons vagabonder librement sur internet, nous n’explorons en vérité qu’une partie très limitée de celui-ci. Cet enfermement numérique est encouragé par la mise en place d’une culture algorithmique qui reconduit des préjugés historiques, maintient en place des systèmes de valeurs discriminatoires et réduit les nuances, la finesse et la complexité humaines à un amalgame de données brutes. C’est toute notre vision du monde, de nous-mêmes et de l’autre qui s’en trouve altérée et les préjugés inconscients, renforcés.

La suite de cet article est protégée

Vous pouvez lire ce texte en entier dans le numéro 329 de la revue Liberté, disponible en format papier ou numérique, en librairie, en kiosque ou via notre site web.

Mais pour ne rien manquer, le mieux, c’est encore de s’abonner!