Un algorithme ne fait rien d’autre que reproduire les inégalités inhérentes au système capitaliste. Pour cette raison, je vous invite à politiser l’analyse de l’algorithme et à comprendre le raisonnement sous-jacent.
Nous vivons entourés d’algorithmes. Des gadgets technologiques abstraits qui ont encore des conséquences bien réelles pour les travailleurs, comme la volonté de nous identifier grâce à de futures caméras de reconnaissance faciale en plein cœur de Barcelone.
Malgré les risques de la technologie, nous assistons à un faux récit qui associe le progrès technologique au progrès social et tente de nous convaincre qu’un code informatique sera plus objectif lorsqu’il s’agira de résoudre ce qui était auparavant décidé par d’autres moyens. Malgré cela, depuis le groupe technologique de Seminari Taifa, dédié à l’étude du capitalisme numérique, nous défendons que ce qui affecte la vie des gens est politique, que ce soit la loi ou le code.
Bref, qu’est-ce qu’un algorithme ? Il s’agit d’une liste d’instructions finies, structurées, séquentielles et hautement spécifiques. Ou, comme le veut la métaphore, une recette, également de nature analogique. Dans notre réalité pandémique, le triage dans les urgences médicales suit un protocole qui peut être assimilé à un algorithme. En mathématiques, ils sont courant dans des opérations comme la multiplication ou la division, mais c’est avec la numérisation qu’ils ont connu un véritable âge d’or, grâce à l’émergence des algorithmes d’apprentissage automatique. Cette technologie, appelée apprentissage automatique, n’est rien d’autre qu’un système permettant d’optimiser un certain résultat dans d’autres algorithmes sans nécessiter de supervision humaine.
Mais qui décide du résultat à optimiser et qui accepte les conséquences qui peuvent résulter de l’obtention de ce résultat dans un système complexe ? Il est inévitable d’analyser cette technologie en termes d’inégalité. Pas tant en tant que cause, mais en tant que perpétuité. L’algorithme de Glovo, par exemple, est conçu pour favoriser les plus-values de l’entreprise et non celle des lecteurs. La version numérique de l’exploitation.
Comme Judith Membrives l’a déclaré dans le débat Algoritmos sesgados du CVC et comme Adam Greenfield l’affirme également dans son livre Radical Technologies, nous parlons d’une partie qui impose ses règles à l’autre sans que la partie dominée en soit nécessairement consciente. Un cadre numérique de domination qui, derrière la rhétorique de la fausse objectivité et de l’optimisation, agit comme un voile qui cache les relations sociales d’exploitation (et qui peut même en créer de nouvelles), devenant souvent un bouc émissaire du fait que les responsables de l’exploitation ne sont pas tenus responsables. Blâmer l’algorithme c’est idéal : les variations sont difficiles à vérifier, et l’algorithme n’est pas physique et ne permet donc pas la pression.
Mais comment un algorithme crée-t-il exactement des inégalités ? Ses décisions discriminatoires peuvent provenir des éventuels biais de genre, de race ou de classe inhérents à tout code ou à tout ensemble de données utilisé pour l’entraîner. Dans tous les cas, que ce soit par ignorance ou par intérêt, le pouvoir de domination des algorithmes commence bien plus tôt, lorsque la décision de les utiliser est prise. Selon Rachel Thomas, citant Arvind Narayanan, professeur à Princeton, les logiciels d’apprentissage automatique peuvent être classés en trois groupes.
Perception : recherche inverse d’images ou de sons, diagnostics médicaux, ou encore les hypertrucages médiatiques, appelés deepfakes en anglais. Il y a ici des avancées réalistes et mesurables, reconnues par le monde universitaire.
Reconnaissance et classification : détection des messages indésirables, des violations de la propriété intellectuelle, détection des discours haineux. Il s’agit d’une zone grise où il existe des algorithmes efficaces comme ceux de la première catégorie, mais où il y en a aussi beaucoup qui sont biaisés, perpétuant les inégalités.
Prévision du développement social : il s’agit de la catégorie la plus douteuse, ouvertement pseudo-scientifique, qui tente de détecter les risques terroristes, de signaler les personnes en conflit, de prédire le comportement en matière de finances ou de réussite professionnelle. Ici, bien sûr, entrent en jeu de nombreux algorithmes qui excluent de nombreuses personnes dans le monde, souvent sans qu’elles comprennent comment et pourquoi.
La croyance en l’objectivité post-idéologique des algorithmes conduit aussi souvent à l’affirmation que l’utilisation d’algorithmes ne comporte aucun compromis, mais choisir d’appliquer des algorithmes de ce troisième groupe ou d’un groupe non entièrement développé revient à perpétuer les inégalités. Par exemple : l’algorithme décide qu’une personne ne se verra pas accorder un prêt ou qu’elle n’est pas un bon candidat pour un emploi. En Catalogne, de nombreux permis de prison sont traités par RisCanvi, qui évalue plus de 43 variables, ce qui signifie que la personne privée de liberté ne sait pas clairement pourquoi telle ou telle décision a été prise.
Le fait de ne pas comprendre le raisonnement de l’algorithme est appelé l’effet “boîte noire” et, selon Frank Pasquale, c’est le principal élément de l’inégalité. Le pouvoir judiciaire est obligé d’argumenter des verdicts, mais les algorithmes, mécaniquement objectifs, sont noirs et blancs, mais toujours indiscutables. Si nous savions quelles sont les priorités de l’algorithme, nous pourrions appliquer la loi de Goodhart et lui donner les paramètres qu’il demande, pour qu’il joue en notre faveur. Tant que nous ne connaissons pas l’algorithme, le pouvoir n’est que d’un côté.
Que faire alors ?
Politisons l’analyse de l’algorithme comme sa création l’a été. Nous devons analyser les relations sociales qui sous-tendent l’algorithme, tout comme nous analysons les relations sociales qui sous-tendent la marchandise. Lorsqu’une décision politique d’une entreprise ou d’une administration avait un impact sur les travailleurs ou d’autres collectifs, il était viable de lancer une réponse ou d’entamer une négociation. Cependant, ce chemin se complique lorsqu’il y a un algorithme avec sa fausse patine d’objectivité, qui devient un ennemi éthéré et incompréhensible.
Nous comprenons que le problème n’est pas les algorithmes, car ils peuvent être utiles dans les tâches médicales et scientifiques et peuvent être la clé pour parvenir à une véritable économie planifiée, comme le soulignent certains auteurs tels que Paul Cockshott et Maxi Nieto. Le problème est le capitalisme et son utilisation intéressée de cette technologie comme un autre outil de domination. L’algorithme ne fait rien d’autre que reproduire les inégalités inhérentes au système et la preuve en est que l’association patronale CEOE ne considère pas que l’obligation établie par le ministère du travail de rendre publics les algorithmes des entreprises de livraison précaires (Uber Eats, Deliveroo, Glovo) est une menace pour elles. Outre le détail que la loi n’oblige à publier que la partie de l’algorithme relative au droit du travail (comme si le reste de l’algorithme n’avait aucune influence), il est déjà prouvé que l’exploitation se poursuit avec le passage d’une partie importante de la main-d’œuvre par les agence d’intérim.
La chose est claire : si seul l’algorithme est remis en question, ce n’est pas un problème pour les employeurs, puisque les relations d’exploitation continueront d’exister, qu’elles soient numériques ou analogiques. En outre, l’administration et les mouvements sociaux sont encore dans le flou lorsqu’il s’agit de comprendre et de contrer l’impact de cette technologie sur l’inégalité des travailleurs. Il y a quelques années, des journalistes comme Austin Carr ou Judith Duportail ont décrypté le fonctionnement de l’algorithme de l’application de rencontres Tinder. Il s’est avéré être profondément classiste et pourtant il n’y a eu pratiquement aucune réaction, même parmi les utilisateurs. Peut-être les conséquences n’ont-elles pas été comprises.
Si les algorithmes font de la politique, nous devons les amener à changer de camp et à rechercher d’autres expériences comme le ministère du travail, qui effectue des inspections automatisées pour détecter les faux travailleurs temporaires, ou les BreadTubers, qui publient des contenus de gauche en faisant croire à l’algorithme de YouTube que leurs vidéos sont d’extrême droite. Si les algorithmes devaient servir à dominer, ils peuvent aussi servir à remettre en question cette domination.