La parole de Dieu. Par mandat royal. C’est l’économie, idiot. L’histoire nous offre constamment des exemples de la façon dont les gens ont recours au mythe d’une autorité supérieure pour habiller leurs décisions d’une prétendue justice objective. Pour Cathy O’Neil, les algorithmes sont le prochain mythe sur cette liste.
Cathy O’Neil, mathématicienne diplômée de Harvard et post-doc au Massachusetts Institute of Technology — MIT, a été l’une des premières à souligner que notre nouvel empereur est nu. Un algorithme (ou la célèbre Intelligence Artificielle, qui “n’est rien d’autre qu’un terme marketing pour les algorithmes”) est aussi sexiste, raciste ou discriminatoire que celui qui le conçoit. Mal programmés, ils peuvent devenir des armes de destruction mathématique (Captain Swing), comme elle le décrit dans son livre sur le danger qu’ils représentent pour la démocratie.
Affirmez-vous qu’il existe une différence entre ce que les gens pensent être un algorithme et ce qu’est réellement un algorithme. Lequel des deux est-ce ?
Les gens considèrent un algorithme comme une méthode permettant d’essayer de parvenir à une vérité objective. Nous avons développé une foi aveugle en eux parce que nous pensons qu’il y a une autorité scientifique derrière eux.
En réalité, un algorithme est une chose stupide, essentiellement un système de profilage démographique généré à partir du big data. Il détermine si vous êtes un client qui paye ou évolue si vous êtes un potentiel acheteur d’une maison en se basant sur les indices que vous avez laissés, comme votre classe sociale, votre richesse, votre race ou votre origine ethnique.
Qu’est-ce qu’une arme de destruction mathématique ?
C’est un algorithme majeur, secret et destructeur. Injuste pour les personnes qu’il évalue.
Il s’agit généralement d’un système de notation. Si vous obtenez un score suffisamment élevé, une option vous est proposée, mais si vous ne l’obtenez pas, vous êtes refusé. Il peut s’agir d’un emploi ou d’une admission à l’université, d’une carte de crédit ou d’une police d’assurance. L’algorithme vous attribue un score de manière secrète, vous ne pouvez pas le comprendre, vous ne pouvez pas faire appel. Il utilise une méthode de prise de décision injuste.
Cependant, non seulement c’est injuste pour l’individu, mais ce système de décision est généralement destructeur pour la société également. Avec les algorithmes, nous essayons de transcender les préjugés humains, nous essayons de mettre en œuvre un outil scientifique. S’ils échouent, ils font entrer la société dans une boucle destructrice, car ils accroissent progressivement les inégalités.
Mais cela peut aussi être quelque chose de plus précis. Il pourrait s’agir d’un algorithme permettant de décider qui bénéficie d’une probation raciste, d’un algorithme déterminant les quartiers les plus surveillés en fonction de la présence de minorités…
Qui devons-nous tenir pour responsable lorsqu’un algorithme est injuste ?
C’est une bonne question. La semaine dernière, on a appris qu’Amazon avait un algorithme de recrutement sexiste. Chaque fois que quelque chose comme ça arrive, les entreprises sont choquées, toute la communauté technologique est choquée. C’est vraiment une fausse réaction, il y a des exemples d’algorithmes discriminatoires partout.
S’ils admettaient que les algorithmes sont imparfaits et peuvent potentiellement être racistes ou sexistes, illégaux, ils devraient alors aborder ce problème pour tous les algorithmes qu’ils utilisent. S’ils prétendent que personne ne sait rien, ils peuvent continuer à promulguer cette foi aveugle dans les algorithmes, qu’ils n’ont pas vraiment, mais qu’ils savent que le reste du public possède.
C’est pourquoi j’ai écrit ce livre, pour que les gens ne soient plus intimidés par les modèles mathématiques. Vous n’avez pas à abandonner l’automatisation ou à cesser de faire confiance aux algorithmes, mais vous devez les tenir pour responsables. Surtout lorsqu’ils opèrent dans un domaine où il n’existe pas de définition claire de ce qu’est le “succès”. C’est le genre d’algorithme qui m’inquiète. Celui qui contrôle l’algorithme contrôle la définition du succès. Les algorithmes fonctionnent toujours bien pour les personnes qui les conçoivent, mais nous ne savons pas s’ils fonctionnent bien pour les personnes visées par ces algorithmes. Ils peuvent être terriblement injustes envers eux.
La prochaine révolution politique consistera-t-elle à contrôler les algorithmes ?
Dans un sens, oui. Je pense que les algorithmes remplaceront tous les processus bureaucratiques humains parce qu’ils sont moins chers, plus faciles à entretenir et beaucoup plus faciles à contrôler. Donc, oui : la question de savoir qui a le contrôle est liée à qui déploie cet algorithme. J’espère que nous aurons un contrôle responsable sur eux.
Mais si vous regardez un endroit comme la Chine, où il existe des systèmes de notation sociale qui sont des tentatives explicites de contrôler les citoyens, je ne suis pas très optimiste quant à la possibilité pour les citoyens chinois de posséder ces algorithmes. Dans ces cas, nous parlons d’une dystopie, d’une société de surveillance où le gouvernement contrôle les citoyens avec des algorithmes, comme d’une menace réelle. C’est quelque chose qui peut arriver.
Pour l’instant, le pouvoir politique n’a pas fait grand-chose pour améliorer la transparence des algorithmes.
Oui, c’est un vrai problème. Les politiciens pensent qu’à partir de leur position, ils auront en main le contrôle des algorithmes, donc ils ne veulent pas abandonner ce pouvoir, même si c’est mauvais pour la démocratie.
C’est une considération très sérieuse. Comme je le dis dans le livre, Obama était adoré par la gauche pour son utilisation du big data pour augmenter les dons ou améliorer la segmentation des messages. Mais il s’agissait d’un précédent très dangereux : lors des dernières élections, nous avons vu comment la campagne de Trump a réussi à supprimer le vote des Afro-Américains grâce à cette même segmentation des messages par les algorithmes de Facebook.
Vous avez publié votre livre en 2016. Est-ce que quelque chose a changé depuis ?
Lorsque j’ai écrit le livre, je ne connaissais personne qui se préoccupait de cette question. Cela a changé. Je reviens de Barcelone, où j’ai vu 300 personnes, principalement des jeunes, préoccupées par cette question. C’est un phénomène émergent dans le monde entier, les gens commencent à voir les dégâts, le mal qui est là. La plupart de ces dommages algorithmiques ne sont pas vus, ils ne sont pas visibles. Le fait que les gens soient plus conscients signifie que nous pouvons espérer qu’il y aura une demande pour que les algorithmes soient tenus responsables. J’espère que ça arrivera.