Il est nécessaire de construire d’autres politiques publiques pour la société algorithmique
Les données numériques et l’intelligence généralisée par le biais d’algorithmes sur les comportements des personnes sur le territoire numérique, et sur les phénomènes naturels et les artefacts, sont à la base d’une économie numérique.
Avec la révolution industrielle, les machines sont rapidement devenues pratiquement inévitables partout ; il en sera de même pour une grande partie des processus et systèmes économiques basés sur l’intelligence numérique, car l’économie numérique est au cœur de la redéfinition numérique du monde. Le dividende de l’efficacité est trop élevé, et une foule de services entièrement nouveaux sont trop attrayants pour que les sociétés y résistent.
Une condition importante de la démocratie en matière de politique numérique est de permettre aux gens de garder le contrôle de leurs informations personnelles et de leur parcours sur le territoire numérique. Les citoyens de l’internet doivent pouvoir refuser complètement l’accès à certains types de données et n’en partager d’autres qu’avec des parties de confiance. En outre, ils doivent pouvoir connaître et contrôler toute utilisation ultérieure de leurs informations personnelles, dont l’abus peut causer un préjudice grave. Ce sont les principes fondamentaux qui sous-tendent plusieurs régimes de protection des données personnelles, tels que le règlement général sur la protection des données de l’Union européenne (RGPD) et la loi sur la protection des données proposée par l’Inde.
Comme l’économie numérique prévaut de plus en plus dans la plupart des relations économiques, l’accès à divers types de données et leur contrôle déterminent l’avantage ou le désavantage économique comparatif des acteurs concernés. C’est une question très différente de celle de la vie privée.
Les lois visant à protéger la confidentialité des données peuvent avoir certaines implications pour la protection des personnes contre l’exploitation économique des données. La raison en est que les lois actuelles sur la protection des données ne se concentrent pas sur la dimension économique, même en termes de citoyens. Alors que le principal pilier de l’économie numérique passe de la publicité ciblée, pour laquelle les données personnelles sont essentielles, à une gestion intelligente des activités de l’industrie basée sur les données, les données anonymes et agrégées deviennent de plus en plus importantes. Les algorithmes appliqués à l’intelligence artificielle, par exemple, sont basés sur de telles données et constituent la principale force de l’économie numérique.
Les États-Unis et leurs alliés ont une forte emprise sur les discours politiques mondiaux. Toute discussion sur les “données en tant que ressource” va immédiatement dans le sens d’une remise en cause de l’extraction mondiale de données précieuses par les entreprises américaines. Avec le soutien de leurs alliés, les États-Unis s’efforcent maintenant d’obtenir de tous les pays qu’ils souscrivent à un régime de “libre circulation mondiale des données”. Celui qui collecte les données est le propriétaire.
Malheureusement, la plupart des activistes numériques, même dans les pays en développement, se concentrent encore exclusivement sur la question de la vie privée, qui est certainement très importante. Ils ignorent complètement les droits économiques sur les données. Il semble y avoir un parti pris de l’élite ici, selon lequel les marchés sont censés assurer eux-mêmes l’équité. Mais la logique du marché ne semble pas fonctionner pour le chauffeur d’Uber, le commerçant d’amazone et le petit restaurant et hôtel gérés respectivement par les plateformes de livraison de nourriture et de réservation d’hébergement.
Entre son allégeance géo-économique aux États-Unis et les perspectives d’érosion rapide de l’économie numérique, l’Union européenne (UE) a commencé à émettre quelques timides remarques sur les droits économiques sur les données, y compris les données non personnelles, qui pourraient être des données collectives/groupes, ou des artefacts et données naturels. Ses documents politiques parlent de l’accès obligatoire aux données numériques avec des entreprises privées, qui est nécessaire à des fins d’intérêt public.
Les autorités de la concurrence de l’UE enquêtent pour savoir qui détient les droits sur les données relatives aux produits proposés à la vente par des tiers sur la plateforme Amazon, le vendeur ou Amazon. Un autre document politique de l’UE se demande si le propriétaire d’une usine doit posséder les données sur la machine qui provient de l’usine ou le fournisseur des applications numériques qui peuvent faire fonctionner ces machines.
L’UE doit être remise en question car ces nouvelles positions de politique intérieure s’inscrivent dans le cadre de son soutien aux États-Unis dans les forums commerciaux mondiaux sur les régimes de “libre circulation mondiale des données
La pandémie et le contexte numérique
À l’époque de COVID-19, nous assistons à une évaluation des chiffres, des pourcentages, des tableaux présentant des courbes, des analyses de données statistiques, bref, devant “l’écran”, nous prenons en compte à quoi servent les mathématiques et peut-être en particulier l’analyse des données.
Jamais l’humanité n’a autant été dépendante de l’infrastructure des télécommunications et des plateformes logicielles qui fournissent des services sur l’internet. La quarantaine mondiale est possible parce que nous pouvons nous connecter à l’internet et interagir avec les services du web. À tel point que nous apprécions le travail de services des plateformes de distribution commerciale, de livraison et qui représentent un maximum de flexibilité du travail et la méconnaissance des droits du travailleur.
Il est très courant de trouver des notes journalistiques qui font référence aux algorithmes. Que ce soit dans le domaine de l’économie, de la technologie ou des modes de vie, ces processus mathématiques sont devenus en peu de temps un élément fixe de notre information quotidienne.
Comme les algorithmes sont les “agents intelligents” invisibles de la redéfinition du monde numérique, il est urgent de parler de la manière d’alerter les citoyens sur les impacts des systèmes de données qui prennent des décisions sur nos opportunités, nos droits et nos possibilités vitales. Si un jour on vous refuse un emploi, des soins médicaux, l’entrée dans le système bancaire, l’accès aux bourses ou aux contrats de votre vie professionnelle parce qu’un algorithme le dicte, vers qui peut-on se tourner ?
Un algorithme, ainsi que les données avec lesquelles il est formé, peuvent être biaisés par sa propre conceptualisation. La société algorithmique reproduit-elle les concepts du modèle de distribution de la richesse et de l’inégalité d’accès à la connaissance ?
Plusieurs auteurs, notamment Cathy O’Neil dans son livre “Algorithmes : la bombe à retardement”, ont dénoncé le fait que les développements de ces modèles intégrés dans les logiciels ne sont pas réglementés par les États. Ainsi, ils créent une société duale dans laquelle les riches ont le privilège d’une attention personnalisée, humaine et réglementée tandis que les groupes vulnérables sont condamnés aux résultats de “machines intelligentes”, dans lesquelles il n’y a ni transparence, ni droits, ni procédures claires de recours contre les décisions algorithmiques.
Les algorithmes forment un système de notation. Si votre score est suffisamment élevé, on vous donne le choix, mais si vous ne l’obtenez pas, on vous le refuse. Le score algorithmique peut concerner une demande d’emploi ou d’admission dans un établissement d’enseignement, une carte de crédit ou une police d’assurance. L’algorithme vous attribue une note de manière secrète, vous ne pouvez pas la comprendre, vous ne pouvez pas faire appel. Nous ne savons pas comment cela fonctionne. Elle utilise une méthode de prise de décision qui n’est pas connue du public.
Cependant, non seulement il est injuste pour le citoyen, mais ce système de décision est généralement aussi destructeur pour la société. Avec les algorithmes, nous essayons de transcender les préjugés humains. S’ils échouent, ils font entrer la société dans une boucle destructrice, car ils augmentent progressivement les inégalités. Mais il peut aussi s’agir de quelque chose de plus précis. Il peut s’agir d’un algorithme pour décider qui obtient une mise à l’épreuve, un algorithme qui détermine quels quartiers subissent une plus grande pression policière en fonction de la présence de stéréotypes configurés dans les données de formation de l’algorithme.
Nombre de ces questions méritent une réflexion sociale approfondie et l’articulation d’un consensus technico-politique et social sur ce qui est et ce qui n’est pas acceptable et souhaitable. Pour commencer à articuler ce consensus, nous avons besoin d’outils qui nous aident à comprendre ce qui se passe. L’information du public sur le comportement des algorithmes et des données de formation peut-elle être cet outil ?
Redéfinir le monde numérique
La compréhension de la portée des algorithmes et de leurs contextes d’application nous aidera à comprendre comment la numérisation de la vie quotidienne et notre relation avec les plateformes et services numériques sont guidées par une infrastructure informatique qui façonne le processus des algorithmes. Il faut donc comprendre, discuter et critiquer la façon dont les algorithmes, que nous ne connaissons pas, marquent nos journées.
Un algorithme est défini comme “un ensemble ordonné et fini d’opérations qui permet de trouver la solution d’un problème”. Ces actions sont formées avec des données pour obtenir des conclusions et des connaissances.
L’expansion des méthodes de calcul exprimées sous forme d’algorithmes, dont certains sont disponibles depuis 1950, est en grande partie due à la rencontre des logiciels (applications APP), des capacités de traitement à grande échelle et de la bande passante croissante de l’Internet forment aujourd’hui le territoire des Big Data.
Les calculs pénètrent si intimement dans nos vies que nous ne pouvons pas percevoir clairement comment ils conduisent nos données vers des infrastructures statistiques situées sur des serveurs distants. Ainsi, un nombre croissant de domaines de connaissance tels que la culture, la connaissance et l’information, la santé, la ville, les transports, le travail, la finance et même l’amour et le sexe sont médiés par des algorithmes.
La première grande expansion de Facebook a coïncidé avec la première crise économique de 2007, qui a stimulé le développement de services de plateforme numérique visant à individualiser, orienter et guider chaque internaute. En 2015, Facebook comptait 1,35 milliard d’utilisateurs enregistrés, qui communiquaient en 70 langues et utilisaient 50.000 serveurs (ordinateurs à haute capacité de traitement et de stockage). Facebook est ainsi devenu l’un des “propriétaires de l’Internet” contrôlant Instagram depuis 2012 et Whatsapp depuis 2014 ; une énorme entreprise représentant plus de 25 milliards de dollars par an et un volume de données bien supérieur aux millions de dollars estimés.
La valeur politique du flux de données permanent de cette plateforme numérique a été visible en 2013 lorsque l’Agence de sécurité nationale américaine a reconnu l’utilisation de Facebook pour traquer les citoyens qui ont “innocemment” fourni leurs données, des informations qui avaient été la cible de travaux de renseignement pendant des années.
Quelque chose de similaire se produit avec les moteurs de recherche tels que Google qui véhiculent des cookies invisibles (petits logiciels avec algorithmes) qui permettent d’identifier les utilisateurs et de cartographier leur navigation sur le web et la profondeur de pénétration dans chacun d’eux, ces données configurent les nouveaux produits commerciaux numériques.
La quarantaine dans laquelle nous vivons nous place dans le contexte du télétravail, du télé-enseignement, du télé-divertissement, de la vidéoconférence ; toutes les relations sociales à travers l’écran d’un appareil qui se connecte à Internet.
Deux dynamiques progressent pour nous faire entrer dans une “société de l’algorithme”. Le premier est la numérisation de la société avec une demande croissante des citoyens d’être inclus ; le second est le développement de processus. Ces derniers, par l’intermédiaire de logiciels, fournissent aux ordinateurs/serveurs les instructions mathématiques permettant de classer, ordonner, regrouper, prédire, traiter, agréger et représenter les informations au moyen de données de plus en plus invisibles.
Les mouvements des personnes, les tickets d’achat, les clics sur Internet, la consommation en ligne, le temps passé à lire un livre numérique, le temps passé à écouter de la musique et à regarder une vidéo à la demande ; sont cryptés par des algorithmes, des algorithmes qui classifient et prédisent notre consommation actuelle et future.
Omniprésents dans nos vies, les algorithmes sont présentés comme “mystérieux” à notre connaissance dans le but de ne pas connaître leur existence et leur fonctionnalité. Une nouvelle religion avec de nouveaux actes de foi. On s’interroge rarement sur la manière dont ces processus de logique et de calcul se produisent et sur la vision du monde qu’ils impliquent.
La société numérique a mis les citoyens à la place du consommateur numérique, nous savons comment faire fonctionner les appareils et nous consommons du contenu par le biais d’applications. Nous ne connaissons pas les processus et les procédures qui régissent la société numérique. Par exemple, que les algorithmes utilisés par les géants technologiques, connus sous le nom de GAFAM (Google, Amazon, Facebook, Apple et Microsoft), ne sont pas toujours équitables dans les décisions qu’ils prennent.
Les algorithmes fonctionnent à l’intérieur de “boîtes noires”, nous ne connaissons pas leurs fonctionnalités. La valeur qui fait bouger le calcul algorithmique n’est autre que celle de la personnalisation, celle de l’individualisme. Ce biais dans la fabrication du logiciel qui met en œuvre l’algorithme répond à des modèles politiques et culturels de relations sociales et de distribution des connaissances et des richesses. Ces préjugés peuvent également affecter des décisions telles que l’assurance maladie ou l’aide sociale ou encore le prépaiement, la scolarisation ou l’inscription au casier judiciaire, l’acceptation d’une demande d’emploi. Les données ne concernent que les questions et les intérêts de ceux qui les interrogent.
Dans la culture actuelle, les calculs algorithmiques piègent les désirs de liberté et de services à la personne ; où les individus, à travers leurs représentations, leurs ambitions et leurs projets, se considèrent comme des sujets autonomes, en dehors des modèles politiques inclusifs ou exclusifs.
Il est nécessaire de construire d’autres politiques publiques pour la société algorithmique. Les processus et les biais doivent être explicités aux citoyens, sous forme d’alertes dans le monde de l’Internet et dans les statistiques de l’État. L’État doit garantir aux citoyens une visibilité publique sur le comportement des algorithmes et des données de formation.
Il est nécessaire de connaître la vision politique et culturelle qui est mise en œuvre dans les processus algorithmiques et le biais des données qui donnent les résultats comme des vérités. Un regard critique sur le fonctionnement des calculs cachés doit être posé. Il est nécessaire de savoir quel sens et quel objectif les algorithmes mettent en œuvre. Ces sens forment un monde possible où la reconnaissance du mérite est sans entrave ; où l’autorité ne s’obtient qu’autour de la qualité et de la résilience.
Les GAFAM visent à installer un environnement technologique invisible qui permet aux gens de s’orienter, sans les contredire. La plupart de nos choix quotidiens sont faits par une infrastructure socio-technique ; acheter un billet d’avion, la traduction automatique des langues, trouver le meilleur restaurant, obtenir un rendez-vous personnel, remplir le frigo ou charger sa carte numérique pour utiliser les transports publics.
Avec le GPS, nous avons perdu le paysage. Les algorithmes guident nos préférences et lient nos choix. Ils réalisent le rêve libéral d’une élection non liée, mais ce rêve cache aussi son autre facette. Une liberté algorithmique.