La société algorithmique

Par Alfre­do Moreno

/

ALAI


Tra­duit par ZIN TV

Alfre­do More­no est pro­fes­seur à l’u­ni­ver­si­té natio­nale de More­no en Argen­tine et ingé­nieur  TIC auprès de ARSAT

@ticdata2

www.ticdata.com.ar

Illus­tra­tions : Jan Von Holleben

EN LIEN :

Julian Assange sera le premier

PVLS - Permanence vidéo des luttes sociales
FR-ENG - 16 min

Appel/pétition : les radios libres et gratuites contre le rouleau compresseur du numérique

Article

Ces militants qui jouent avec « Avatar »

Article - Par Hen­ry Jenkins

Des écrans tactiles sources d’exclusion

Article

Edward Snowden : « J’aurais dû me manifester plus tôt. »

Article

Éradiquer Facebook pour sauver la démocratie

Article

L’Arenberg menacé par la “culture 2.0”

Article

Julian Assange : une bataille épique pour la justice

Article

La fin du journalisme

Article - Par Igna­cio Ramonet

Transformer les médias

Article

L’internationale des coursiers

VO ST FR - UK - 8 min 26 sec

Comment prendre le pouvoir sans être pris par le pouvoir ?

Outil - Podemos o no… Par Nestor Romero

Projet pour une presse libre

Outil

Le logiciel libre et votre liberté

Outil - Par Richard Stallman

Ce qui arrive à Assange devrait terrifier la presse

Article - par Chris Hedges

Julian Assange acculé

Article - par Sal­ly Burch

La CIA découvre son arsenal de cyber espionnage grâce à WikiLeaks

Article - Par Kevin Reed

Rassemblement à Bruxelles : Libérez Assange !

PVLS - Permanence vidéo des luttes sociales
VF - 4 min 42 sec

No extradition for Assange

PVLS - Permanence vidéo des luttes sociales
FR - 8 min 30

N’abandonnons pas Julian Assange !

PVLS - Permanence vidéo des luttes sociales
FR-ENG - 1 min 09

Plainte contre Google pour diffamation

Article - Les2Rives

La prison des algorithmes

Article - Par Fer­nan­do Buen Abad Domínguez

Les hackers ne sont pas des délinquants

Article - Par Alber­to Quian

Pourquoi le monde va mal

Article - Par Jona­than Cook

Pour le contrôle des algorithmes

Article - Par Car­los del Castillo

Il est néces­saire de construire d’autres poli­tiques publiques pour la socié­té algorithmique

Les don­nées numé­riques et l’in­tel­li­gence géné­ra­li­sée par le biais d’al­go­rithmes sur les com­por­te­ments des per­sonnes sur le ter­ri­toire numé­rique, et sur les phé­no­mènes natu­rels et les arte­facts, sont à la base d’une éco­no­mie numérique.

Avec la révo­lu­tion indus­trielle, les machines sont rapi­de­ment deve­nues pra­ti­que­ment inévi­tables par­tout ; il en sera de même pour une grande par­tie des pro­ces­sus et sys­tèmes éco­no­miques basés sur l’in­tel­li­gence numé­rique, car l’é­co­no­mie numé­rique est au cœur de la redé­fi­ni­tion numé­rique du monde. Le divi­dende de l’ef­fi­ca­ci­té est trop éle­vé, et une foule de ser­vices entiè­re­ment nou­veaux sont trop attrayants pour que les socié­tés y résistent.

Une condi­tion impor­tante de la démo­cra­tie en matière de poli­tique numé­rique est de per­mettre aux gens de gar­der le contrôle de leurs infor­ma­tions per­son­nelles et de leur par­cours sur le ter­ri­toire numé­rique. Les citoyens de l’in­ter­net doivent pou­voir refu­ser com­plè­te­ment l’ac­cès à cer­tains types de don­nées et n’en par­ta­ger d’autres qu’a­vec des par­ties de confiance. En outre, ils doivent pou­voir connaître et contrô­ler toute uti­li­sa­tion ulté­rieure de leurs infor­ma­tions per­son­nelles, dont l’a­bus peut cau­ser un pré­ju­dice grave. Ce sont les prin­cipes fon­da­men­taux qui sous-tendent plu­sieurs régimes de pro­tec­tion des don­nées per­son­nelles, tels que le règle­ment géné­ral sur la pro­tec­tion des don­nées de l’U­nion euro­péenne (RGPD) et la loi sur la pro­tec­tion des don­nées pro­po­sée par l’Inde.

Comme l’é­co­no­mie numé­rique pré­vaut de plus en plus dans la plu­part des rela­tions éco­no­miques, l’ac­cès à divers types de don­nées et leur contrôle déter­minent l’a­van­tage ou le désa­van­tage éco­no­mique com­pa­ra­tif des acteurs concer­nés. C’est une ques­tion très dif­fé­rente de celle de la vie privée.

Les lois visant à pro­té­ger la confi­den­tia­li­té des don­nées peuvent avoir cer­taines impli­ca­tions pour la pro­tec­tion des per­sonnes contre l’ex­ploi­ta­tion éco­no­mique des don­nées. La rai­son en est que les lois actuelles sur la pro­tec­tion des don­nées ne se concentrent pas sur la dimen­sion éco­no­mique, même en termes de citoyens. Alors que le prin­ci­pal pilier de l’é­co­no­mie numé­rique passe de la publi­ci­té ciblée, pour laquelle les don­nées per­son­nelles sont essen­tielles, à une ges­tion intel­li­gente des acti­vi­tés de l’in­dus­trie basée sur les don­nées, les don­nées ano­nymes et agré­gées deviennent de plus en plus impor­tantes. Les algo­rithmes appli­qués à l’in­tel­li­gence arti­fi­cielle, par exemple, sont basés sur de telles don­nées et consti­tuent la prin­ci­pale force de l’é­co­no­mie numérique.

Les États-Unis et leurs alliés ont une forte emprise sur les dis­cours poli­tiques mon­diaux. Toute dis­cus­sion sur les “don­nées en tant que res­source” va immé­dia­te­ment dans le sens d’une remise en cause de l’ex­trac­tion mon­diale de don­nées pré­cieuses par les entre­prises amé­ri­caines. Avec le sou­tien de leurs alliés, les États-Unis s’ef­forcent main­te­nant d’ob­te­nir de tous les pays qu’ils sous­crivent à un régime de “libre cir­cu­la­tion mon­diale des don­nées”.  Celui qui col­lecte les don­nées est le propriétaire.

Mal­heu­reu­se­ment, la plu­part des acti­vistes numé­riques, même dans les pays en déve­lop­pe­ment, se concentrent encore exclu­si­ve­ment sur la ques­tion de la vie pri­vée, qui est cer­tai­ne­ment très impor­tante. Ils ignorent com­plè­te­ment les droits éco­no­miques sur les don­nées. Il semble y avoir un par­ti pris de l’é­lite ici, selon lequel les mar­chés sont cen­sés assu­rer eux-mêmes l’é­qui­té. Mais la logique du mar­ché ne semble pas fonc­tion­ner pour le chauf­feur d’U­ber, le com­mer­çant d’amazone et le petit res­tau­rant et hôtel gérés res­pec­ti­ve­ment par les pla­te­formes de livrai­son de nour­ri­ture et de réser­va­tion d’hébergement.

Entre son allé­geance géo-éco­no­mique aux États-Unis et les pers­pec­tives d’é­ro­sion rapide de l’é­co­no­mie numé­rique, l’U­nion euro­péenne (UE) a com­men­cé à émettre quelques timides remarques sur les droits éco­no­miques sur les don­nées, y com­pris les don­nées non per­son­nelles, qui pour­raient être des don­nées collectives/groupes, ou des arte­facts et don­nées natu­rels. Ses docu­ments poli­tiques parlent de l’ac­cès obli­ga­toire aux don­nées numé­riques avec des entre­prises pri­vées, qui est néces­saire à des fins d’in­té­rêt public.

Les auto­ri­tés de la concur­rence de l’UE enquêtent pour savoir qui détient les droits sur les don­nées rela­tives aux pro­duits pro­po­sés à la vente par des tiers sur la pla­te­forme Ama­zon, le ven­deur ou Ama­zon. Un autre docu­ment poli­tique de l’UE se demande si le pro­prié­taire d’une usine doit pos­sé­der les don­nées sur la machine qui pro­vient de l’u­sine ou le four­nis­seur des appli­ca­tions numé­riques qui peuvent faire fonc­tion­ner ces machines.

L’UE doit être remise en ques­tion car ces nou­velles posi­tions de poli­tique inté­rieure s’ins­crivent dans le cadre de son sou­tien aux États-Unis dans les forums com­mer­ciaux mon­diaux sur les régimes de “libre cir­cu­la­tion mon­diale des données

La pandémie et le contexte numérique

À l’é­poque de COVID-19, nous assis­tons à une éva­lua­tion des chiffres, des pour­cen­tages, des tableaux pré­sen­tant des courbes, des ana­lyses de don­nées sta­tis­tiques, bref, devant “l’é­cran”, nous pre­nons en compte à quoi servent les mathé­ma­tiques et peut-être en par­ti­cu­lier l’a­na­lyse des données.

Jamais l’hu­ma­ni­té n’a autant été dépen­dante de l’in­fra­struc­ture des télé­com­mu­ni­ca­tions et des pla­te­formes logi­cielles qui four­nissent des ser­vices sur l’in­ter­net. La qua­ran­taine mon­diale est pos­sible parce que nous pou­vons nous connec­ter à l’in­ter­net et inter­agir avec les ser­vices du web. À tel point que nous appré­cions le tra­vail de ser­vices des pla­te­formes de dis­tri­bu­tion com­mer­ciale, de livrai­son et qui repré­sentent un maxi­mum de flexi­bi­li­té du tra­vail et la mécon­nais­sance des droits du travailleur.

Il est très cou­rant de trou­ver des notes jour­na­lis­tiques qui font réfé­rence aux algo­rithmes. Que ce soit dans le domaine de l’é­co­no­mie, de la tech­no­lo­gie ou des modes de vie, ces pro­ces­sus mathé­ma­tiques sont deve­nus en peu de temps un élé­ment fixe de notre infor­ma­tion quotidienne.

Comme les algo­rithmes sont les “agents intel­li­gents” invi­sibles de la redé­fi­ni­tion du monde numé­rique, il est urgent de par­ler de la manière d’a­ler­ter les citoyens sur les impacts des sys­tèmes de don­nées qui prennent des déci­sions sur nos oppor­tu­ni­tés, nos droits et nos pos­si­bi­li­tés vitales. Si un jour on vous refuse un emploi, des soins médi­caux, l’en­trée dans le sys­tème ban­caire, l’ac­cès aux bourses ou aux contrats de votre vie pro­fes­sion­nelle parce qu’un algo­rithme le dicte, vers qui peut-on se tourner ?

Un algo­rithme, ain­si que les don­nées avec les­quelles il est for­mé, peuvent être biai­sés par sa propre concep­tua­li­sa­tion. La socié­té algo­rith­mique repro­duit-elle les concepts du modèle de dis­tri­bu­tion de la richesse et de l’i­né­ga­li­té d’ac­cès à la connaissance ?

Plu­sieurs auteurs, notam­ment Cathy O’Neil dans son livre “Algo­rithmes : la bombe à retar­de­ment”, ont dénon­cé le fait que les déve­lop­pe­ments de ces modèles inté­grés dans les logi­ciels ne sont pas régle­men­tés par les États.  Ain­si, ils créent une socié­té duale dans laquelle les riches ont le pri­vi­lège d’une atten­tion per­son­na­li­sée, humaine et régle­men­tée tan­dis que les groupes vul­né­rables sont condam­nés aux résul­tats de “machines intel­li­gentes”, dans les­quelles il n’y a ni trans­pa­rence, ni droits, ni pro­cé­dures claires de recours contre les déci­sions algorithmiques.

Les algo­rithmes forment un sys­tème de nota­tion. Si votre score est suf­fi­sam­ment éle­vé, on vous donne le choix, mais si vous ne l’ob­te­nez pas, on vous le refuse. Le score algo­rith­mique peut concer­ner une demande d’emploi ou d’ad­mis­sion dans un éta­blis­se­ment d’en­sei­gne­ment, une carte de cré­dit ou une police d’as­su­rance. L’al­go­rithme vous attri­bue une note de manière secrète, vous ne pou­vez pas la com­prendre, vous ne pou­vez pas faire appel. Nous ne savons pas com­ment cela fonc­tionne. Elle uti­lise une méthode de prise de déci­sion qui n’est pas connue du public.

Cepen­dant, non seule­ment il est injuste pour le citoyen, mais ce sys­tème de déci­sion est géné­ra­le­ment aus­si des­truc­teur pour la socié­té. Avec les algo­rithmes, nous essayons de trans­cen­der les pré­ju­gés humains. S’ils échouent, ils font entrer la socié­té dans une boucle des­truc­trice, car ils aug­mentent pro­gres­si­ve­ment les inéga­li­tés. Mais il peut aus­si s’a­gir de quelque chose de plus pré­cis. Il peut s’a­gir d’un algo­rithme pour déci­der qui obtient une mise à l’é­preuve, un algo­rithme qui déter­mine quels quar­tiers subissent une plus grande pres­sion poli­cière en fonc­tion de la pré­sence de sté­réo­types confi­gu­rés dans les don­nées de for­ma­tion de l’algorithme.

Nombre de ces ques­tions méritent une réflexion sociale appro­fon­die et l’ar­ti­cu­la­tion d’un consen­sus tech­ni­co-poli­tique et social sur ce qui est et ce qui n’est pas accep­table et sou­hai­table. Pour com­men­cer à arti­cu­ler ce consen­sus, nous avons besoin d’ou­tils qui nous aident à com­prendre ce qui se passe. L’in­for­ma­tion du public sur le com­por­te­ment des algo­rithmes et des don­nées de for­ma­tion peut-elle être cet outil ?

 

Redéfinir le monde numérique

La com­pré­hen­sion de la por­tée des algo­rithmes et de leurs contextes d’ap­pli­ca­tion nous aide­ra à com­prendre com­ment la numé­ri­sa­tion de la vie quo­ti­dienne et notre rela­tion avec les pla­te­formes et ser­vices numé­riques sont gui­dées par une infra­struc­ture infor­ma­tique qui façonne le pro­ces­sus des algo­rithmes. Il faut donc com­prendre, dis­cu­ter et cri­ti­quer la façon dont les algo­rithmes, que nous ne connais­sons pas, marquent nos journées.

Un algo­rithme est défi­ni comme “un ensemble ordon­né et fini d’o­pé­ra­tions qui per­met de trou­ver la solu­tion d’un pro­blème”. Ces actions sont for­mées avec des don­nées pour obte­nir des conclu­sions et des connaissances.

L’ex­pan­sion des méthodes de cal­cul expri­mées sous forme d’al­go­rithmes, dont cer­tains sont dis­po­nibles depuis 1950, est en grande par­tie due à la ren­contre des logi­ciels (appli­ca­tions APP), des capa­ci­tés de trai­te­ment à grande échelle et de la bande pas­sante crois­sante de l’In­ter­net forment aujourd’­hui le ter­ri­toire des Big Data.

Les cal­culs pénètrent si inti­me­ment dans nos vies que nous ne pou­vons pas per­ce­voir clai­re­ment com­ment ils conduisent nos don­nées vers des infra­struc­tures sta­tis­tiques situées sur des ser­veurs dis­tants. Ain­si, un nombre crois­sant de domaines de connais­sance tels que la culture, la connais­sance et l’in­for­ma­tion, la san­té, la ville, les trans­ports, le tra­vail, la finance et même l’a­mour et le sexe sont médiés par des algorithmes.

La pre­mière grande expan­sion de Face­book a coïn­ci­dé avec la pre­mière crise éco­no­mique de 2007, qui a sti­mu­lé le déve­lop­pe­ment de ser­vices de pla­te­forme numé­rique visant à indi­vi­dua­li­ser, orien­ter et gui­der chaque inter­naute. En 2015, Face­book comp­tait 1,35 mil­liard d’u­ti­li­sa­teurs enre­gis­trés, qui com­mu­ni­quaient en 70 langues et uti­li­saient 50.000 ser­veurs (ordi­na­teurs à haute capa­ci­té de trai­te­ment et de sto­ckage). Face­book est ain­si deve­nu l’un des “pro­prié­taires de l’In­ter­net” contrô­lant Ins­ta­gram depuis 2012 et What­sapp depuis 2014 ; une énorme entre­prise repré­sen­tant plus de 25 mil­liards de dol­lars par an et un volume de don­nées bien supé­rieur aux mil­lions de dol­lars estimés.

La valeur poli­tique du flux de don­nées per­ma­nent de cette pla­te­forme numé­rique a été visible en 2013 lorsque l’A­gence de sécu­ri­té natio­nale amé­ri­caine a recon­nu l’u­ti­li­sa­tion de Face­book pour tra­quer les citoyens qui ont “inno­cem­ment” four­ni leurs don­nées, des infor­ma­tions qui avaient été la cible de tra­vaux de ren­sei­gne­ment pen­dant des années.

Quelque chose de simi­laire se pro­duit avec les moteurs de recherche tels que Google qui véhi­culent des cookies invi­sibles (petits logi­ciels avec algo­rithmes) qui per­mettent d’i­den­ti­fier les uti­li­sa­teurs et de car­to­gra­phier leur navi­ga­tion sur le web et la pro­fon­deur de péné­tra­tion dans cha­cun d’eux, ces don­nées confi­gurent les nou­veaux pro­duits com­mer­ciaux numériques.

La qua­ran­taine dans laquelle nous vivons nous place dans le contexte du télé­tra­vail, du télé-ensei­gne­ment, du télé-diver­tis­se­ment, de la vidéo­con­fé­rence ; toutes les rela­tions sociales à tra­vers l’é­cran d’un appa­reil qui se connecte à Internet.

Deux dyna­miques pro­gressent pour nous faire entrer dans une “socié­té de l’al­go­rithme”. Le pre­mier est la numé­ri­sa­tion de la socié­té avec une demande crois­sante des citoyens d’être inclus ; le second est le déve­lop­pe­ment de pro­ces­sus. Ces der­niers, par l’in­ter­mé­diaire de logi­ciels, four­nissent aux ordinateurs/serveurs les ins­truc­tions mathé­ma­tiques per­met­tant de clas­ser, ordon­ner, regrou­per, pré­dire, trai­ter, agré­ger et repré­sen­ter les infor­ma­tions au moyen de don­nées de plus en plus invisibles.

Les mou­ve­ments des per­sonnes, les tickets d’a­chat, les clics sur Inter­net, la consom­ma­tion en ligne, le temps pas­sé à lire un livre numé­rique, le temps pas­sé à écou­ter de la musique et à regar­der une vidéo à la demande ; sont cryp­tés par des algo­rithmes, des algo­rithmes qui clas­si­fient et pré­disent notre consom­ma­tion actuelle et future.

Omni­pré­sents dans nos vies, les algo­rithmes sont pré­sen­tés comme “mys­té­rieux” à notre connais­sance dans le but de ne pas connaître leur exis­tence et leur fonc­tion­na­li­té. Une nou­velle reli­gion avec de nou­veaux actes de foi.  On s’in­ter­roge rare­ment sur la manière dont ces pro­ces­sus de logique et de cal­cul se pro­duisent et sur la vision du monde qu’ils impliquent.

La socié­té numé­rique a mis les citoyens à la place du consom­ma­teur numé­rique, nous savons com­ment faire fonc­tion­ner les appa­reils et nous consom­mons du conte­nu par le biais d’ap­pli­ca­tions. Nous ne connais­sons pas les pro­ces­sus et les pro­cé­dures qui régissent la socié­té numé­rique.  Par exemple, que les algo­rithmes uti­li­sés par les géants tech­no­lo­giques, connus sous le nom de GAFAM (Google, Ama­zon, Face­book, Apple et Micro­soft), ne sont pas tou­jours équi­tables dans les déci­sions qu’ils prennent.

Les algo­rithmes fonc­tionnent à l’in­té­rieur de “boîtes noires”, nous ne connais­sons pas leurs fonc­tion­na­li­tés. La valeur qui fait bou­ger le cal­cul algo­rith­mique n’est autre que celle de la per­son­na­li­sa­tion, celle de l’in­di­vi­dua­lisme.  Ce biais dans la fabri­ca­tion du logi­ciel qui met en œuvre l’al­go­rithme répond à des modèles poli­tiques et cultu­rels de rela­tions sociales et de dis­tri­bu­tion des connais­sances et des richesses. Ces pré­ju­gés peuvent éga­le­ment affec­ter des déci­sions telles que l’as­su­rance mala­die ou l’aide sociale ou encore le pré­paie­ment, la sco­la­ri­sa­tion ou l’ins­crip­tion au casier judi­ciaire, l’ac­cep­ta­tion d’une demande d’emploi. Les don­nées ne concernent que les ques­tions et les inté­rêts de ceux qui les interrogent.

Dans la culture actuelle, les cal­culs algo­rith­miques piègent les dési­rs de liber­té et de ser­vices à la per­sonne ; où les indi­vi­dus, à tra­vers leurs repré­sen­ta­tions, leurs ambi­tions et leurs pro­jets, se consi­dèrent comme des sujets auto­nomes, en dehors des modèles poli­tiques inclu­sifs ou exclusifs.

Il est néces­saire de construire d’autres poli­tiques publiques pour la socié­té algo­rith­mique. Les pro­ces­sus et les biais doivent être expli­ci­tés aux citoyens, sous forme d’a­lertes dans le monde de l’In­ter­net et dans les sta­tis­tiques de l’É­tat. L’É­tat doit garan­tir aux citoyens une visi­bi­li­té publique sur le com­por­te­ment des algo­rithmes et des don­nées de formation.

Il est néces­saire de connaître la vision poli­tique et cultu­relle qui est mise en œuvre dans les pro­ces­sus algo­rith­miques et le biais des don­nées qui donnent les résul­tats comme des véri­tés. Un regard cri­tique sur le fonc­tion­ne­ment des cal­culs cachés doit être posé. Il est néces­saire de savoir quel sens et quel objec­tif les algo­rithmes mettent en œuvre. Ces sens forment un monde pos­sible où la recon­nais­sance du mérite est sans entrave ; où l’au­to­ri­té ne s’ob­tient qu’au­tour de la qua­li­té et de la résilience.

Les GAFAM visent à ins­tal­ler un envi­ron­ne­ment tech­no­lo­gique invi­sible qui per­met aux gens de s’o­rien­ter, sans les contre­dire. La plu­part de nos choix quo­ti­diens sont faits par une infra­struc­ture socio-tech­nique ; ache­ter un billet d’a­vion, la tra­duc­tion auto­ma­tique des langues, trou­ver le meilleur res­tau­rant, obte­nir un ren­dez-vous per­son­nel, rem­plir le fri­go ou char­ger sa carte numé­rique pour uti­li­ser les trans­ports publics.

Avec le GPS, nous avons per­du le pay­sage. Les algo­rithmes guident nos pré­fé­rences et lient nos choix. Ils réa­lisent le rêve libé­ral d’une élec­tion non liée, mais ce rêve cache aus­si son autre facette. Une liber­té algorithmique.