Bêtise naturelle de l’intelligence artificielle

Ilus­tra­tion > A.I. Intel­li­gence arti­fi­cielle (Arti­fi­cial Intel­li­gence : A.I. ou sim­ple­ment A.I.) est un film de science-fic­tion amé­ri­cain écrit et réa­li­sé par Ste­ven Spiel­berg et sor­ti en 2001, sur une idée de Stan­ley Kubrick.

EN LIEN :

Dans les années 80, la loca­li­sa­tion ne consis­tait pas à situer quelque chose grâce à ses coor­don­nées GPS, mais à sou­mettre pour les tes­ter des pro­duits dans un pays, une région ou un groupe cultu­rel afin d’adapter le pro­duit aux besoins expri­més et aux cou­tumes obser­vées dans ce pays, cette région ou ce groupe cultu­rel.

Devant les pro­grès de l’intelligence arti­fi­cielle, on trouve sou­vent deux réac­tions oppo­sées. Pre­miè­re­ment, le rejet abso­lu qui relève de la tech­no­pho­bie et de la crainte irra­tion­nelle. Deuxiè­me­ment, l’adhésion enthou­siaste et abso­lue, qui relève du féti­chisme irra­tion­nel.

Il y aus­si les igno­rants naïfs qui croient que tout cela n’est que de la science-fic­tion et qui ne savent pas encore qu’on peut déjà créer des implants neu­ro­naux per­met­tant de com­man­der la parole pour une per­sonne qui n’a plus de voix, de per­mettre à une per­sonne sourde d’entendre ou à une per­sonne aveugle de voir, que les membres bio­niques sont déjà très per­fec­tion­nés et que des puces aug­men­tant la mémoire seront très bien­tôt choses pos­sibles, qu’on peut com­man­der par la pen­sée un objet à dis­tance doté de sen­seurs si on a des cap­teurs neu­ro­naux sur le crâne, de même qu’il est tout à fait pos­sible de savoir avant même un sujet la déci­sion qu’il va prendre sur une ques­tion très spé­ci­fique. On peut le pré­dire de manière très pré­cise au moment même où cela se passe en étu­diant les cir­cuits neu­ro­naux et les amorces de mou­ve­ment à l’aide de cap­teurs. On peut aus­si le pré­dire de manière géné­rale par cor­ré­la­tion en accu­mu­lant les don­nées com­por­te­men­tales (aus­si bêtes que son uti­li­sa­tion des cartes de cré­dit).

Ces trois atti­tudes, le rejet, la sou­mis­sion de même que l’ignorance naïve, sont éga­le­ment inap­pro­priées. La ver­tu n’est pas néces­sai­re­ment dans le milieu, mais plu­tôt dans la récep­tion cri­tique et dans l’examen minu­tieux du pour­quoi et du com­ment de cette tech­no­lo­gie.

Comme le dit mon ami Alain Labon­té, on ne devrait pas par­ler d’intelligence quand il s’agit de machines. Les machines ne réflé­chissent pas, elles appliquent des algo­rithmes qui ne reflètent que l’intelligence des per­sonnes qui les ont créés (les algo­rithmes). La puis­sance de cal­cul et de per­for­mance est grande, mais les bêtises sont aus­si très grandes quand on ne prend pas la peine de s’assurer des consé­quences. Par ailleurs, pour ce qui est de la mémoire, les don­nées mémo­rielles bio­lo­giques sont très dif­fé­rentes des don­nées d’un disque dur. En effet, un sou­ve­nir est un phé­no­mène en per­pé­tuelle évo­lu­tion dans le cer­veau humain, alors qu’une don­née de mémoire est pré­sente ou pas, sans modi­fi­ca­tion et sans lien avec des sen­ti­ments.

On lira pour ses bien­faits intel­lec­tuels Cer­veau aug­men­té, homme dimi­nué de Miguel Bena­sayag qui démontre de manière très acces­sible qu’on ne peut pas sup­pléer à la qua­li­té par la quan­ti­té. Une bonne illus­tra­tion que je pour­rais don­ner de ce pro­blème est l’arrivée de Google comme moteur de recherche à la fin des années 90. Pré­ten­dant ajou­ter la per­ti­nence à la recherche, il l’en a tota­le­ment dépouillée. En effet, Google sou­met les résul­tats les plus fré­quents et les plus nom­breux, donc les plus recher­chés, donc pré­ten­du­ment les plus per­ti­nents. Or, ce sont les résul­tats exacts qui sont les plus per­ti­nents pas les plus fré­quents.

Voi­ci en clair com­ment ça se passe. Sup­po­sons un arti­san qui fabrique des vio­lons dans son petit vil­lage de Saint-Émile d’Auclair. Il a créé un petit site web arti­sa­nal lui aus­si et donc non réfé­ren­cé. Il suf­fi­sait de taper dans un moteur de recherche luthier et Bas-Saint-Laurent pour trou­ver trois ou quatre résul­tats avec les noms des luthiers et le nom du vil­lage. Votre petit arti­san s’y trou­vait. Si on vous avait par­lé du luthier en ques­tion mais que vous aviez oublié son nom, taper luthier et Saint-Émile d’Auclair vous don­nait un seul résul­tat : le luthier en ques­tion. En tapant luthier et Bas-Saint-Laurent dans Google, vous avez des mil­liers de résul­tats conte­nant les mots choi­sis, mais votre luthier peut s’y retrou­ver très loin dans la liste ou pas du tout s’il n’est pas réfé­ren­cé.

Le moteur Google a plu au public qu’on a convain­cu qu’il était mieux d’avoir dix mille résul­tats qu’un seul et qu’il était bon d’avoir dans ses résul­tats ceux des autres qui ont fait des recherches avec des mots sem­blables, quitte à avoir des résul­tats aber­rants quand on est le seul à faire un type de recherche en par­ti­cu­lier. Très vite Google est deve­nu le plus popu­laire, puis pra­ti­que­ment le seul. Et les outils comme Alta­Vis­ta, pré­cis et effi­caces, qui per­met­taient en deux secondes de trou­ver exac­te­ment une chaîne de carac­tères don­nées, donc la source exacte de l’information recher­chée, ont dû bais­ser pavillon.

Il est dom­mage que les enthou­siastes naïfs nous traitent tout de suite de tech­no­phobes dès qu’on pointe le carac­tère approxi­ma­tif de leurs réa­li­sa­tions ain­si que les risques qu’ils nous font cou­rir. De même, la super­flui­té redon­dante de nom­breux gad­gets ne les empêche pas d’être extrê­me­ment popu­laires. Je pense à OK Google et à Alexa, qui sont des gad­gets certes amu­sants, mais qui vous obligent à res­ter connec­tés 24 heures sur 24. Pour­quoi devrais-je perdre 30 secondes de mon temps pour par­ler à une machine dans le but d’éteindre les lumières alors qu’il me suf­fit de faire pivo­ter un inter­rup­teur en une frac­tion de seconde et tout ça sans me détour­ner du che­min que je devrai prendre de toute façon pour me rendre à mon lit. Sans comp­ter que toutes ces inno­va­tions liées à la consom­ma­tion contri­buent à ce que Sho­sha­na Zuboff appelle le capi­ta­lisme de sur­veillance. En effet, ces machines accu­mulent des don­nées sur tout ce que vous faites et dites. Vos conver­sa­tions avec la machine sont relayées à une cen­trale d’où il est pos­sible (pas obli­ga­toire) de vous entendre et de vous enre­gis­trer.

L’exemple le plus frap­pant de ce type de sur­veillance concerne l’automobile connec­tée dont le moteur peut être cou­pé à dis­tance par la com­pa­gnie d’assurance si les algo­rithmes cal­culent que le com­por­te­ment du conduc­teur ne res­pecte pas les para­mètres de conduite ou tout sim­ple­ment si le paie­ment retarde trop.

L’enregistrement des com­por­te­ments et leur inté­gra­tion à des algo­rithmes per­mettent des pré­dic­tions qui servent à la pro­mo­tion de pro­duits, mais aus­si à la sanc­tion des com­por­te­ments. La pré­dic­tion des com­por­te­ments se base sur les cor­ré­la­tions. Ces cor­ré­la­tions sont sou­vent exactes, mais elles ne tiennent aucu­ne­ment compte des expli­ca­tions qui peuvent varier selon les indi­vi­dus, les groupes sociaux et les contextes. Contre-exemple : de nom­breuses offres que les algo­rithmes me sou­mettent de façon spon­ta­née ont le don de me stu­pé­fier tel­le­ment elles détonnent par rap­port à mes inté­rêts véri­tables.

En réfé­rence au titre de ce billet, ce qui est sur­tout bête, c’est le pro­gram­meur der­rière l’algorithme qui ne songe jamais à la pos­si­bi­li­té que les choix vou­lus par le des­ti­na­taire (conçu comme un client au mieux et comme un consom­ma­teur facile au pire) ne cor­res­pondent pas aux choix offerts.

Voyons l’exemple des inter­faces de chat web ins­tau­rées par les com­pa­gnies d’assurance, les ins­ti­tu­tions finan­cières et les entre­prises de com­mu­ni­ca­tion. Les lettres ou cour­riels que vous écri­vez de manière géné­rale à votre banque ou à votre com­pa­gnie de cré­dit ne sont pas lues par une per­sonne et n’ont pas de réponse de la part d’une per­sonne à moins que vous n’ayez indi­qué le nom d’une per­sonne dans votre envoi. C’est pour­quoi les réponses que vous obte­nez ne sont pas sou­vent adé­quates. De même, quand vous dis­cu­tez en direct sur leur site web, c’est géné­ra­le­ment un robot qui vous répond. La solu­tion à votre pro­blème n’arrive pas rapi­de­ment.

Essayez donc de sou­mettre un pro­blème à Face­book ou à Twit­ter. Les choix de réponse étant fer­més, il n’y a jamais la solu­tion que vous cher­chez. Les concep­teurs de pro­duits algo­rith­miques devraient tou­jours pré­voir dans leur choix de réponse à cha­cune de leurs ques­tions la case Autre (pré­ci­sez). La majo­ri­té des cas sou­mis par les clients et l’absolue tota­li­té des cas sou­mis par moi cor­res­pondent à ce choix.

Il est loin le temps où Macin­tosh fai­sait des tests pen­dant des mois et assu­jet­tis­sait ses pro­duits aux règles de la localisation1 avant de les sou­mettre aux clients. Aujourd’hui, avec la concur­rence entre tous les fabri­cants de gad­gets élec­tro­niques, on sort le pro­duit le plus vite pos­sible, on compte sur les clients pour rap­por­ter les bogues et on ajuste à mesure. C’est l’externalisation des coûts de recherche.

La ques­tion envi­ron­ne­men­tale se pose aus­si, car ces avan­cées de la science (comme je l’expliquais dans le billet Le post-huma­nisme : fuite en avant de la grande bour­geoi­sie), pour ce qui est des pro­thèses neu­ro­nales ou du télé­char­ge­ment du cer­veau (au risque de rendre l’existence miné­rale et sans sur­prise), sont réser­vées aux plus riches d’entre les plus riches, qui n’ont donc aucun sou­ci à se faire pour la qua­li­té de l’air et de l’eau qu’ils lais­se­ront au reste de l’humanité ago­ni­sante.

Autre ques­tion à se poser, celle du type de socié­té que l’on veut, car modi­fier la mémoire ou cor­ri­ger l’agressivité très tôt relèvent certes de bonnes inten­tions comme l’enfer en est tou­jours pavé, mais cela conduit aus­si à prendre l’effet pour la cause. L’enfant qui a des com­por­te­ments d’agressivité a peut-être des ten­dances à l’agressivité, mais il est peut-être aus­si vic­time d’abus phy­siques et alors ce n’est pas son agres­si­vi­té qu’il faut soi­gner.

Les phi­lan­thro­ca­pi­ta­listes cherchent à créer une socié­té lisse, sans vio­lence et sans délin­quance (voir à ce sujet mon billet du 7 mars 2016 La chasse aux méchants). Des indi­vi­dus par­fai­te­ment pré­vi­sibles seront sans aucune menace, mais aus­si sans créa­ti­vi­té. Or, la délin­quance est une contes­ta­tion du pou­voir. Si toutes les délin­quances ne sont pas bonnes, cer­taines sont abso­lu­ment nécessaires2. D’ailleurs, l’absence de délin­quance ne se défi­nit que par rap­port au pou­voir. Le pou­voir, lui, pour­ra tou­jours exer­cer des abus s’il ne peut pas être contes­té. Aucune socié­té ne peut évo­luer sans délin­quance. Vou­loir l’éliminer com­plè­te­ment, c’est tuer le patient pour liqui­der la mala­die.

Dans le monde du tra­vail, la ges­tion du per­son­nel et la sanc­tion du com­por­te­ment des employé·e·s sont de plus en plus sou­vent délé­guées à des algo­rithmes qui, sans aucune pré­oc­cu­pa­tion pour le contexte ni pour les sen­ti­ments humains, dic­te­ront le choix des can­di­da­tures de même que la façon de tra­vailler de tout le per­son­nel. La dis­cus­sion sera impos­sible puisque les appels à la com­pré­hen­sion de situa­tions par­ti­cu­lières échap­pe­ront tota­le­ment à l’univers de réfé­rence inté­gré dans les logi­ciels de ges­tion. Comme le dit Éric Sadin dans la sec­tion « L’événement » du Monde diplo­ma­tique des ven­dre­di, same­di et dimanche 6 jan­vier 2019 : « Nous serons moins appe­lés à don­ner des ordres aux machines qu’à en rece­voir d’elles. » Encore une fois, ce n’est pas une fata­li­té. Rien ne nous oblige à nous y rendre, mais si aucun esprit cri­tique ne sonde les pro­grammes ain­si mis sur le mar­ché et implan­tés en entre­prise, c’est ce qui arri­ve­ra. Or, les affai­ristes adeptes de star­tups ont rare­ment l’esprit cri­tique et n’ont pas l’habitude de remettre en ques­tion ce qui ne les affecte pas direc­te­ment.

La méca­ni­sa­tion devait nous offrir plus de temps libre et moins d’efforts. Or, les capi­ta­listes en ont com­plè­te­ment extor­qué les béné­fices et n’ont pas redis­tri­bué ces gains de pro­duc­ti­vi­té en termes de temps et de reve­nus. On pou­vait se conso­ler tant que les machines fai­saient du sale tra­vail et que les humains avaient la lati­tude de se consa­crer à des tra­vaux « nobles ». Main­te­nant, tou­te­fois, de plus en plus de robots effec­tuent ces tâches « nobles » : cor­res­pon­dance, ins­crip­tion, conseils en droit, en voyages ou en finances, diag­nos­tics, ser­vices après vente, cata­lo­gage, etc. Et la semaine de tra­vail est tou­jours de 40 heures alors que la pro­duc­ti­vi­té pour­rait nous per­mettre d’en tra­vailler beau­coup moins. Plus la robo­ti­sa­tion avance, plus l’intelligence arti­fi­cielle pro­gresse, plus se pose la ques­tion de savoir à qui cela pro­fite-t-il sur­tout ? Est-il nor­mal que des per­sonnes gagnent 200 fois le salaire des autres ?

Il ne s’agit pas d’être contre « l’intelligence arti­fi­cielle ». Les avan­cées tech­no­lo­giques sont de puis­sants outils d’amélioration de nos condi­tions de vie. Il s’agit de récla­mer des outils qui servent vrai­ment ce à quoi ils devraient ser­vir. Il s’agit d’exiger que les outils soient à notre ser­vice et non l’inverse. Il s’agit aus­si que nous jouions notre rôle de citoyen·ne·s et pas seule­ment de client·e·s, encore moins de consommatrices·consommateurs. Il s’agit au final d’une ques­tion d’humanité et de jus­tice sociale.