Article body
Pour ceux qui suivent les pistes de la recherche menée depuis plusieurs années autour des enjeux sociaux-politiques de la technologie par Dominique Cardon, ce dernier ouvrage était très attendu et marque l’achèvement temporaire d’une réflexion visant à déchiffrer la logique des algorithmes (en interprétant les rêves) qui s’annonçait dans les travaux précédents. En 2010, dans La démocratie Internet, le sociologue s’intéressait en effet à la politique des algorithmes, affirmant que
Les algorithmes qui permettent de hiérarchiser les informations enferment des principes de classement et des visions du monde. Ils structurent très profondément la manière dont les internautes voient les informations et se représentent le monde numérique dans lequel ils se promènent, sans toujours soupçonner le travail souterrain qu’exercent les algorithmes sur leur itinéraire [1].
Deux ans plus tard, l’enquête se faisait plus exhaustive et plus pointue, se focalisant sur le PageRank, l’algorithme de Google, dans un article devenu depuis une référence incontournable, où Cardon se demande à quoi rêve Google, le rêve étant déjà, tout comme dans le titre de l’ouvrage dont il est question ici, la représentation intime et secrète du monde que l’on désire et que l’on peut créer. « Le PageRank est une machine morale – écrivait Cardon. Il enferme un système de valeurs, donnant la prééminence à ceux qui ont été jugés méritants par les autres, et déployant une volonté : faire du web un espace où l’échange des mérites n’est ni freiné ni déformé[2] ». Dans cet article, Cardon décortiquait les composantes théoriques à la base de la création de l’algorithme qui avait fait le succès de Google et qui pourtant était déjà en crise. En effet, le principe d’autorité à la base de la hiérarchisation des informations[3] commençait à être ébranlé par une série de principes (popularité, affinité et efficacité) issus des pratiques sociales et commerciales des internautes. C’est pourquoi les ingénieurs de Google apportent sans cesse des modifications à l’algorithme. Ils en personnalisent ainsi les résultats, afin d’échapper à toute tentative d’en exploiter le fonctionnement pour gagner en visibilité – répondant par la même occasion aux exigences pressantes des juridictions nationales et des industries culturelles. « Au principe d’autorité qui a fait la force du PageRank – concluait Cardon – Google substitue de plus en plus un principe d’efficacité qui renvoie de manière toujours plus appropriée vers l’internaute les choix que l’algorithme a appris de ses comportements ». En outre, la stratégie industrielle de Google peut, selon le sociologue, « entrer en conflit avec la logique de la neutralité du moteur de recherche et contribue à rendre de plus en plus fragile, de plus en plus rhétorique, la revendication de neutralité de la recherche naturelle[4] ». Trois ans plus tard, Cardon insiste encore sur l’importance des algorithmes au sein de notre société : comprendre la logique et le fonctionnement d’un algorithme permet de comprendre la façon dont peut se former le jugement que nous portons sur les choses et par conséquent le facteur qui a orienté notre comportement. Le but déclaré du dernier livre de Cardon est, toujours selon la métaphore freudienne, d’« allonger les algorithmes sur le divan », en ouvrant la boîte noire des calculs pour éclaircir les enjeux culturels impliqués dans le développement du calcul algorithmique, et de s’émanciper ainsi du sentiment d’incompétence qui nous soumet à leurs effets. Il est temps en effet de développer une instruction de base capable de devenir une véritable culture statistique qui ne soit pas réservée aux spécialistes, puisqu’« il n’est plus beaucoup de gestes quotidiens, d’achats, de déplacement, de décisions personnelles ou professionnelles qui ne soient orientées par une infrastructure de calculs » (p. 7). La conscience de l’influence des algorithmes dans une culture qui semble suivre un paradigme mathématique et prédictif de nos comportements est d’ailleurs partagée par d’autres auteurs : il y a quelques mois, ces observations ont favorisé une réflexion philosophique stimulante, notamment sous la plume d’Eric Sadin qui, dans sa Critique de la raison numérique, décrit les structures de notre vie comme celles d’une vie algorithmique obsédée par des instances de captation, de quantification, de datafication et de marchandisation intégrales de l’existence, des instances poussées jusqu’à une normativité algorithmique qu’un individu de plus en plus automatisé se limiterait à confirmer dans toutes ses indications très averties et ponctuelles[5]. Milad Douehi remarque lui aussi, bien que de façon moins alarmante, un aspect de l’évolution numérique qui, surtout à cause de sa dimension industrielle, nous fait passer du modèle de l’index d’informations à celui de la recommandation pour façonner maintenant un nouveau modèle, celui de la prescription[6]. La perspective anthropologique depuis laquelle Cardon lance sa réflexion est différente, bien qu’il parle de quantification de soi :
La thèse de ce livre – il l’anticipe dans l’introduction – est que, si les logiques de personnalisation s’installent aujourd’hui dans nos vies, c’est parce qu’elles calculent une forme nouvelle du social, la société des comportements, où se recompose la relation entre le centre de la société et des individus des plus en plus autonomes (p. 16).
Dans le premier chapitre, l’auteur distingue quatre familles de calcul numérique, différenciées à la fois selon leur positionnement figuratif par rapport à l’objet du calcul et selon leur principe de référence : les algorithmes qui, à côté du web, ordonnent la popularité des sites ; ceux qui, au-dessus du web, hiérarchisent l’autorité des sites ; les mesures de réputation des personnes et des choses, dans le web, et encore, au-dessous, les calculs qui cherchent à déchiffrer le comportement d’un internaute à travers une prédiction déduite du comportement d’un autre internaute. La popularité, l’autorité, la réputation, la prédiction, voilà les quatre valeurs fondamentales qui sont à la fois productrices et produits des différents types d’algorithmes qui, dans les plateformes actuelles, s’intègrent l’un à l’autre et dont Cardon esquisse l’histoire. Connaître le nombre de visiteurs d’un site est l’objectif des webmestres dès les années 1990, et constitue depuis une exigence du marché publicitaire qui peut ainsi orienter ses investissements. La mesure de l’audience qui domine les médias traditionnels dénonce des limites évidentes lorsqu’elle est appliquée au web, où la personne n’est plus seulement spectateur ou lecteur, mais bien acteur. « Lorsque le public devient actif, il formule une demande et souhaite trouver l’information de la meilleure qualité possible » (p. 24), nous fait noter Cardon, tandis que la popularité des connaissances devient résulte conformiste et consensuelle, donc médiocre :
Parce que le web bouleverse l’asymétrie entre une (petite) offre qui propose sans laisser beaucoup de choix et une (large) demande qui reçoit sans vraiment choisir, les pionniers du web ont opposé un autre système de classement qui ne s’appuie pas sur la popularité de l’information, mais sur l’autorité (p. 24).
La force sociale de la page, c’est ce que Sergey Brin et Larry Page veulent mesurer avec leur algorithme qui classe les sites les plus linkés par d’autres sites qui, eux aussi, ont reçu le plus de liens hypertextuels des autres sites.
Empruntée au système de valeurs de la communauté scientifique et notamment aux classements de revues scientifiques qui donnent plus de poids aux articles les plus cités par les autres – synthétise Cardon – cette mesure de reconnaissance a spectaculairement prouvé qu’elle constituait l’une des meilleures approximations possible de la qualité de l’information (p. 26).
Pour que cette qualité ne soit pas corrompue, il faut que les usagers oublient la présence de l’algorithme. Ce qui n’arrive presque jamais, car on assiste au contraire au développement d’un marché de stratégies des webmestres visant la plus large visibilité possible de leurs clients et prêts, pour l’obtenir, à infecter la toile de faux sites adressant un lien vers la cible, obligeant les concepteurs de l’algorithme à le modifier sans cesse.
« Ce jeu du chat et de la souris entre webmestres et les concepteurs de l’algorithme est sans fin », nous dit Cardon, et le court-circuit de la logique du PageRank est déjà sous nos yeux : « à force d’être cité par tous, les plus reconnus deviennent aussi les plus populaires et reçoivent par conséquent le plus de clics. L’aristocratique mesure de l’autorité s’abîme alors en une vulgaire mesure de popularité » (p. 28). Le schéma du PageRank a été encore davantage mis en crise par la dynamique des réseaux sociaux, dans lesquels la fragmentation d’avis et d’opinions produit une toute nouvelle version de la réputation que le moteur de recherche n’arrive pas à saisir et qui est faite directement par les internautes. Cardon établit très bien la différence (p. 29-30) :
Alors que Google cherche à cacher le calculateur au-dessus du web afin que les internautes ne s’en emparent pas, les métriques de réputation du web social le glissent dans le web pour que les internautes se mesurent eux-mêmes. […] Alors que dans le monde de l’autorité, la visibilité se mérite, dans celui des affinités numériques, elle peut se fabriquer.
Les métriques de réputation influencent de plus en plus des services comme l’hôtellerie et la restauration mais aussi les services de bien culturels, tel que les livres, les films, les monuments historiques : « La démocratisation de l’évaluation profane associe l’idée de pouvoir tout noter à celle de faire noter tout le monde » (p. 31). Calculer la myriade chaotique des signes expressifs que les internautes se laissent derrière dans les forum comme dans les réseaux sociaux ou encore sur des plateformes finalisées à leurs évaluations comme TripAdvisor, est presque impossible : au lieu de chercher à interpréter ce que les gens disent, les algorithmes essaient alors de suivre leurs traces. Nous voici donc à la dernière famille de calcul numérique, dont la caractéristique la plus saillante est l’apprentissage automatique : l’algorithme est capable d’apprendre à travers la comparaison entre les profils des internautes, lesquels ont fait la même chose (le même choix, le même achat, etc.). « De façon probabiliste, il [l’algorithme] soupçonne qu’une personne pourrait faire telle ou telle chose qu’elle n’a pas encore faite, parce que celles qui lui ressemblent l’ont, elles, déjà faite. Le futur de l’internaute est prédit par le passé de ceux qui lui ressemblent » (p. 34). Les concepteurs de ces algorithmes justifient le développement de ces instruments prédictifs en avançant l’argument selon lequel les gens se trompent trop souvent lorsqu’ils doivent évaluer et juger les choses, surtout dans leur perspective future ; il ne faut pas faire confiance aux gens sur la base de leurs expressions extemporanées sur les réseaux sociaux, mais à la lumière de leurs comportements réels, c’est-à-dire factuels : « Les algorithmes prédictifs ne donnent pas une réponse à ce que les gens disent vouloir faire, mais à ce qu’ils font sans vouloir vraiment le dire » (p. 34). Ce que l’internaute ne dit pas, ce qu’il pense, peut-être sans le savoir, peut lui être dit par l’algorithme qui cherche à prévoir son comportement, ses désirs, ses besoins, ses achats : l’e-marketing suit aujourd’hui pas à pas sa cible, avec des suggestions et des offres personnalisées et ponctuelles sur la base des informations de navigation de l’internaute[7].
Les individus se singularisent alors de plus en plus, souligne Cardon dans le chapitre suivant, où la révolution des big data est expliquée avec la révolution des calculs qui n’observent plus l’extériorité des études statistiques garanties par les États. Ces derniers nous donnent une représentation de la société par catégories homogènes facilement reconnaissables, les statistiques étant devenues privées, gérées par les entreprises les exploitant à des fins commerciales. Le réel n’est plus mesuré de l’extérieur, nous explique Cardon, mais de l’intérieur. Ainsi une mesure d’activité est assumée pour la mesure du phénomène : « La réflexivité des compteurs a non seulement rendu les acteurs de plus en plus stratèges, mais elle a aussi rendu le réel de plus en plus manipulable » (p. 43).
Dans une société qui s’autoreprésente dans l’espace public qu’elle crée elle-même, « la logique de personnalisation renforcée dans laquelle sont entrées les actuelles techniques est une conséquence de l’individualisation expressive qui accompagne le développement des usages du numérique », observe Cardon. Le calcul en tout cas n’est pas individuel, car il s’appuie sur une énorme quantité de données produites par d’autres personnes : la prédiction est une simple estimation statistique, qui n’assure aucune certitude. Pourtant elle arrive à reconnaître, comme l’illustre Cardon, le comportement d’une femme enceinte qui n’a parlé à personne de sa grossesse, sur la base des comportements des autres femmes enceintes déjà traquées dans leurs achats[8]. Toute théorie unifiée des comportements compris selon une corrélation de causes est dépassée par une manière inverse de fabriquer le social. Car c’est à partir des comportements individuels que les logiques des calculateurs déduisent les facteurs qui les rendent statistiquement plus probables et donc remarquables en tant que potentiels modèles de comportements : mais sur leur socialisation, on peut se prononcer seulement ensuite, non pas à l’avance.
Dans le troisième chapitre, Cardon introduit une distinction très prometteuse pour la réflexion sur les bases de données et leur exploitation par les algorithmes : la différence entre signaux et traces.
Cardon appelle signaux les données dont le contenu est à la fois explicite et subjectif (un statut sur Facebook, un tweet) et traces, les données implicites relatives par exemple aux clics, à la géolocalisation, à la vitesse de lecture : les algorithmes démontrent leur efficacité lorsqu’ils associent les uns et les autres, se servant des traces pour mettre en relation les signaux, produisant ainsi des recommandations pertinentes. Ces algorithmes, que Cardon qualifie de sociologues, reposent sur l’hypothèse d’un caractère régulier et monotone du comportement de l’utilisateur. De cette façon, ils confirment des lois sociales bien connues et des concepts déjà travaillés, tel que celui de l’habitus élaboré par Pierre Bourdieu pour indiquer la tendance à adopter des comportements réguliers et prévisibles avec lesquels nous simplifions nos petites tâches et (in)décisions quotidiennes.
Cardon se pose enfin la question fondamentale : « Est-ce que les algorithmes ’’ marchent ’’ parce que les individus sont réguliers ou les prescriptions des algorithmes les rendent-ils réguliers ? » (p. 66). Il tente d’y répondre à travers une étude de l’algorithme de Facebook[9], devenu l’architecte de notre paysage relationnel quotidien. Cet algorithme, le EdgeRank, est responsable de la sélection de contacts que l’on retrouve dans son fil d’actualité, une sélection qui se fait selon des critères d’affinités entre navigations, en particulier entre les liens partagés. Le Edgerank est souvent critiqué parce qu’il enfermerait chacun dans la bulle de ses affinités avec certains de ses amis au lieu de l’exposer aux différences avec les autres. Les chercheurs de Facebook, sur la base d’un échantillon de 10 millions de comptes américains, montrent que « les utilisateurs ferment eux-mêmes leur fenêtre de visibilité plus que ne le fait Facebook en filtrant l’information à travers son algorithme ». Cardon ne se fait pas surprendre par ces résultats qui confirment selon lui le constat que « la sociabilité des individus, surtout des plus politisés, est homophile : ils ont, très majoritairement, des amis qui ont les mêmes opinions et valeurs ; ils s’exposent prioritairement à des sources d’informations qui confortent leurs idées » (p. 68). Les algorithmes, en somme, « nous emprisonnent dans notre conformisme » (p. 69).
L’auteur se pose alors la question suivante : les algorithmes sont-ils biaisés ? Il n’existe pas une représentation idéale ou naturelle de la réalité par rapport à laquelle vérifier l’évidence d’un artifice, mais il nous faut en revanche une éducation et une culture des algorithmes qui nous permettent d’interpréter leurs représentations de la réalité devenues, en définitive, quelque chose de plus qu’une représentation: la création de la réalité sociale, ou au moins son constant refaçonnement[10] :
paradoxalement – remarque Cardon en conclusion du troisième chapitre – c’est au moment où les internautes s’attachent, par leurs représentations, leurs ambitions et leurs projets, à se penser comme des sujets autonomes et libérés des injonctions des prescripteurs traditionnels que les calculs algorithmiques les rattrapent, par en dessous si l’on peut dire, en ajustant leurs désirs sur la régularité de leurs pratiques (p.88).
Notre société est la société des calculs, une société calculée par le bas, à partir du comportement des individus ; « les algorithmes rêvent d’un monde où les mécanismes de production de la popularité seraient transparents et ouverts à tous », nous dit Cardon dans le quatrième et dernier chapitre de son ouvrage : « avec les mesures d’autorité, les algorithmes rêvent d’un monde où la reconnaissance des ’’méritants’’ ne serait pas entravée » ; ils rêvent aussi « à une société dans laquelle ils donneraient aux personnes des outils pour que les affinités puissent se reconnaître et s’auto-organiser ». Enfin, ils rêvent à « installer un environnement technique invisible permettant partout et pour tout de nous orienter sans nous contraindre ». Le sociologue ne veut pas dramatiser le risque d’une rationalisation totale de l’existence, au-delà de ce que notre existence compte déjà de mécanique et fonctionnel. « Les rêves des algorithmes ne sont que des rêves » selon Cardon, car « les usages sont beaucoup plus vagabonds, diversifiés et stratèges que ne le pensent ceux qui raisonnent depuis une seule plateforme. […] Il est encore temps de dire aux algorithmes que nous ne sommes pas la somme imprécise et incomplète de nos comportements » (p. 103).
L’enquête de Cardon semble donc nous inviter à un certain optimisme anthropologique : les algorithmes ne gêneraient pas l’équilibre du pouvoir entre homme et technologie dans lequel se refaçonnent depuis toujours les formes de notre culture, bien qu’ils soient des instruments influents et parfois subreptices. En qualité de sociologue, Cardon observe les tendances d’une société exprimant des besoins et des modèles qui ne peuvent ne pas se passer de technologie, sans se poser des questions d’ordre ontologique, des questions que l’algorithmisation de notre pensée et de notre comportement doit quand même mobiliser : comment redéfinir, par exemple, les concepts de liberté, de choix et de responsabilité de ses actes ? Que devient le futur (au sens agostinien et husserlien de prédisposition à l’attente et anticipation) lorsqu’il est calculé à l’avance, à la minute près ? Eric Sadin, dans La vie algorithmique , ne problématise pas philosophiquement ces concepts et condamne l’influence néfaste sur le comportement humain d’une algorithmisation inacceptable au nom d’une idée naturelle de liberté et d’un modèle idéal et pré-supposé d’individualité. Il s’agit au contraire chez Cardon de toujours retravailler et supposer ces notions, loin de toute mythologie spontanéiste ou essentialiste. À partir du travail de Cardon, il devient alors possible de questionner les changements procurés à notre environnement informationnel et intentionnel, par le biais de la philosophie du numérique.
Appendices
Notes
-
[1]
Dominique Cardon, La Démocratie Internet. Promesses et limites, Paris, Seuil/La République des idées, 2010, p. 95.
-
[2]
Dominique Cardon, « Dans l’esprit du PageRank. Une enquête sur l’algorithme de Google », Réseaux, n. 177, 2012, p. 65.
-
[3]
Parmi les concepts sur lesquels se fondait le principe du PageRank, Cardon signalait ceux de « Sagesse des foules », « intelligence collective », « miracle de l’agrégation », « richesse des réseaux » ; ainsi, dans la synthèse de Larry Page : « De façon intuitive, un document doit être important (sans considération pour son contenu) s’il est beaucoup cité par d’autres documents » dans Method for node ranking in a linked database, Patent #6295999, 9 janvier (cité par D.Cardon, Ibid., p. 72).
-
[4]
Ibid., p. 91.
-
[5]
Eric Sadin, La vie algorithmique. Critique de la raison numérique, Paris, L’Échappée, 2015.
-
[6]
Milad Douehi, Qu’est-ce que le numérique ?, Paris, PUF, 2013.
-
[7]
Cardon nous explique le fonctionnement : « Les nouveaux systèmes publicitaires sur le web sont des automates fonctionnant sur la base d’un système d’enchères en temps réel (real-time bidding)/ Pendant que l’internaute est en train de charher la page web qu’il désire consulter, son profil est mis aux enchères par un automate afin que des robots programmés pas les annonceurs se disputent le meilleur prix pour placer leur bandeau publicitaire. l’operation dure moins de 100 millisecondes. Le profil mis aux enchères n’est pas un de ces portraits types du marketing traditionnel. Les informations livrées aux robots des annonceurs sont les traces des navigations antérieures de l’internaute que des cookies ont enregistrées. A la vitesse de l’éclair, les robots annonceurs vont proposer un prix d’achat en estimant la probabilité que l’internaute clique sue le bandeau publicitaire à parir des données d’activités d’autre internautes. Les promoteurs de ces systèmes assurent que la performance de l’affichage publicitaire est de 30 % supérieure lorsqu’il est réalisé par un automate analyseur de traces plutôt que par un média planner humain usant de sa connaissance du marché et de sa clientèle. » (p. 49)
-
[8]
Ibid., p. 53 : « À travers un outillage bien plus élaboré, c’est ce principe qui est désormais appliqué à la détection de l’infidelité des clients, des appariements amoureux sur les sites de rencontres, de la récidive judiciaire ou de certaines maladies diagnostiquées préventivement dans les bases de données médicales ».
-
[9]
E. Bakshy, S. Messing et L. Adamic, « Exposure to Ideogically Diverse News and Opinion on Facebook », Sciences, n. 348, 7 mai 2015.
-
[10]
Op.cit., p. 82 : « Les algorithmes hiérarchisent les informations, et c’est pour cela qu’ils sont utiles et même essentiels. Mais il est indispensable que les services puissent expliquer à l’utilisateur les priorités qui président aux décisions de leurs calculateurs ; et qu’on puisse vérifier, en toute indépendance, que des intérêts cahés, des déformations clandestines ou des favoritismes n’altèrent pas le service rendu ».