Face aux algorithmes, «défendre les médiocres et ceux qui sont dans la moyenne»

Premier article d’une série consacrée aux algorithmes et à leur utilisation par les pouvoirs publics. Pour le sociologue Dominique Cardon, l’algorithme accompagne l’évolution d’une société marquée par une individualisation des rapports et une dérive vers la méritocratie.

« Algorithme » est devenu un des principaux mots-totems de notre société, un terme mystérieux dont peu de gens sont capables de donner une définition claire mais investi d’un fort pouvoir symbolique. L’algorithme est censé être partout dans notre quotidien. C’est lui qui oriente nos recherches sur Internet, qui nous dit quoi écouter, quoi regarder, quels articles lire, quels livres acheter. Bientôt, c’est grâce à lui que nous trouverons un emploi, que la police arrêtera les criminels et, plus globalement, c’est lui qui guidera les politiques publiques. C’est également lui qui se trouve au centre des principales critiques contre le développement des nouvelles formes de contrôle, le « capitalisme de surveillance » ou encore la « gouvernementalité algorithmique » . Il est lié aux grandes craintes contemporaines : celles d’un développement incontrôlé des intelligences artificielles et d’une « dictature des algorithmes » .

Le concept d’algorithme n’est pourtant pas nouveau. Le mot vient du nom du célèbre mathématicien perse Al-Khawarizmi, qui vécut entre les années 750 et 850, et à qui l’on ne doit ni plus ni moins que l’invention du mot « algèbre » , ainsi que la diffusion des chiffres arabes grâce à son Traité du système de numérotation des Indiens . Lorsque ses écrits parviendront en Occident, dans la première moitié du XIIe siècle, son nom sera traduit par « Algoritmi » , par exemple dans le Carmen de algorismo du Français Alexandre de Villedieu. Al-Khawarizmi a donné son nom aux algorithmes mais il ne les a pas inventés et lui-même cite l’exemple de l’algorithme d’Euclide, posé dès 300 avant J.-C.

Si son origine est bien connue, la définition du mot algorithme est un sujet plus complexe, sur lequel les chercheurs débattent encore aujourd’hui. Dans son sens le plus large, un algorithme désigne tout simplement une série d’étapes, d’opérations ou d’instructions précises permettant d’obtenir un résultat en fonction de données de départ. À côté des algorithmes utilisés en mathématiques, chaque jour, nous utilisons tous, sans le savoir, des « algorithmes du quotidien » . L’exemple classique est la recette de cuisine dont le principe consiste à suivre une série précise d’instructions nécessitant des ingrédients, les données de départ, pour obtenir un résultat, le plat.

Dans les années 1930, le concept d’algorithme va prendre une tout autre dimension qui va le placer au cœur de la révolution numérique à venir. En 1936, le mathématicien anglais Alan Turing pose les bases de l’informatique en imaginant sa « machine de Turing » , modèle abstrait d’un appareil capable d’opérer des « procédures mécaniques » , soit des algorithmes, permettant d’effectuer des calculs. Dans la foulée, son collègue américain Alonzo Church pose une autre pierre fondatrice de l’informatique en formulant la thèse dite « de Church-Turing » , selon laquelle tous les algorithmes sont calculables par une machine de Turing. Entre les mains de mathématiciens tels que Church, Turing ou encore Emilie Post, le concept d’algorithme va se complexifier et se retrouver au cœur de la science informatique.

Le développement des ordinateurs va permettre la mise au point d’algorithmes de plus en plus puissants et complexes, auparavant inexploitables par l’homme. Parmi eux, les « algorithmes prédictifs » vont prendre une place centrale dans le développement du Web. Parallèlement, le développement d’Internet et la dématérialisation d’un nombre croissant d’activités et de procédures ont conduit à une numérisation quasi totale de la société. Le « big data » a offert aux algorithmes une source presque illimitée de matière première pour expérimenter et développer des programmes de plus en plus complexes. Aujourd’hui, les algorithmes numériques sont présents partout. Innombrables et de toutes sortes, ils sont présents dans le moindre appareil reposant sur de l’informatique et au cœur de chaque programme informatique.

Cette omniprésence a fait de l’algorithme le symbole de la nouvelle société numérique, mais au prix d’une simplification de ce concept. « Algorithme est devenu un terme très difficile à définir , nous explique Dominique Cardon, auteur de À quoi rêvent les algorithmes (Seuil, octobre 2015). Moi-même, j’en fais un usage métaphorique. Il y a cinq ans, ce mot, personne ne savait ce qu’il voulait dire. C’était un terme d’informaticien. L’algorithme est très lié à la culture technique de l’informatique, c’est son noyau. Puis, c’est devenu un objet fétiche, un objet public dans lequel on met un peu tout. Dès qu’il y a du programme, on dit qu’on est dans le cadre d’un algorithme. Alors qu’un informaticien vous dira que, non, tout dans un code n’est pas algorithmique. »

La réalité de l’algorithme n’explique donc pas, à elle seule, la fascination et les craintes que suscite son nom. « Il y a deux histoires indépendantes » , explique Dominique Cardon. Celle issue des mathématiques et qui mène au Web algorithmique. Et celle, moins connue, issue des « politiques néolibérales et des techniques de benchmark nées dans les années 1980 » , poursuit le sociologue. « Le Web a épousé ce que j’appelle le “monde des compteurs”, l’idée que le monde social, sous exigence de transparence et d’efficacité, doit produire des signaux permettant d’évaluer quasiment tout. Cette évolution est totalement liée au néomanagement venu du privé : sous contrainte d’efficacité, il faut vérifier que les investissements qui ont été faits ont bien produit les effets attendus, mettre en comparaison deux politiques différentes pour évaluer laquelle est la plus efficace, et du coup, il faut mettre en comparaison des individus, et donc il faut mesurer leurs performances. »

Cette obsession pour la mesure, la notation, la comparaison, a trouvé sur Internet le terrain idéal pour s’épanouir. Pour alimenter leurs algorithmes, les plateformes ont mis en place toute une série de dispositifs permettant justement de mesurer les interactions, de les classer et de les mettre à disposition des utilisateurs. « Le Web est arrivé, avec tous ces petits compteurs un peu partout, il a donné aux gens un instrument de comparaison, de soi à soi-même et de soi avec les autres » , raconte Dominique Cardon. « Ce qui est fascinant, c’est que ça ne marche pas du tout dans l’esprit totalisant que l’on avait imaginé , précise le sociologue . En fait, l’idée d’un benchmark de la réputation sur le Web, ça ne marche que localement, sur une plateforme, sur des micro-espaces sociaux. »

Dans son livre À quoi rêvent les algorithmes , Dominique Cardon classe ces dispositifs en quatre catégories, apparues en fonction des besoins de mesure. Il y a tout d’abord eu les systèmes se plaçant « à côté du Web » pour mesurer « la popularité » d’un contenu en se contentant d’en mesurer l’audience, le nombre de clics ou de vues. Les moteurs de recherche ont ensuite introduit la mesure de « l’autorité » en se situant « au-dessus de Web » . Ces dispositifs reposent sur la prise en compte de la qualité des contenus en utilisant par exemple un système de vote. L’exemple classique est celui du système de page rank du moteur de recherche Google. Ensuite, la mesure s’est déplacée « dans le Web » afin de mesurer « la réputation » des internautes. Il s’agit ici des techniques de benchmark et de personal branding reposant sur la mesure du nombre de likes , de followers , de retweets , etc., présents sur tous les réseaux sociaux.

Mais ces techniques sont facilement manipulables, à commencer par les internautes eux-mêmes, qui adaptent leur comportement et établissent des stratégies tenant compte des critères du système d’évaluation. La solution trouvée par les sociétés du Net a été de placer leurs capteurs « au-dessous du Web » . Cette fois, ce sont nos « traces » qui sont captées et analysées : nos interactions, nos comportements, les pages que nous visitons, le temps que nous passons sur une vidéo… Pour cela, les plateformes utilisent des algorithmes « prédictifs » , fondés sur des méthodes d’auto-apprentissage dites de machine learning .

« Beaucoup de modèles prédictifs modélisent des données comportementales, avec une certitude très ancrée : le comportement ne ment pas , explique Dominique Cardon. Il y a une sorte de scientisme positiviste très fort. Chez certains, c’est quasi obsessionnel. Par exemple, pour ses recommandations, YouTube regarde de moins en moins les “pouces”, les “likes”, qui sont beaucoup trop humains. Ce qui les intéresse, c’est le watch-time , la durée de lecture, c’est à dire le comportement des gens. »

Des prédictions d’une banalité étonnante

Ces dispositifs prétendent ainsi « prédire » nos comportements futurs. Ou plutôt, comme l’écrit Dominique Cardon dans son livre : « Le futur de l’internaute est prédit par le passé de ceux qui lui ressemblent. » Nos traces, nos signaux sont modélisés afin d’être comparés à ceux des autres internautes. Les algorithmes partent du principe que si vous avez eu tel comportement, vous ferez à l’avenir des choix similaires à ceux des internautes ayant eu le même comportement. Une logique que la data scientist américaine Cathy O’Neil, auteure du livre Weapons of Math Destruction ( Armes de destructions mathématiques , Crown, septembre 2016. Non traduit en français), résume par la formule : « Les algorithmes ne prédisent pas le futur, ils codifient le passé. »

Ces prédictions sont en outre présentées comme objectives, le fruit d’un travail scientifique, d’un calcul mathématique. Mais les machines, elles aussi, ont leur part de subjectivité. Pour organiser leurs données, les algorithmes, même ceux qui reposent sur le machine learning , ont besoin d’instructions et de catégories permettant de classer les données. Or, celles-ci sont bien déterminées par des hommes. « Les données brutes n’existent pas , écrit Dominique Cardon dans son livre. Toute quantification est une construction qui installe un dispositif de commensuration des enregistrements et établit des conventions pour les interpréter. »

De plus, l’algorithme est lui-même configuré par un être humain dans un but précis. « Il y a, dans la tradition de la programmation et de l’informatique, l’idée que l’algorithme est la projection d’une intention du programmateur sur le monde , souligne Dominique Cardon. À travers son programme, il dit : “Je veux que ça produise des transformations dont l’horizon est de tel type.” Il y a donc un projet de l’informatique, on dit à la machine : je veux qu’elle fasse ça. Ce qui est en jeu avec les nouvelles techniques d’apprentissage , poursuit le sociologue , c’est qu’elles posent une infrastructure de calcul dans laquelle l’informaticien sait beaucoup moins bien ce qui va sortir. Il connaît toujours l’objectif, mais il ne sait plus très bien comment la machine va y parvenir. L’algorithme a toujours impliqué de définir des règles à appliquer aux données. Mais auparavant, c’était l’informaticien qui les définissait. Avec le machine learning , c’est l’infrastructure qui va elle-même produire des règles. Et ça, c’est nouveau. »

Malgré cette complexité technique, les algorithmes offrent souvent des prédictions d’une banalité étonnante. « Certains algorithmes ne font que prédire des évidences » , pointe Dominique Cardon, citant l’exemple de PredPol, un logiciel de prédiction de la criminalité déployé dans plusieurs villes américaines. Pour qu’un algorithme prédictif ait une chance de fonctionner, « il faut que les traces aient des niveaux d’intensités suffisamment fortes » , poursuit le sociologue. Et actuellement, « beaucoup de modèles prédictifs reviennent à des règles catégorielles extrêmement simples qui ne font que des corrélations » .

Les modèles imaginés par les statisticiens et les informaticiens pour nous catégoriser reposent également souvent sur des méthodes dont la simplicité peut sembler bien éloignée de la rigueur mathématique. Ainsi, l’algorithme de Cambridge Analytica, censé prédire nos comportements électoraux, reposait sur le modèle dit des Big Five . Celui-ci repose sur cinq traits de personnalité (ouverture, conscienciosité, extraversion, agréabilité et neuroticisme). L’algorithme attribuait ces différents traits aux internautes en fonction de leur likes sur Facebook, puis en déduisait leur profil en le comparant à ceux d’autres internautes. Concrètement, le fait d’avoir « liké » des groupes de rap vous classera parmi les hommes hétérosexuels et le fait d’aimer le funk indiquera une tendance homosexuelle.

L’idée peut paraître simpliste, mais c’est bien sur ce principe que repose l’algorithme censé avoir influé sur l’élection américaine. « Si Facebook reflétait vraiment la vie sociale des gens, effectivement on pourrait faire des choses subtiles , explique Dominique Cardon. Ce qui me fascine dans l’affaire Cambridge Analytica, c’est que tout le monde s’agite sur un truc qui ne marche pas du tout. Et le piège médiatique dans lequel beaucoup sont tombés, c’est d’avoir cru le théoricien de cette société, Michal Kosinski, lorsqu’il disait qu’il pouvait tout prévoir. Ces gens sont des marchands qui ont besoin de faire croire qu’ils savent voir et prédire. Mais c’est du bluff total. Les Big Five , c’est d’une trivialité affligeante. Ce n’est certainement pas faux qu’il y ait des extravertis, des introvertis, mais franchement… Ce n’est pas parce que vous avez classé les gens dans les Big Five que vous pouvez prédire leur comportement politique. Ces méthodes sont pourtant assez courantes. C’est une forme assez réductionniste et catégorielle de la psychologie. »

Au final, peu importe que les algorithmes sachent prédire nos comportements, et avec quel degré de certitude. Ce n’est pas leur objectif. Ce qu’ils recherchent vraiment, c’est l’orientation nos actions. Et pour cela, il leur faut coller le plus possible aux évolutions de la société afin de pouvoir collecter un maximum de données. « Or , pointe Dominique Cardon, notre société est marquée par un individualisme qui fait que nous détestons les catégories : “Je ne suis pas un numéro”, “Je ne veux pas être une ménagère de moins de 50 ans”… Notre société ne cesse d’affirmer que l’identité déborde toujours le système idiot qui vient se poser dessus avec les catégories. Et c’est là que le numérique est arrivé en disant : “Écoutez, c’est formidable parce que nous avons tellement de traces sur vous que l’on peut capturer vos singularités en dessous de cet espace de la catégorie, de la moyenne.” »

Prenant appui sur notre désir d’être individualisés, l’algorithme nous espionne désormais dans le détail et nous profile le plus finement possible. La conséquences de cette évolution est que disparaît alors la notion statistique de catégorie. « Celle-ci était une convention collective commune partagée et interprétable , regrette Dominique Cardon. Désormais, on ne sait plus trop ni pour quoi ni comment on a été désigné : parce qu’on a navigué sur tel site, on a “liké” tel connu… On agrège toute une série de signaux pour produire un calcul qui devient personnalisé, même s’il est toujours collectif car en fait, il compare avec d’autres. Mais on ne sait plus trop ce qu’il compare. »

« C’est un vrai défi politique pour la pensée critique, qui a beaucoup tapé sur la notion de moyenne , poursuit le sociologue. On défend les valeurs d’individuation, de respect de chaque individu. C’est très noble et très juste. Mais du coup, on épouse en partie les principes moraux et philosophiques qui font que les algorithmes viennent nous personnaliser. Ce qui explique une certaine tolérance de la société qui se dit : Pourquoi pas… Si ça marche, si ça me ressemble, si ça peut m’éviter des pubs idiotes qui ne me concernent pas, si ça me propose bien les bons voyages, le bon Uber, etc. »

Un des dangers de cette évolution serait de voir arriver ce que Dominique Cardon appelle dans son livre « la sécession des excellents » . « Plus on personnaliste, plus on fait une société méritocratique, et la méritocratie, c’est ce qui tire toutes les courbes d’inégalités de façon délirante , explique-t-il. Le classement de Google, par exemple, est extrêmement méritocratique. Si vous êtes en tête des classements sur un certain nombre de mots-clefs, c’est peut-être parce que vous le méritez. Mais du coup, si vous n’êtes pas tout aussi “bon” et que vous êtes sur la page 3, vous avez disparu. C’est une société élitiste où les mieux classés ne sont pas illégitimes, du point de vue des critères retenus. Mais on a laissé de côté tous les autres, et comme on n’a pas de catégories pour les rattraper, on les oublie. Un vrai projet politique serait de défendre les médiocres et la moyenne, d’arrêter avec les excellents. Ils sont très bons. Mais si on leur donne toute la place, vers quelle type de société allons-nous ? »

1 « J'aime »

Merci pour l’article :pray:

1 « J'aime »

Synthèse complète et très bonne ; rappel de l’origine du mot algorithme, mais pas vraiment défini.
L’auteur rapporte aux Arabes l’invention des chiffres (Irak actuel). Mais les Hindous avaient transmis l’invention : celle du zéro, celle de la numération de position. Les Hindous avaient besoin de noter la durée de vie de leurs dieux, vers les millions d’années.
Tout ça et bien plus dans le livre de Georges Ifrah, " Histoire universelle des chiffres", 1994, 2000 pages en coffret. (Histoire universelle des chiffres Coffret 2 volumes - Coffret - Georges Ifrah - Achat Livre | fnac ;
Histoire universelle des chiffres, tome 1 - Babelio)
C’est bien une histoire des chiffres, pas des mathématiques.
Je certifie que c’est passionnant.

2 « J'aime »

Dans la Midinale de Radio Pikez cette semaine, on parle de Parcoursup et ses algorithmes :

1 « J'aime »

La proposition de ce sénateur communiste de « Donner les même droits à toutes et à tous » est aussi sélective que ce qu’il dénonce dans Parcousup
A quoi ça a servi que Bourdieu se décarcasse lorsqu’il a écrit Les héritiers en 1964. Depuis rien n’a changé. Avant c’était pas mieux et demain je n’attends rien de ces gens qui avec d’autres mots continueront la reproduction sociale