Plutôt que de « cracker » le code des algorithmes, il faut comprendre comment pensent leurs concepteurs

Plutôt que de « cracker » le code des algorithmes, il faut comprendre comment pensent leurs concepteurs

Publication réalisée par Digital Society Forum

 

 

 

Pour comprendre les algorithmes, l’essentiel n’est pas de « cracker » le code mais de connaître les mondes sociaux où ils naissent

 

Là où la plupart des discours critiques tendent à se concentrer sur le code et l’importance d’ouvrir les « boîtes noires », le chercheur américain Nick Seaver s’est intéressé à ceux et celles qui les font : les humains dans la machine, ceux et celles qui travaillent à fabriquer les algorithmes. Ethnographe de formation, il s’intéresse aux « mondes » sociaux des algorithmes plutôt qu’à leurs codes. Ses recherches ouvrent une façon à la fois passionnante et vertigineuse de penser ces objets : non comme une formule secrète qu’on pourrait percer et mettre à la lumière, mais comme un fait social, distribué en une multitude d’agents. Mais si l’algorithme se dilue dans les pratiques, où porter la critique ?

 

Comment définissez-vous un algorithme ?

 

Aujourd’hui, on a tendance à parler des algorithmes toujours sur le même mode. Si vous regardez les articles qui paraissent sur les algorithmes, vous voyez qu’ils suivent tous le même schéma : d’abord on dit qu’ils sont partout puis qu’ils sont mystérieux et opaques… Je pense qu’il faut changer nos représentations sur les algorithmes : ne plus les voir comme des objets rigides, obéissant à des règles strictes mais les penser comme des objets beaucoup plus fluides, en changement permanent.

Pour ma part, je m’intéresse de plus en plus aux « systèmes algorithmiques » : un ensemble qui inclut non seulement l’algorithme, quel qu’il soit, mais aussi les données à partir desquelles il est conçu et surtout les gens qui travaillent dessus. Je ne vois pas vraiment de raison de distinguer entre l’algorithme et les gens qui le conçoivent, puisque ces derniers peuvent le modifier à volonté. C’est le problème des approches de rétro-ingénierie : elles partent du principe que l’algorithme est stable. Or il n’y a aucune raison de penser que l’algorithme est identique dans le temps, ni qu’il est le même pour différents utilisateurs.

 

Pourtant, l’approche de rétro-ingénierie est souvent présentée comme une des solutions pour « ouvrir les boîtes noires » …

 

Avec la rétro-ingénierie, il y a cette idée qu’on va accéder à ce que les ingénieurs pensent. Et ensuite, on leur reproche de penser comme des machines, de ne pas comprendre la culture (dans le cas des algorithmes de recommandation de contenus culturels). J’ai envie de répondre : « Vous pensez que cette personne pense comme un ordinateur, parce que vous essayez de deviner ce qu’elle pense à travers un ordinateur. Alors que c’est impossible ! Vous ne pouvez pas voir la complexité et la richesse de ce monde à travers un écran. » Par ailleurs, je pense qu’en tant que chercheurs en sciences sociales, nous avons mieux à faire que de jouer les espions… Je trouve ça déprimant d’écrire toute une thèse sur quelque chose que vous auriez pu trouver en hackant les serveurs d’une boîte ou en servant des verres à un ingénieur jusqu’à ce qu’il soit assez ivre pour lâcher le morceau !

 

Vous avez donc étudié les algorithmes de recommandation musicale en ethnographe. Comment avez-vous mené votre enquête ?

 

J’ai fait du terrain et mené des entretiens avec des experts du secteur. J’ai assisté à des réunions, des conférences professionnelles…  J’ai travaillé trois mois pour une entreprise fabriquant des algorithmes de recommandation musicale. Bien sûr, je n’étais pas aux réunions les plus importantes et j’ai signé des accords de confidentialité. Ce n’est pas avec cette méthode que vous allez apprendre comment fonctionne en détail la fonction Discover Weekly sur Spotify.

Mais je ne pense pas que ce soit si important pour les sciences sociales de comprendre comment un algorithme fonctionne à un moment donné, parce que tout ça bouge très vite. Ce que j’ai appris il y a deux ans doit déjà être largement obsolète. Par contre, ce qui change bien plus lentement, c’est le monde dans lesquelles se créent ces configurations techniques : à quoi il ressemble, comment il fonctionne et comment cela se répercute sur les outils qui y sont conçus. Pour moi, il est plus important de savoir comment pensent les gens qui construisent l’algorithme du Newsfeed que de savoir quel facteur fait que telle photo apparaît à tel moment.

 

Dans vos travaux, vous parlez notamment des métaphores employées par les ingénieurs pour décrire leur travail…

 

Oui, certaines sont vraiment étranges. Certains disent : je suis un charpentier, un fermier, un jardinier, ou même un « park ranger », un gardien de parc naturel ! Je ne pense pas qu’ils veuillent dire par là que leur travail est parfaitement naturel, mais plutôt qu’ils ont un grand degré de contrôle sur le fonctionnement du système – et qu’en même temps, celui-ci les surprend parfois. Ils décident quoi planter et où, mais ils ne décident pas en détails de comment ça va pousser. Quand ils se décrivent comme des fermiers, ce n’est pas qu’une façon de dire « je suis gentil, je ne suis pas quelqu’un qui vous espionne en utilisant tous les capteurs de votre téléphone » : ils font aussi référence à cette relation de maîtrise et de manque de maîtrise.

Une autre image qui revient beaucoup est celle du piège : « piéger les utilisateurs », les retenir. Aujourd’hui, la rétention d’usagers est centrale. Ça découle de trois grandes tendances : d’une part des changements dans l’infrastructure technique qui font qu’on peut maintenant conserver de grandes quantités de données, d’autre part un souci légitime des ingénieurs d’avoir des données de la part des utilisateurs pour leur proposer des choix pertinents et enfin l’intérêt des investisseurs, qui considèrent le nombre d’usagers attirés par votre service comme un atout, chiffrable. Vous avez donc une préoccupation constante pour la rétention des usagers sur les services — qui est aussi liée à l’influence très forte du comportementalisme. Il y a cette idée que ce que les gens font a plus de valeur que ce qu’ils disent : les gens vont donner 5 étoiles à un film mais ils ne le regarderont pas jusqu’au bout. Il faut donc développer des techniques de « behavioral design », de design comportemental, pour « capturer l’usager », « faire passer le consommateur dans l’entonnoir du produit » mais aussi « conserver ses employés » …

De façon générale, ce qu’il y a de bien avec la musique, c’est que les gens ont moins peur de donner une mauvaise image d’eux-mêmes quand ils parlent de leur travail, car les enjeux sont moins forts qu’ailleurs ! Un système de recommandation de contenu musical ne va pas vous envoyer en prison, vous faire tuer ou vous priver d’accès au logement…

 

Dans vos recherches, vous rencontrez des ingénieurs qui disent eux-mêmes ne pas bien savoir comment fonctionne l’algorithme, ni ce qu’il est…

 

C’est comme si vous demandiez aux Parisiens ce qu’est un Parisien.  Tout le monde vous répondra : « Je ne suis pas vraiment un Parisien » parce qu’il existe une vision abstraite et imaginaire de ce que serait un Parisien et que toutes ces personnes ont des spécificités. L’algorithme c’est un peu pareil. C’est un produit collectif, le résultat du travail d’un grand nombre de gens – c’est pourquoi personne n’a l’impression qu’il travaille sur « l’algorithme ». A la place, quelqu’un dira : « Je suis la personne qui développe le système pour modéliser le son qui entre dans le système de recommandation ». C’est diffus : personne n’a l’impression de travailler sur l’algorithme parce que tout le monde travaille sur l’algorithme. Il n’y a pas de consensus sur son fonctionnement : certains pensent qu’il fonctionne d’une certaine façon, d’autre d’une autre. Et tout cela se manifeste, d’une façon ou d’une autre, dans la conception de l’outil final et l’informe nécessairement. C’est pourquoi, à mon sens, il est beaucoup plus intéressant d’étudier ces objets comme des phénomènes sociaux.

 

Mais ça pose quand même un problème de taille : est-ce que cette perspective n’aboutit pas à dissoudre l’objet ? Si l’algorithme est partout et nulle part, où porter la critique ?

 

Je partage cette inquiétude, comme beaucoup d’autres. Nous avons besoin de penser l’algorithme comme un objet concret, pour pouvoir agir dessus. Mais en réalité, considérer l’algorithme comme un ensemble de pratiques peut améliorer la critique. Dans un premier temps, on peut certes avoir l’impression que la critique dissout l’objet, que l’algorithme, diffus, diffracté, n’existe pas.  Alors que si ! C’est juste le produit de pratiques tout à fait humaines. Dès lors, ce n’est plus un problème si compliqué. Dès que l’on sait que l’on vise des pratiques et pas un objet abstrait, on peut réglementer de façon plus efficace.

 

Publication réalisée par Digital Society Forum

 

Leave a Reply