Dominique Cardon. Comprendre les algorithmes pour en tirer parti.
Comme l'ont souligné beaucoup de travaux d'histoire et de sociologie, les objets techniques ne fonctionnent que parce qu'ils opérèrent dans un "milieu associé" qui les rend efficaces et pertinents. Les calculs ne calculent vraiment que dans une société qui a pris des plis spécifiques pour se rendre calculable. Aussi faut-il comprendre comment nos sociétés sécrètent certaines manières de se chiffrer plutôt que d'autres. Que valorisent-elles dans leur façon de compter et de classer ?
Internet pousse les murs tout en enlevant le plancher.
Il est encore temps de dire aux algorithmes que nous ne sommes pas la somme imprécise et incomplète de nos comportements.
(p.103)
« Le comportementalisme radical joue ce rôle à la fois lucide et démoralisant de montrer à des sujets qui pensaient s'être émancipés des déterminations que, en ce qu'ils pensent être des singularités inassignables, ils continuent à être prévisibles, petites souris mécaniques dans les griffes des calculateurs. Vue depuis les algorithmes, la société ne repose plus sur de grands systèmes de déterminations, mais elle est une sorte de micro-physique des comportements et des interactions que des capteurs placés à bas niveau savent décoder. » (p. 69)
[...] les technologies trament notre monde depuis si longtemps qu'il est erroné de séparer les humains de leur environnement sociotechnique. Des premiers outils préhistoriques à l'invention de l'écriture, de la mécanisation de l'imprimerie à la numérisation de l'information, de la création des listes et des tableaux comptables au calcul scientifique, la longue histoire des technologies intellectuelles est au cœur de l'évolution de l'humanité. Il serait naïf de croire qu'elles n'ont pas transformé profondément ce que nous sommes, ce que nous savons, nos manières de penser et les représentations que nous avons de nous-mêmes.
La prédiction est une probabilité qui comporte toujours une marge d'erreur créant des "faux positifs". Si un algorithme était capable de détester un comportement terroriste sur le réseau avec une marge d'erreur de 1%, ce qui constituerait déjà une prouesse, l'algorithme identifieraient 600 000 personnes sur les 60 millions de Français. Si en réalité, il n'y a que 60 terroristes, la surveillance des 599 940 autres semble totalement disproportionnée. Sans doute est il plus raisonnable d'obtenir de bons signaux au moyen de renseignements humains, pour ensuite se mettre à l'écoute des suspects.

L'obligation de loyauté interroge non pas une vaine objectivité ou vérité de la représentation des informations , mais l'alignement, ou le désalignement, entre le service que la plateforme prétend rendre et la réalité de ce qu'elle offre. Que Google privilégie ses propres services dans son classement (alors que ceux-ci ont moins d'"autorité" que d'autres), que Facebook donne une forte visibilité à certains contenus (alors que l'utilisateur n'a pas un fort "engagement" avec eux), qu'Amazone ajoute des livres à promouvoir dans ses recommandations (alors qu'ils ne correspondent pas à des utilisateurs ayant un profil d'achat similaire), et le service rendu par les algorithmes apparaîtra "déloyal". Les algorithmes hiérarchises les informations, et c'est pour cela qu'ils sont utiles et mêmes essentiels. Mais il est indispensable que les services puissent expliquer à l'utilisateur les priorités qui président aux décisions de leurs calculateurs; et qu'on puisse vérifier, en toute indépendance, que des intérêts cachés, des déformations clandestines ou des favoritismes n'altèrent pas le service rendu.
Mais ils (les algorithmes) contribuent aussi à assujettir l'internaute à cette route calculée, efficace, automatique, qui s'adapte à nos désirs en se réglant secrètement sur le trafic des autres. Avec la carte, nous avons perdu le paysage. Le chemin que nous suivons est le " meilleur" pour nous.
Mais nous ne savons plus bien identifier ce qu'il représente pa rapport aux autres trajets possibles, aux routes alternatives et peu empruntées, à la manière dont la carte compose un ensemble. Nous allons pas en revenir aux voyages de groupe et à leur guide omniscient. En revanche, nous devons nous méfier du guidage automatique. Nous pouvons le comprendre et soumettre ceux qui le conçoivent à une critique vigilante. Il faut demander aux algorithmes de nous montrer et la route, et le paysage.
A l'heure des big data, il est de moins en moins possible de connaître à l'avance le sens et la nature des calculs qui vont être conduits à partir des données collectées.
(p.79)

Les mesures fixent des règles pour calculer les événements qu'elles enregistrent. Elles leur donne une forme. Twitter a décidé que les mouvements d'opinion devraient être immédiats et simultanés, associant ainsi la culture du direct télévisuel à celle de la viralité sur Internet. Comprendre et critiquer cette culture du "pic" attentionnel, c'est aussi encourager d'autres manières de mesurer et de donner de la visibilité à la circulation des opinions sur la Toile. Le développement d'une éducation et d'une culture partagées des algorithmes devrait nous aider à décoder et interpréter la manière dont ils façonnent nos représentations. A la suite de protestations des mouvements féministes, Amazone a retiré en mai 2015 de l'interface de son site la possibilités de rechercher des jouets " garçons" ou des jouets " filles. Sous la pression des utilisateurs, Facebook a dû revenir sur plusieurs de ses initiatives visant à introduire dans le fil d'actualité des informations qui n'étaient pas associées aux conversations des utilisateurs. C'est en soumettant les modèles à des audits indépendants qu'il est à la fois possible de prendre de la distance à l'égard des verdict des algorithmes et de leur opposer des calculs alternatifs.