Un avis mitigé sur cet essai.
L'introduction utilise à tour de bras le terme de « IA de recommandation ».
Le terme n'est jamais défini dans le livre.
Le terme n'est jamais expliqué : il ne fallait pas faire abstraction de cela.
Cependant, avec un chapitre expliquant « IA de recommandation » et Algorithme alors, on aurait remarqué que « IA » est utilisé de façon abusive dans l'ouvrage.
On ne peut pas parler de machines simulant l'intelligence humaine quand on parle juste de la mise en place de règles soumises au bon vouloir du patron !
Cf. l'article du guardian “
Elon Musk reportedly forced Twitter algorithm to boost his tweets after Super Bowl flop”. Nul besoin de « Deep Learning » pour mettre en oeuvre des recommandations toxiques :
> Quoi de plus « engageant » émotionnellement qu'un appel à la haine et à la colère ? Pas grand-chose, on le sait depuis une étude qui révélait dès 2015 que le sentiment de « colère » était le plus efficace quand il s'agissait de rendre un contenu viral.
Vient ensuite un chapitre qui illustre avec un bon recensement de réelles conséquences que l'on laisse non pas à des « IA » mais aux GAFAMs.
C'est la meilleure partie de l'essai : nous mettre sous les yeux les manipulations, les crimes de ces plateformes. Voici l'exemple de Molly une adolescente qui a mis fin à ses jours :
> La plateforme Pinterest avait par exemple envoyé des e-mails à Molly avec des titres certainement choisis par son IA de recommandation tels que : « 10 images de dépression que tu pourrais aimer. »
Il replace aussi dans un contexte plus large de lobbying, de manipulation de la science et de l'art d'instiller du doute là où il n'y en a pas (Cf. le Tabac, le réchauffement climatique…) Ensuite le livre articule une solution, ou plutôt un chemin vers une solution.
La solution, je n'y adhère pas. C'est du techno solutionnisme : créer une IA démocratique.
Certes les auteurs ne masquent pas les immenses difficultés et pistes de recherches nécessaires.
Les biais, défauts potentiels, dangers de manipulations sont innombrables !
Il manque clairement de recherche.
Les auteurs sont honnêtes avec cela.
> la conception d'une démocratie algorithmique est un énorme chantier, qui soulève un nombre de défis colossal, aussi bien mathématiques et informatiques, que philosophiques, psychologiques, sociologiques, économiques, juridiques et politiques – en plus de l'expertise nécessaire pour juger la recommandabilité de contenus plus ou moins techniques sur des sujets extrêmement variés. D'autre part, pour qu'une telle gouvernance algorithmique soit bénéfique, il est nécessaire de mobiliser une majorité de citoyens. Sans cette dernière condition, un tel projet n'aurait que très peu de sens. Des progrès monumentaux dans tous ces domaines sont par conséquent urgemment requis pour élaborer une gouvernance algorithmique satisfaisante.
Je vois dans une grande partie de l'essai, une tentative de mettre en avant et de façon excessive la plateforme de
Lê Nguyên Hoang : « Tournesol ».
Il y en a 96 références. Sur 366 pages sachant que le livre est écrit à deux mains, c'est beaucoup. Trop.
J'avais l'impression d'un essai promotionnel de ladite solution.
Personnellement, je ne suis pas d'accord avec la prémisse que le socio solutionnisme (changer les mentalités) est trop lent et donc que l'IA techno-solutionnisme est le chemin.
Un fait pour voir que l' « IA démocratique » est illusoire et dangereuse : « 15 % de la population de 15 ans et plus est victime d'illectronisme, selon les données 2021 de l'Insee ».
Déposséder encore plus les gens au profit d'une élite et d'un algorithme immense et complexe ?
Je vous laisse faire votre avis.
Le mien est fait : Une « Gouvernance Algorithmique » ? Comment dire…
Lien :
https://post-tenebras-lire.n..