Sur fond d'un constat sévère sur les retards de l'Europe comme acteur dans l'industrialisation de l'intelligence artificielle, à la remorque de la zone Asie-Pacifique, l'ouvrage plaide pour une rénovation complète de l'éducation. Son programme est celui d'une neuroéducation complètement individualisée, débutant au stade de la sélection embryonnaire, s'étendant sur l'ensemble de la vie, sans salle de classe ni examen, et visant à démocratiser les quotients intellectuels à la
Elon Musk (voire, à la
Leibniz) pour éviter le kidnapping de l'IA et de la robotique par les seuls partisans du transhumanisme (de l'Homo Deus).
Les difficultés du livre tiennent largement en l'acceptation qu'il force, malgré les limites timidement soulignées de la mesure de l'intelligence, des fortes corrélations de celle-ci avec la situation socioéconomique (le niveau de revenu), la longévité, et la capacité innovante. Une dizaine de jeunes programmeurs doués, créant Whatsapp, générant en un an plus de valeur que Renaud avec ses milliers d'employés peu qualifiés en 5 ans. La finalité eugéniste prônée peuvent être rebutante, mais elle est avancée comme conforme à une visée d'égalité, de non-subordination impuissante aux décisions à venir.
Laurent Alexandre livre une réflexion détaillée et recommandable, tant dans l'historique qu'il retrace de l'IA, de son hiver sorti de Dartmouth college aux projets Neuro link et consort, que dans la conscience qu'il manifeste des enjeux et scénarios / basculements possibles : allant d'IA forte indépendante et hostile, à supérieure mais paternaliste, en passant par coopérative et complémentaire (et une dizaine d'autres). Comment et peut-on légiférer un domaine qui concerne une capacité dont nous commençons seulement à avoir une vision un peu rigoureuse, et sans savoir ce que nous voulons et pouvons vouloir ?
Il offre une vision globale qui pèse et sous-pèse plusieurs postures contrastées; une vision ancrée sur un ensemble de valeurs dites humanistes et technologues campées sur un bien commun étendu, dont
Bill Gates, consacrant sa fortune à combattre la maladie et la sous-scolarisation en Afrique, fait office de modèle.
Je suis venu à ce livre après Homo Deus: A History of Tomorrow de Harrari. Ce dernier manifeste une conscience plus aiguisée de la contingence et de l'impossibilité de prévoir l'avenir (par contraste, Alexandre semble se prononcer sans hésitation sur les décisions qui seront prises dans vingt, trente, quarante et soixante ans), en même temps qu'il est moins riche en ce qui a trait aux scénarios possibles. Une des différences entre Alexandre et Harrari tient en ceci que le second estime que le développement de l'IA externalise dans les algorithmes l'autorité que les religions humanistes ont logé dans un laborieux travail de connaissance de soi; alors qu'Alexandre tend à considérer que ce développement peut mener à un renchaussement / réinvestissement de la connaissance de soi (fût-ce du fait des contacts qui deviendront réels avec des formes d'intelligence hybrides inédites; et fût-ce parce que le pouvoir de définition des problèmes et des limites relève de notre juridiction, et ne peut être d'emblée concédé au domaine de l'IA forte). Une autre différence tient en ceci que Harrari doute que les fonds publics soient mis à contribution pour égaliser l'accès à la neuroaugmentation. Il formule ce point en faisant l'hypothèse que, à la différence des masses prolétaires du siècle dernier (énorme pouvoir économique irremplaçable s'alliant à un pouvoir politique faible ou inexistant) les masses du futur qui seront déqualifiées par les progrès rapides de l'IA seront inutiles et économiquement et politiquement. Alexandre suppose que la perspective d'un État providence travaillant à généraliser la neuroaugmentation est d'autant plus plausible que le sens même de la solidarité tel qu'il s'est historiquement forgé ne serait rien d'autre que diminuer les décalages entre le niveau de richesse qu'apporte à une minorité son quotient intellectuel élevé, et celui de sa contrepartie sous- ou moyennement-douée.
Une tension semble diviser l'ouvrage entre une partie où Alexandre s'est persuadé que l'intelligence est génétiquement déterminée à 50% (voire au 2/3 de ses variations individuelles), et où l'acceptation d'un futur neuro-augmenté prend des allures de marche ou crève; et une partie où il concède à
Kevin Kelly que l'intelligence est multiple, et que, l'intelligence artificielle n'exacerbant souvent qu'un ou quelques unes de ses facettes (y compris certaines inconnues), le scénario de la complémentarité du fait de faiblesses mutuelles humains/machines prend des allures de jeu à multiples inconnus, qui comprend un droit au hasard et à la déconnexion. le programme de la neuroéducation prôné, sans prendre tout à fait partie pour un des scénarios esquissés, penche vers l'hypothèse de Kelly, ainsi qu'en témoigne l'identification de ce programme à la tâche de tendre, de manière dynamique et souvent remise à jour, vers une mesure du quotient de complémentarité avec l'IA en guise de remplacement du QI. Dans le même ordre d'idée, Alexandre s'entend avec le paléoanthropologue
Pascal Picq à l'effet que nous avons tout intérêt à respecter les autres animaux et leur intelligence, de manière à comprendre que le sort que nous leur réservons pourrait devenir le nôtre entre les mains d'une IA forte, apprenant par elle-même sa supériorité et notre incertitude quant à ce que vous voulons à son endroit, et qui nous réduirait à des commodités muettes ou des nuisances.
Bref, il s'agit d'un livre stimulant, riche, distanciant certains lieux communs, servant bien ses objectifs de (préparer à) regarder sérieusement ce que l'éducation et l'intelligence peuvent devenir.