Avec l'arrivée des voitures intelligentes et plus largement des "agents moraux artificiels" (dont les préposés aux bénéficiaires s'occupant des personnes âgées au Japon) les expériences de pensée de type sacrifier une personne pour en sauver 5 sortent du cadre de la philosophie de salon, où elles étaient confinées jusqu'ici, et acquièrent une portée pratique actuelle. Dans
Faire la morale aux robots, Gibert part de cette prémisse et explore les théories morales prédominantes de manière à dégager leurs limites avant de défendre l'hypothèse d'un possible avantage de l'une d'elles, l'éthique des vertus. Avantage qu'il mesure en termes d'humilité et de modération.
Le déontologisme, qui repose sur l'adhésion à des devoirs à l'égard du bien que nous devons respecter indépendamment des conséquences de nos actions, fait écho à une période de l'entreprise de l'intelligence artificielle dominée par le rationalisme et la production de systèmes expert. Ces systèmes visaient à "canner" tous les problèmes et les réponses que possède l'expert dans un domaine donné, dont les échecs. Ces systèmes ont échoué à naviguer dans des environnements nouveaux et changeants sans de constantes et coûteuses mises à jour. Leurs déconvenues s'expliquent partiellement par le fait que les experts sont eux-mêmes, à la différence des novices, incapables de formuler intégralement leurs règles de conduite pour leur propre profit ou à fortiori celui d'un programmeur. Herbert Marcus en avait fait une démonstration forte jadis (dans "La portée philosophique du connexionnisme").
D'après Gibert, l'installation d'algorithmes conséquentialistes et plus spécifiquement utilitaristes dans les agents moraux artificiels suppose une exagération de notre capacité - et de celle qu'aurait une voiture intelligente par exemple - à anticiper les effets de nos décisions et à définir de façon consensuelle ce qu'est la liberté ou le bien-être qu'il convient de maximiser. Il insiste également, à la suite, et dans les termes de,
Nick Bostrom sur l'éventualité que l'automation d'un objectif banal puisse engendrer des conséquences négatives voire désastreuses (l'exemple de l'usine qui en vient à détruire l'humanité pour optimiser sa production de trombones).
L'éthique de la vertu, qui consiste à prendre exemple sur des personnes reconnues vertueuses, permettrait, d'après lui, de combler les manques à gagner qu'accusent les deux approches précédentes dans leur application au domaine de l'intelligence artificielle, ainsi qu'elle éviterait aux machines intelligentes de répliquer les biais parfois peu défendables ou avouables des raisonnements et intuitions morales de la majorité des gens. L'auteur nous renvoi sur ce sujet aux résultats des plus larges enquêtes disponibles, menées au MIT, en ligne, avec des participants distribués à travers le monde. Les décisions morales les plus massivement enregistrées sont simultanément ou alternativement, selon le lieu géographique/culturel des répondants, classistes - mieux sauver un riche qu'un pauvre ; légalistes - mieux vaut sauver un piéton qui respecte la signalisation routière que l'inverse ; âgistes - il est préférable de sauver un jeune qu'une personne âgée; ou spécistes - mieux vaut sauver un humain qu'un animal.
Le choix de procéder au modelage des décisions des agents moraux artificiels d'après un échantillon des actions posées par des personnes reconnues vertueuses est, pour ne pas être d'une réalisabilité évidente, aussi une manière d'avouer et de faire la paix avec nos limites en matière de raisonnements moraux, d'insister Gibert. C'est-à-dire qu'il conviendrait de faire des agents moraux artificiels les dépositaires, non d'une méta-capacité morale incommensurablement supérieure à la nôtre, mais d'une capacité légèrement supérieure à celle d'une personne choisie au hasard. Cet appel à la modestie trouve des appuis chez
Daniel Andler dans sa critique de l'entreprise de production d'une sur-intelligence artificielle (Andler, Intelligence humaine et intelligence artificielle : la double énigme).
Ce petit ouvrage a l'avantage sur ce dernier d'être agréablement et accessiblement écrit (tandis que Andler est pénible et lourd). Gibert offre un habile mélange de prose romanesque, d'incursions dans les observations quotidiennes, et de réflexions conceptuelles, à distance.
En plus des questions auxquelles il a été fait référence ici, le lecteur a droit à un panorama de l'histoire de l'intelligence artificielle qui peut être utilisé à profit à des fins pédagogiques. Gibert offre, dans ce même esprit, une manière stimulante de s'engager dans la réflexion sur les biais de raisonnement dont les agents moraux artificiels héritent par voie d'apprentissage libre. Il survole de manière éloquente ce que les seules sciences et sciences fiction véhiculent comme visions des hommes et des femmes. S'aventurant ensuite à user d'une légère modification de ces conventions (en préférant le elle par défaut ou il par défaut), il nous permet de réaliser que de petites différences peuvent avoir de grands effets.
Une critique que l'on peut faire à son livre est d'économiser sur l'effort consistant à définir ce qui fait que certaines personnes sont reconnues comme plus vertueuses que les autres. La facilité alléguée hypothétiquement sur un plan, celui du choix que chacun de nous saurait faire d'une personne (ou d'une poignée de personnes) plus vertueuses qu'il ne l'est lui-même, permet-elle vraiment d'esquiver la difficulté qu'il peut y avoir à s'entendre sur les raisons et valeurs motivant ce choix? Par ailleurs, abstraction faite des critiques situationnistes (voir R.
Ogien,
L'influence de l'odeur des croissants chauds sur la bonté humaine), s'il s'avérait que la vertu se ramenait à l'alternance entre une posture déontologiste et une posture conséquentialiste à des moments jugés opportuns, comme cela apparaît implicitement dans les propos de l'auteur, pourrait-on toujours soutenir que nous tenons, avec l'éthique de la vertu, une posture distincte qui résout les manques à gagner du conséquentialisme et du déontologisme, sinon en général, du moins lorsque "implémentés" artificiellement?