AccueilMes livresAjouter des livres
Découvrir
LivresAuteursLecteursCritiquesCitationsListesQuizGroupesQuestionsPrix BabelioRencontresLe Carnet
EAN : 9782080243973
168 pages
Climats (07/04/2021)
4.31/5   8 notes
Résumé :
Une voiture pilotée par une intelligence artificielle est face à un choix tragique : pour éviter un enfant qui traverse la route, elle doit écraser un vieillard sur le bas-côté. Que faire, qui sauver dans l’urgence ? Voilà un dilemme qui rappelle la fameuse expérience de pensée du tramway, et qui illustre les enjeux moraux de l’intelligence artificielle.
Comment programmer nos robots – de transport, militaires, sexuels ou conversationnels – pour qu’ils prenne... >Voir plus
Que lire après Faire la morale aux robotsVoir plus
Critiques, Analyses et Avis (4) Ajouter une critique
Avec l'arrivée des voitures intelligentes et plus largement des "agents moraux artificiels" (dont les préposés aux bénéficiaires s'occupant des personnes âgées au Japon) les expériences de pensée de type sacrifier une personne pour en sauver 5 sortent du cadre de la philosophie de salon, où elles étaient confinées jusqu'ici, et acquièrent une portée pratique actuelle. Dans Faire la morale aux robots, Gibert part de cette prémisse et explore les théories morales prédominantes de manière à dégager leurs limites avant de défendre l'hypothèse d'un possible avantage de l'une d'elles, l'éthique des vertus. Avantage qu'il mesure en termes d'humilité et de modération.
Le déontologisme, qui repose sur l'adhésion à des devoirs à l'égard du bien que nous devons respecter indépendamment des conséquences de nos actions, fait écho à une période de l'entreprise de l'intelligence artificielle dominée par le rationalisme et la production de systèmes expert. Ces systèmes visaient à "canner" tous les problèmes et les réponses que possède l'expert dans un domaine donné, dont les échecs. Ces systèmes ont échoué à naviguer dans des environnements nouveaux et changeants sans de constantes et coûteuses mises à jour. Leurs déconvenues s'expliquent partiellement par le fait que les experts sont eux-mêmes, à la différence des novices, incapables de formuler intégralement leurs règles de conduite pour leur propre profit ou à fortiori celui d'un programmeur. Herbert Marcus en avait fait une démonstration forte jadis (dans "La portée philosophique du connexionnisme").
D'après Gibert, l'installation d'algorithmes conséquentialistes et plus spécifiquement utilitaristes dans les agents moraux artificiels suppose une exagération de notre capacité - et de celle qu'aurait une voiture intelligente par exemple - à anticiper les effets de nos décisions et à définir de façon consensuelle ce qu'est la liberté ou le bien-être qu'il convient de maximiser. Il insiste également, à la suite, et dans les termes de, Nick Bostrom sur l'éventualité que l'automation d'un objectif banal puisse engendrer des conséquences négatives voire désastreuses (l'exemple de l'usine qui en vient à détruire l'humanité pour optimiser sa production de trombones).
L'éthique de la vertu, qui consiste à prendre exemple sur des personnes reconnues vertueuses, permettrait, d'après lui, de combler les manques à gagner qu'accusent les deux approches précédentes dans leur application au domaine de l'intelligence artificielle, ainsi qu'elle éviterait aux machines intelligentes de répliquer les biais parfois peu défendables ou avouables des raisonnements et intuitions morales de la majorité des gens. L'auteur nous renvoi sur ce sujet aux résultats des plus larges enquêtes disponibles, menées au MIT, en ligne, avec des participants distribués à travers le monde. Les décisions morales les plus massivement enregistrées sont simultanément ou alternativement, selon le lieu géographique/culturel des répondants, classistes - mieux sauver un riche qu'un pauvre ; légalistes - mieux vaut sauver un piéton qui respecte la signalisation routière que l'inverse ; âgistes - il est préférable de sauver un jeune qu'une personne âgée; ou spécistes - mieux vaut sauver un humain qu'un animal.
Le choix de procéder au modelage des décisions des agents moraux artificiels d'après un échantillon des actions posées par des personnes reconnues vertueuses est, pour ne pas être d'une réalisabilité évidente, aussi une manière d'avouer et de faire la paix avec nos limites en matière de raisonnements moraux, d'insister Gibert. C'est-à-dire qu'il conviendrait de faire des agents moraux artificiels les dépositaires, non d'une méta-capacité morale incommensurablement supérieure à la nôtre, mais d'une capacité légèrement supérieure à celle d'une personne choisie au hasard. Cet appel à la modestie trouve des appuis chez Daniel Andler dans sa critique de l'entreprise de production d'une sur-intelligence artificielle (Andler, Intelligence humaine et intelligence artificielle : la double énigme).
Ce petit ouvrage a l'avantage sur ce dernier d'être agréablement et accessiblement écrit (tandis que Andler est pénible et lourd). Gibert offre un habile mélange de prose romanesque, d'incursions dans les observations quotidiennes, et de réflexions conceptuelles, à distance.
En plus des questions auxquelles il a été fait référence ici, le lecteur a droit à un panorama de l'histoire de l'intelligence artificielle qui peut être utilisé à profit à des fins pédagogiques. Gibert offre, dans ce même esprit, une manière stimulante de s'engager dans la réflexion sur les biais de raisonnement dont les agents moraux artificiels héritent par voie d'apprentissage libre. Il survole de manière éloquente ce que les seules sciences et sciences fiction véhiculent comme visions des hommes et des femmes. S'aventurant ensuite à user d'une légère modification de ces conventions (en préférant le elle par défaut ou il par défaut), il nous permet de réaliser que de petites différences peuvent avoir de grands effets.
Une critique que l'on peut faire à son livre est d'économiser sur l'effort consistant à définir ce qui fait que certaines personnes sont reconnues comme plus vertueuses que les autres. La facilité alléguée hypothétiquement sur un plan, celui du choix que chacun de nous saurait faire d'une personne (ou d'une poignée de personnes) plus vertueuses qu'il ne l'est lui-même, permet-elle vraiment d'esquiver la difficulté qu'il peut y avoir à s'entendre sur les raisons et valeurs motivant ce choix? Par ailleurs, abstraction faite des critiques situationnistes (voir R. Ogien, L'influence de l'odeur des croissants chauds sur la bonté humaine), s'il s'avérait que la vertu se ramenait à l'alternance entre une posture déontologiste et une posture conséquentialiste à des moments jugés opportuns, comme cela apparaît implicitement dans les propos de l'auteur, pourrait-on toujours soutenir que nous tenons, avec l'éthique de la vertu, une posture distincte qui résout les manques à gagner du conséquentialisme et du déontologisme, sinon en général, du moins lorsque "implémentés" artificiellement?
Commenter  J’apprécie          00
C'est un essai sur l'éthique des algorithmes très intéressant et facile à lire – contrairement à ce qu'on pourrait croire! Il y est question de philo et du problème moral que pose la programmation des intelligences artificielles. Les IA sont des outils de prise de décision de plus en plus omniprésents dans tous les aspects de nos vies : doit-on confier à des programmeurs la responsabilité de choisir les critères moraux qui régiront bientôt le monde? Existe-t-il un compas moral universel, qui pourrait être inculqué aux machines et qui conviendrait à toutes les sociétés? Comment éviter de reproduire nos biais et de créer des robots sexistes ou racistes? Il n'y a pas de réponse facile, évidemment, mais la réflexion est vraiment intéressante et très importante.

L'auteur compare différentes théories philosophiques en les appliquant à divers dilemmes moraux bien connus (Doit-on sauver l'enfant ou le vieillard?), et présente des exemples tirés des classiques de la science-fiction pour illustrer ses idées. Même si elle est très accessible, c'est une lecture vertigineuse et quelque peu inconfortable, car elle nous fait prendre conscience de l'urgence de trouver des réponses à des questions qui n'en ont pas. Je recommande...
Commenter  J’apprécie          80
Voilà un essai particulièrement stimulant !
Martin Gibert propose une synthèse de l'état des recherches sur la question de l'éthique des algorithmes.
Naviguant entre références philosophiques, techniques et de science-fictives, il nous propose un tour d'horizon des problématiques liées à cet épineuse question de "l'éthique des algorithmes".

Au programme : de fameuses expériences de pensées, la dichotomie utilitariste/déontologiste - jusqu'à l'arrivée d'un troisième pôle -, les différents profils d'IA - oracle - ou encore l'application de logique déductive et inductive.

Toute une partie du livre est consacrée à une mise en garde contre la reproduction de dominations systémiques dans le coeur même des algorithmes - et ce, même involontairement. Quid des femmes, des racisé.e.s ou des pauvres ? Par exemple.
L'auteur enchaîne cette réflexion avec un passage au féminin par défaut. Ce qui devient en soi une sorte d'expérience de pensée - mais dans un sens plus littéraire.

La conclusion est engageante au possible. Faire la morale aux robots ? C'est faire de la morale tout court, donc c'est autant parler d'eux que de nous.

Le ton est érudit mais accessible, au point d'être parfois familier. Cela ne m'a pas du tout dérangé mais cela pourra faire tiquer quelques paires d'yeux.

À signaler la très belle couverture, une réussite. Et introduisant un personnage que l'on retrouvera au fil de la lecture...

Commenter  J’apprécie          30
Philosophe et chercheur en éthique de l'intelligence artificielle à Montréal, l'auteur met au jour dans ce court essai les questions morales posées par la programmation des robots « intelligents ».
Comme l'indique le sous-titre, il s'agit plutôt d'une introduction où l'auteur défriche avec concision les enjeux philosophiques voire politiques posés par l'intelligence artificielle (IA). Emaillé d'exemples puisés à partir de robots existants, et de références à la fiction littéraire, il distingue les différentes théories morales puis les diverses techniques utilisées en IA, qu'il associe ensuite pour envisager trois types de robots qui réagiraient différemment face à des dilemmes moraux. Il traite également des biais de genre et ethniques dans la programmation et des questions soulevées par de potentielles « superintelligences »

Lire la suite en suivant le lien
Lien : http://www.scienceenlivre.or..
Commenter  J’apprécie          20

Citations et extraits (6) Voir plus Ajouter une citation
S'il ne fait guère de doute que la littérature produit ou renforce plusieurs de nos biais cognitifs, cela ne signifie pas que les auteurs encouragent sciemment la perpétuation des stéréotypes. Ils peuvent après tout plaider qu'ils se contentent de décrire la réalité, laquelle comporte plutôt des infirmières que des infirmiers, et assurément plus de directeurs que de directrices. Comme on l'a vu, il ne faut pas confondre le descriptif et le normatif : la science, qui nous dit comment les choses sont, et l'éthique, qui nous dit comment elles devraient être. La littérature et la fiction ne fonctionnent cependant ni tout à fait comme la science ni tout à fait comme l'éthique. Certes, elles nous disent à leur manière ce qui est, mais elles ouvrent aussi notre horizon sur ce qui pourrait être.
Commenter  J’apprécie          70
Ce qu'il faut, c'est choisir de bons exemples pour faire de bons robots. C'est apprécier la personnalité morale des gens et s'inspirer de leurs vertus.
Le courage de Greta et la miséricorde de Jésus.
La loyauté de Confucius et la persévérance d'Ada Lovelace.
Le sens de la justice d'Angela Davis et la bienveillance de Gandhi.
Le regard surplombant d'Isaac et les contre-plongées d'Ursula.
(147)
Commenter  J’apprécie          20
La science nous dit ce qui est ; la morale ce qui doit être. La science est descriptive et cherche les causes pour expliquer les phénomènes, alors que la morale est normative et cherche les raisons pour justifier nos actions.
[...]
C'est pourquoi constater que les gens ont des préférences, ce n'est pas la même chose qu'en tenir compte dans la programmation. (41)
Commenter  J’apprécie          20
La situation actuelle est préoccupante. D'une part, cette sous-représentation des femmes et des minorités accentue la concentration de la richesse - et, partant, du pouvoir - entre les mains d'hommes blancs déjà privilégiés. Mais surtout, les programmateurs risquent de faire des AMA [Agents Moraux Artificiels] à leur image, en concordance avec leurs intuitions morales. Comme avec n'importe quelle technologie, il serait surprenant qu'une IA ne reflète pas en partie les valeurs de ceux qui la conçoivent. (107)
Commenter  J’apprécie          10
Les robots dont parle ce livre n'ont pas l'ambition ou la prétention d'un Multivac [superordinateur de fiction créé par Asimov]. Mais ils ont un point commun avec lui. Ce sont des humains qui les programment. Bref, ce n'est pas demain la veille qu'on pourra se défausser sur des machines de notre responsabilité politique et morale. (15)
Commenter  J’apprécie          10

autres livres classés : philosophieVoir plus
Les plus populaires : Non-fiction Voir plus


Lecteurs (19) Voir plus



Quiz Voir plus

Philo pour tous

Jostein Gaarder fut au hit-parade des écrits philosophiques rendus accessibles au plus grand nombre avec un livre paru en 1995. Lequel?

Les Mystères de la patience
Le Monde de Sophie
Maya
Vita brevis

10 questions
440 lecteurs ont répondu
Thèmes : spiritualité , philosophieCréer un quiz sur ce livre

{* *} .._..