Le sujet est intéressant, l'auteur compétente, l'enjeu majeur. Mais le livre n'est pas à la hauteur.
Il faut davantage fouiller les utilisations concrètes dans le monde digital de ces algorithmes, pour mieux poser la problématique.
Un plus gros travail de documentation doit être fait, en particulier sur tout ce qui sort de l'Europe: page 39, il est dit qu'il est très improbable qu une loi sur les données soit appliqué en Chine… moins de deux mois après la sortie de ce livre, la PIPL est implémentée en Chine (copie conforme de la RGPD) allant même plus loin dans certains domaines.
bref, il faut mieux creuser les sujets, ou alors ne pas écrire.
Commenter  J’apprécie         20
Gardons à l’esprit que dans une société démocratique, nous, utilisateurs, sommes le talon d’Achille des acteurs technologiques. Si demain nous décidons d’arrêter d’utiliser une application, l’entreprise qui en est propriétaire risque gros, jusqu’à sa disparition.
Au risque de me répéter, mais parce que j’entends encore trop souvent des discours qui semblent sous-entendre le contraire, les algorithmes ne disposent d’aucune personnalité juridique : ils ne peuvent donc porter aucune responsabilité. C’est pourquoi les algorithmes ne peuvent pas, par nature, faire la loi. Cela étant dit, et comme nous l’avons vu ensemble au cours de ce livre, ils l’influencent. Les algorithmes peuvent orienter directement la pratique légale en étant développés et utilisés dans l’exercice de la justice. Mal employés, ils deviennent une menace pour ses principes de transparence et d’équité. Bien maîtrisés, ils peuvent au contraire éclairer les acteurs de la loi pour garantir un même traitement de chacun face à la justice.
Tout d’abord, il sera beaucoup plus difficile dans le futur d’expliquer la logique d’un algorithme dans la mesure où on ne saura pas ce sur quoi il a été entraîné. De plus, même si les décisions humaines seront minimisées, il restera aux concepteurs le choix des données d’apprentissage qui peut enfermer des biais cognitifs menant à des biais algorithmiques pour finalement, dans la plupart des cas, engendrer ce qu’on nomme de la « discrimination technologique...
Les algorithmes ont besoin de données sur lesquelles être calibrés dans le cas des modèles explicites, ou entraînés dans le cas des modèles implicites.
...
Aux algorithmes explicites s’ajoutent les algorithmes implicites de catégorisation, construits par apprentissage statistique sur des données de profils statique et dynamique
... l’algorithme n’est pas coupable pour la simple et bonne raison qu’il n’est ni une personne physique ni une personne morale, et que ce sont bien des hommes et des femmes qui décident de l’usage, de l’implémentation et des effets qui en résultent, et qui sont donc les seuls responsable ...
#interview #débat #IA #humanity
A l'occasion de ce nouveau débat en ligne, Paul Sugy accueille Aurélie Jean, scientifique numéricienne et entrepreneuse, ainsi qu'Etienne de Rocquigny, Président OpérationData SAS et administrateur d'une demi-douzaine de sociétés algorithmiques.
Chapitrage :
00:00 L' Intelligence Artificielle peut-elle remplacer l'homme ?
00:57 Introduction
06:15 L'IA est-elle réellement une révolution ?
12:22 Une conscience future ?
15:00 La capacité de jugement
22:57 L'IA pourra-t-elle croire en Dieu ?
27:12 de quoi avons-nous peur ? Pourquoi existe-il aujourd'hui une certaine crainte envers l'IA ?
28:12 La question de l'asservissement
30:15 La question du travail : le grand remplacement ?
54:30 Quels choix face à l'IA ?
Le Collège des Bernardins est un espace de liberté qui invite à croiser les regards pour cheminer dans la compréhension du monde et bâtir un avenir respectueux de l'homme.
Pour tout savoir de l'actualité du Collège des Bernardins, suivez-nous sur les réseaux sociaux
Facebook : https://www.facebook.com/CollegedesBernardins/
Twitter : https://www.twitter.com/CBernardins
Instagram : @collegedesbernardins
+ Lire la suite