Gardons à l’esprit que dans une société démocratique, nous, utilisateurs, sommes le talon d’Achille des acteurs technologiques. Si demain nous décidons d’arrêter d’utiliser une application, l’entreprise qui en est propriétaire risque gros, jusqu’à sa disparition.
Au risque de me répéter, mais parce que j’entends encore trop souvent des discours qui semblent sous-entendre le contraire, les algorithmes ne disposent d’aucune personnalité juridique : ils ne peuvent donc porter aucune responsabilité. C’est pourquoi les algorithmes ne peuvent pas, par nature, faire la loi. Cela étant dit, et comme nous l’avons vu ensemble au cours de ce livre, ils l’influencent. Les algorithmes peuvent orienter directement la pratique légale en étant développés et utilisés dans l’exercice de la justice. Mal employés, ils deviennent une menace pour ses principes de transparence et d’équité. Bien maîtrisés, ils peuvent au contraire éclairer les acteurs de la loi pour garantir un même traitement de chacun face à la justice.
Le philosophe réfléchit à un monde qu’il ne comprend pas, et le scientifique construit un monde sur lequel il ne réfléchit pas.
Alors que le texte protégeant les données à caractère personnel a réussi le pari brillant d’autoriser par un encadrement strict, le prochain texte sur l’IA semble être davantage destiné à interdire–selon le type d’algorithmes et les situations.
Les algorithmes ont besoin de données sur lesquelles être calibrés dans le cas des modèles explicites, ou entraînés dans le cas des modèles implicites.
...
Aux algorithmes explicites s’ajoutent les algorithmes implicites de catégorisation, construits par apprentissage statistique sur des données de profils statique et dynamique
... l’algorithme n’est pas coupable pour la simple et bonne raison qu’il n’est ni une personne physique ni une personne morale, et que ce sont bien des hommes et des femmes qui décident de l’usage, de l’implémentation et des effets qui en résultent, et qui sont donc les seuls responsable ...
Tout d’abord, il sera beaucoup plus difficile dans le futur d’expliquer la logique d’un algorithme dans la mesure où on ne saura pas ce sur quoi il a été entraîné. De plus, même si les décisions humaines seront minimisées, il restera aux concepteurs le choix des données d’apprentissage qui peut enfermer des biais cognitifs menant à des biais algorithmiques pour finalement, dans la plupart des cas, engendrer ce qu’on nomme de la « discrimination technologique...