AccueilMes livresAjouter des livres
Découvrir
LivresAuteursLecteursCritiquesCitationsListesQuizGroupesQuestionsPrix BabelioRencontresLe Carnet
>

Critique de jlvlivres


« Prédire n'est pas expliquer » (1999, Flammarion, 175 p.) du mathématicien français René Thom, célèbre pour sa « Théorie des Catastrophes », et par ailleurs Medal Fields en 1958.
René Thom (1923-2002), natif de Montbéliard est donc jurassien d'origine. Je réactualise ces fiches de lecture à l'occasion du centenaire de sa naissance. Il passe par l'Ecole Normale Supérieure, avant d'obtenir son doctorat en 1951 à Paris sous la direction d'Henri Cartan, l'un des fondateurs du groupe Bourbaki, avant d'être nommé professeur à la Faculté des Sciences de Strasbourg de 1954 à 1963. Recevant le prix Medal Fields en 1958 pour ses travaux sur la topologie différentielle, il intègre l'« Institut des Hautes Etudes Scientifiques » (IHES) de Bures-sur-Yvette de 1963 à 1990. Il y est en bonne compagnie, puisqu'il y a là Alexandre Grothendieck, puis Pierre Deligne et Alain Connes, tous Medal Fields. C'est vraiment l'âge d'or de ce centre des sciences. Pour ce qui concerne Grothendieck, j'ai récemment relu et commenté les deux tomes de son ouvrage « Récoltes et Semailles » un pavé de 2000 pages (2023, Gallimard, 1506 p.).
L'ouvrage de René Thom qui le fait connaitre « Stabilité structurelle et morphogenèse » est le premier, je crois, destiné au grand public sur la théorie des catastrophes (1977, Interéditions, 382 p.). Il sera suivi de « Modèles Mathématiques de la Morphogénèse » (1980, Christian Bourgois, 320 p.). En 2003 un CD-ROM a été édité par l'IHES qui regroupe ses oeuvres complètes.
Dès le début, la théorie des catastrophes rencontre un succès qui est plus que de l'estime. le mathématicien Jean-Pierre Bourguignon, directeur de l'IHES à l'époque témoigne « La théorie des catastrophes était devenue le nec plus ultra, il n'y avait rien de plus « in » ». Il faut dire que le nom était compréhensible par tous, plus facile à retenir que topologie différentielle ou application différentiable entre variétés différentielles. du point de vue application, pas de problème non plus, la théorie s'appliquait à tout. Enfin, René Thom a su donner à ses catégories de catastrophes des noms poétiques, tels que le pli, la queue d'aronde, la fronce, le papillon, et la famille de l'ombilic, elliptique, parabolique et hyperbolique.
Tout allait bien, jusque vers 1976, lorsque ses opposants se réveillent. On reproche surtout à la théorie de ne pas être prédictive. Et de fait, c'est une classification, et de plus, ces catégories sont essentiellement qualitatives, et non pas quantitatives. Et ces formes s'adressent aux paramètres, et non pas aux systèmes. D'où le titre du présent ouvrage « Prédire n'est pas expliquer ».
Ce livre résulte d'une série d'entretiens avec Émile Noël. Il met en évidence la passion de toute une vie pour René Thom. Expliquer, faire reculer les frontières de l'intelligible. Comment devient-on mathématicien ? L'ouvrage expose alors la genèse de la théorie des catastrophes, les polémiques qu'elle a suscitées et les positions philosophiques et épistémologiques de René Thom. Il suggère qu'à côté de la science quantitative et prédictive, il existe une approche qualitative dont la valeur explicative est peut-être plus décisive pour la connaissance. S'ensuivent des positions philosophiques sur « le distinct et le continu », puis sur la science en général avec le rapport entre qualitatif et quantitatif. Cette démarche scientifique est extrêmement originale.
A la fin de « Prédire n'est pas expliquer », il y a un croquis de la main de René Thom un peu analogue à la « Carte du Tendre ». Ce pays est situé entre « La Mer de l'Insignifiance » et « L'Altiplano de l'Absurde », encadré par « La Colline des Métaphores » et « le Massif de la Réalité ». Aussi surprenant soit-il, on y trouve « La Cité des Sciences Humaines et des Arts », bien déparée des « Sciences Expérimentales » et de la « Biologie », toutes deux au pied du « Temple des Mathématiques ».
La théorie des catastrophes ne propose aucune mesure quantitative des manifestations du monde extérieur, et donc à aucune prédiction. Par contre, elle tend à l'expliquer et ainsi à fournir une « Théorie générale de l'intelligibilité ». Par là, René Thom suggère « une théorie de la signification, dont la nature soit telle que l'acte même de connaître soit une conséquence de la théorie ». C'est ainsi qu'il définit sa vision du monde. C'est aussi le principal reproche que ses détracteurs ont pu lui adresser. Non prédictive, sa théorie n'aurait aucune valeur ou importance. Avec cette conséquence que c'est aussi valable pour la théorie de l'évolution de Darwin. Peut-on déduire la carrière prodigieuse d'un Picasso, d'un esclave noir ou d'un doyen de l'humanité, à partir de la bactérie.
Décrire, comprendre et expliquer sont des notions relativement simples en sciences. Quelquefois le dernier terme « expliquer » est remplacé par « compliquer », car il est plus facile de plaquer un jargon spécifique sur une chose que l'on appréhende mal.
Décrire et comprendre font l'objet de la construction d'un modèle, censé expliquer les causes et conséquences des observations. Cette construction s'effectue de deux façons différentes, elles même divisées en problèmes direct ou inverse
Dans un cas, on part d'un certain nombre d'observations et on essaye de déterminer quelles en sont les causes est souvent décrite comme de bas vers le haut (bottom-up). Par opposition une autre catégorie de modèles procède de manière inverse. Il s'agit de déterminer l'influence de tel paramètre, avec production de telle cause. On procède alors de haut vers le bas (top-down). Souvent le problème est plus complexe et la simulation sert alors à hiérarchiser les effets causés par les différentes causes.
Enfin une dernière catégorie de modèles est récemment apparue qui aboutit à une auto-organisation des phénomènes, sans que l'on sache exactement pour l'instant ce qui la provoque (si ce n'est une complexité des rétroactions). Cela aboutit à ce que l'on nomme les réseaux neuronaux, avec de multiples développements dans la recherche de l'auto apprentissage (deep learning) ou de l'intelligence artificielle (IA). Mais l'un n'explique pas l'autre. le retour à l'expérimentation et surtout la démonstration de la reproductibilité des résultats limite sérieusement la modélisation.
En fait cette classification en top-down et bottom-up peut aussi se résumer en modèlisation directe et inverse, le sens (la direction) étant des données aux causes. le problème de la sous détermination, c'est-à-dire du nombre des observations (des équations) par rapport aux inconnues, reste identique. Tout comme la linéarité (ou non) des relations. Certes, la solution à la non-linéarité se traduit souvent par une pseudo-linéarisation. C'est le cas le plus fréquent lors de la méthode la plus utilisée, celle de l'approximation des moindres carrés. C'est ce qui est utilisé le plus souvent lors des approximations de droite dans un nuage de points dans des tableurs communs. Mais on constate que cela reste une approximation. Deux grands facteurs d'incertitude sont inhérents à ces systèmes d'équations. Ils sont liés aux valeurs et vecteurs propres, en d'autres termes ce sont les « solutions principales ». D'une part, la différence de grandeurs entre ces valeurs propres, soit leur poids respectif, influe grandement sur les solutions. de l'autre, le poids relatif des faibles valeurs propres reflète le plus souvent une redondance, c'est-à-dire une sorte de valeur ajoutée quasi nulle. Il est notable qu'augmenter le nombre de mesures, c'est-à-dire d'équations, conduit souvent à accroitre le nombre de ces valeurs propres à faible valeur ajoutée, donc cela est inutile.
Les conséquences de ces modélisations s'expriment spécialement sur le nombre et qualité des solutions offertes. En termes savants, cela s'appelle la sur- et la sous-détermination. Cette distinction est la plus souvent omise par les modélisateurs. Elle est pourtant fondamentale. Dans la modélisation par problème direct, on part des propriétés physiques du modèle, soit sa forme, volume, densité, autres propriétés. On part également d'une équation qui est censée relier ces propriétés aux mesures. Ensuite, par variations sensibles des paramètres, on essaye d'obtenir des valeurs proches des mesures.
A l'opposé, dans le problème inverse, on part des mesures et par des méthodes numériques complexes, on essaye de retrouver les paramètres qui donnent les résultats les plus proches des mesures. du point de vue mathématique, le premier cas donne toujours une solution. On dit que le problème est surdimensionné. Pas contre, il est sous-dimensionné dans le second cas, et l'on a affaire à une série de valeurs « probables, ou pas trop mauvaises ». Un second critère, généralement statistique est alors nécessaire pour sélectionner les « bons paramètres ».
Tous les modélisateurs devraient lire « Qu'est-ce qu'un Modèle ? » de Henri Atlan (11, Editions Manucius, 48 p.). La réponse d'Atlan, qui a été président du Comité d'Ethique, avant de poursuivre des études du Talmud et de soutenir une thèse en Sorbonne sur Spinoza, tient en environ 25 pages de petit format (10*14.5 cm) et quelques 100 000 signes. Il est assez amusant que ce texte ait donné lieu à des discussions presque plus longues, certaines ayant un fond de vérité, d'autres étant plutôt des justifications de modélisateurs qui défendaient leur bonne foi (et leurs travaux). C'est aussi une bonne raison de (re)lire Baruch Spinoza (1632-1677). Cela d'autant plus que vient de sortir un livre de Henri Atlan « Cours de philosophie biologique et cognitive, Spinoza et la biologie actuelle » (2018, Odile Jacob, 636 p.).
A ce stade, on a décrit, en partie compris. Il reste à prédire, ce qui n'est pas gagné d'avance. Examinant les catastrophes naturelles, telles que séismes, éruptions volcaniques, tsunamis, la science a vite trouvé son maitre. Tous ces évènements procèdent de phénomènes aléatoires, agissent en termes de vulnérabilité et induisent donc des risques. Une des rares chose que l'on peut leur opposer c'est une préparation antérieure, une prévention des risques. Il convient de séparer les notions d'aléas et de vulnérabilité. Un séisme, par exemple, qui est un aléa, est relativement imprédictible dans le temps. Par contre, il n'aura pas le même effet, sa vulnérabilité, s'il se produit dans une région fortement urbanisée, et donc peuplée, ou au milieu d'un désert, vide ou très peu peuplé. Reste la prévention, qui consiste à prendre des mesures sécuritaires pour réduire les dégâts, préparer les populations et les secours. En d'autres termes, faire en sorte que le risque soit moindre.
En ce sens la théorie des catastrophes est une avancée. Certes, elle ne permet pas de prédire ou prévoir. Ce n'était d'ailleurs pas le but de René Thom. « Si l'on n'a pas le concept d'un objet, on ne le reconnaîtra pas ». Il propose donc que sa théorie puisse fournir des analogies. « Cette théorie a pour intérêt principal de proposer une théorie mathématique de l'analogie ». Cette analogie n'est pas simplement ne juxtaposition, un peu comme une carpe et un lapin, ou un cheval et une alouette pour en faire un pâté. « L'analogie, la métaphore, contrairement à la vision commune qui en fait quelque chose d'approximatif, de flou, m'apparaît comme une relation stricte et que l'on peut, dans bien des cas, exprimer mathématiquement ».
« La théorie des catastrophes est plutôt une méthodologie qui permet de comprendre, dans beaucoup de cas, et de modéliser dans un certain nombre de cas, des situations qui, autrement, seraient très difficiles à atteindre, des systèmes dont on ne pourrait pas obtenir une description parce qu'ils sont trop compliqués, qu'ils possèdent trop d'éléments ». Il est vrai qu'avec cette approche des phénomènes naturels, il est extrêmement difficile de cerner les véritables paramètres, et surtout leurs interactions, qui les génèrent. « Peu de phénomènes dans la nature sont régis par des lois quantitatives exactes et précises. Par définition, c'est le domaine de la physique, pourrait-on dire. Toutes les autres lois sont approchées ».
Avec son aisance habituelle, il prend un exemple simple. « La manche de ma veste, si je la comprime, je fais apparaître des plis. C'est une situation générale. Cela ne relève pas de la mécanique des matériaux ». On aura compris, ce qu'il explicite mathématiquement ensuite, que « lorsqu'un espace est soumis à une contrainte, c'est-à-dire lorsqu'on le projette sur quelque chose de plus petit que sa propre dimension, il accepte la contrainte, sauf en un certain nombre de points où il concentre, si l'on peut dire, toute son individualité première. Et c'est dans la présence de ces singularités que se fait la résistance ».
J'en reviens à ce que j'ai déjà écrit à propos de la théorie des catastrophes, c'est une description, une topologie, des paramètres qui génèrent une discontinuité, et non une quelconque géométrie de cette discontinuité. « Ce qu'offre la théorie des catastrophes, surtout des catastrophes élémentaires, c'est la description de conflits de tendances ».
La distinction que René Thom avance entre le discret et le continu n'est pas anodine. Elle est liée à l'IHES et aux travaux qui s'y déroulent, notamment ceux de Alexandre Grothendieck. Ce dernier va refuser les prestigieux Medal Fields en 1977 et Prix Crafoord en 1988, équivalent du Nobel en mathématiques. Il propose donc de développer une « géométrie algébrique », réunification de deux mondes jadis séparés. Naturellement ce n'est pas si simple, il faut introduire de nouveaux concepts et outils. Ce seront les notions de schéma et celle de topos, auxquelles il faut ajouter les faisceaux qui révolutionne la notion d'espace, formant une infinité de théories cohomologiques, dont se dégage la notion de motif. Très abstrait, et leur définition strictement mathématique n'aide pas à la compréhension. D'autant que ce vocabulaire nouveau est adopté d'un schéma ancien, ce qui embrouille encore plus le non-spécialiste. « Par là, elle est apte à saisir les structures et phénomènes continus : les mouvements, espaces, comme la science des structures discrètes, et l'analyse, comme la science des structures continues ». Ces notions de continu et de discontinu sont par la suite essentielles et définissent l'arithmétique et la géométrie.
« Ce qui limite le vrai, ce n'est pas le faux, c'est l'insignifiant ».
Commenter  J’apprécie          00







{* *}