AccueilMes livresAjouter des livres
Découvrir
LivresAuteursLecteursCritiquesCitationsListesQuizGroupesQuestionsPrix BabelioRencontresLe Carnet
EAN : 9782081224988
171 pages
Flammarion (02/03/2009)
3.65/5   10 notes
Résumé :

René Thom, célèbre pour sa "théorie des catastrophes", est l'un des esprits les plus féconds du XXe siècle. Ce livre, série d'entretiens avec Émile Noël, met en évidence la passion de toute une vie : expliquer, faire reculer les frontières de l'intelligible. Comment devient-on mathématicien? Outre la formation et la carrière de René Thom, l'ouvrage expose la genèse et la destin... >Voir plus
Que lire après Prédire n'est pas expliquerVoir plus
Critiques, Analyses et Avis (3) Ajouter une critique
« Prédire n'est pas expliquer » (1999, Flammarion, 175 p.) du mathématicien français René Thom, célèbre pour sa « Théorie des Catastrophes », et par ailleurs Medal Fields en 1958.
René Thom (1923-2002), natif de Montbéliard est donc jurassien d'origine. Je réactualise ces fiches de lecture à l'occasion du centenaire de sa naissance. Il passe par l'Ecole Normale Supérieure, avant d'obtenir son doctorat en 1951 à Paris sous la direction d'Henri Cartan, l'un des fondateurs du groupe Bourbaki, avant d'être nommé professeur à la Faculté des Sciences de Strasbourg de 1954 à 1963. Recevant le prix Medal Fields en 1958 pour ses travaux sur la topologie différentielle, il intègre l'« Institut des Hautes Etudes Scientifiques » (IHES) de Bures-sur-Yvette de 1963 à 1990. Il y est en bonne compagnie, puisqu'il y a là Alexandre Grothendieck, puis Pierre Deligne et Alain Connes, tous Medal Fields. C'est vraiment l'âge d'or de ce centre des sciences. Pour ce qui concerne Grothendieck, j'ai récemment relu et commenté les deux tomes de son ouvrage « Récoltes et Semailles » un pavé de 2000 pages (2023, Gallimard, 1506 p.).
L'ouvrage de René Thom qui le fait connaitre « Stabilité structurelle et morphogenèse » est le premier, je crois, destiné au grand public sur la théorie des catastrophes (1977, Interéditions, 382 p.). Il sera suivi de « Modèles Mathématiques de la Morphogénèse » (1980, Christian Bourgois, 320 p.). En 2003 un CD-ROM a été édité par l'IHES qui regroupe ses oeuvres complètes.
Dès le début, la théorie des catastrophes rencontre un succès qui est plus que de l'estime. le mathématicien Jean-Pierre Bourguignon, directeur de l'IHES à l'époque témoigne « La théorie des catastrophes était devenue le nec plus ultra, il n'y avait rien de plus « in » ». Il faut dire que le nom était compréhensible par tous, plus facile à retenir que topologie différentielle ou application différentiable entre variétés différentielles. du point de vue application, pas de problème non plus, la théorie s'appliquait à tout. Enfin, René Thom a su donner à ses catégories de catastrophes des noms poétiques, tels que le pli, la queue d'aronde, la fronce, le papillon, et la famille de l'ombilic, elliptique, parabolique et hyperbolique.
Tout allait bien, jusque vers 1976, lorsque ses opposants se réveillent. On reproche surtout à la théorie de ne pas être prédictive. Et de fait, c'est une classification, et de plus, ces catégories sont essentiellement qualitatives, et non pas quantitatives. Et ces formes s'adressent aux paramètres, et non pas aux systèmes. D'où le titre du présent ouvrage « Prédire n'est pas expliquer ».
Ce livre résulte d'une série d'entretiens avec Émile Noël. Il met en évidence la passion de toute une vie pour René Thom. Expliquer, faire reculer les frontières de l'intelligible. Comment devient-on mathématicien ? L'ouvrage expose alors la genèse de la théorie des catastrophes, les polémiques qu'elle a suscitées et les positions philosophiques et épistémologiques de René Thom. Il suggère qu'à côté de la science quantitative et prédictive, il existe une approche qualitative dont la valeur explicative est peut-être plus décisive pour la connaissance. S'ensuivent des positions philosophiques sur « le distinct et le continu », puis sur la science en général avec le rapport entre qualitatif et quantitatif. Cette démarche scientifique est extrêmement originale.
A la fin de « Prédire n'est pas expliquer », il y a un croquis de la main de René Thom un peu analogue à la « Carte du Tendre ». Ce pays est situé entre « La Mer de l'Insignifiance » et « L'Altiplano de l'Absurde », encadré par « La Colline des Métaphores » et « le Massif de la Réalité ». Aussi surprenant soit-il, on y trouve « La Cité des Sciences Humaines et des Arts », bien déparée des « Sciences Expérimentales » et de la « Biologie », toutes deux au pied du « Temple des Mathématiques ».
La théorie des catastrophes ne propose aucune mesure quantitative des manifestations du monde extérieur, et donc à aucune prédiction. Par contre, elle tend à l'expliquer et ainsi à fournir une « Théorie générale de l'intelligibilité ». Par là, René Thom suggère « une théorie de la signification, dont la nature soit telle que l'acte même de connaître soit une conséquence de la théorie ». C'est ainsi qu'il définit sa vision du monde. C'est aussi le principal reproche que ses détracteurs ont pu lui adresser. Non prédictive, sa théorie n'aurait aucune valeur ou importance. Avec cette conséquence que c'est aussi valable pour la théorie de l'évolution de Darwin. Peut-on déduire la carrière prodigieuse d'un Picasso, d'un esclave noir ou d'un doyen de l'humanité, à partir de la bactérie.
Décrire, comprendre et expliquer sont des notions relativement simples en sciences. Quelquefois le dernier terme « expliquer » est remplacé par « compliquer », car il est plus facile de plaquer un jargon spécifique sur une chose que l'on appréhende mal.
Décrire et comprendre font l'objet de la construction d'un modèle, censé expliquer les causes et conséquences des observations. Cette construction s'effectue de deux façons différentes, elles même divisées en problèmes direct ou inverse
Dans un cas, on part d'un certain nombre d'observations et on essaye de déterminer quelles en sont les causes est souvent décrite comme de bas vers le haut (bottom-up). Par opposition une autre catégorie de modèles procède de manière inverse. Il s'agit de déterminer l'influence de tel paramètre, avec production de telle cause. On procède alors de haut vers le bas (top-down). Souvent le problème est plus complexe et la simulation sert alors à hiérarchiser les effets causés par les différentes causes.
Enfin une dernière catégorie de modèles est récemment apparue qui aboutit à une auto-organisation des phénomènes, sans que l'on sache exactement pour l'instant ce qui la provoque (si ce n'est une complexité des rétroactions). Cela aboutit à ce que l'on nomme les réseaux neuronaux, avec de multiples développements dans la recherche de l'auto apprentissage (deep learning) ou de l'intelligence artificielle (IA). Mais l'un n'explique pas l'autre. le retour à l'expérimentation et surtout la démonstration de la reproductibilité des résultats limite sérieusement la modélisation.
En fait cette classification en top-down et bottom-up peut aussi se résumer en modèlisation directe et inverse, le sens (la direction) étant des données aux causes. le problème de la sous détermination, c'est-à-dire du nombre des observations (des équations) par rapport aux inconnues, reste identique. Tout comme la linéarité (ou non) des relations. Certes, la solution à la non-linéarité se traduit souvent par une pseudo-linéarisation. C'est le cas le plus fréquent lors de la méthode la plus utilisée, celle de l'approximation des moindres carrés. C'est ce qui est utilisé le plus souvent lors des approximations de droite dans un nuage de points dans des tableurs communs. Mais on constate que cela reste une approximation. Deux grands facteurs d'incertitude sont inhérents à ces systèmes d'équations. Ils sont liés aux valeurs et vecteurs propres, en d'autres termes ce sont les « solutions principales ». D'une part, la différence de grandeurs entre ces valeurs propres, soit leur poids respectif, influe grandement sur les solutions. de l'autre, le poids relatif des faibles valeurs propres reflète le plus souvent une redondance, c'est-à-dire une sorte de valeur ajoutée quasi nulle. Il est notable qu'augmenter le nombre de mesures, c'est-à-dire d'équations, conduit souvent à accroitre le nombre de ces valeurs propres à faible valeur ajoutée, donc cela est inutile.
Les conséquences de ces modélisations s'expriment spécialement sur le nombre et qualité des solutions offertes. En termes savants, cela s'appelle la sur- et la sous-détermination. Cette distinction est la plus souvent omise par les modélisateurs. Elle est pourtant fondamentale. Dans la modélisation par problème direct, on part des propriétés physiques du modèle, soit sa forme, volume, densité, autres propriétés. On part également d'une équation qui est censée relier ces propriétés aux mesures. Ensuite, par variations sensibles des paramètres, on essaye d'obtenir des valeurs proches des mesures.
A l'opposé, dans le problème inverse, on part des mesures et par des méthodes numériques complexes, on essaye de retrouver les paramètres qui donnent les résultats les plus proches des mesures. du point de vue mathématique, le premier cas donne toujours une solution. On dit que le problème est surdimensionné. Pas contre, il est sous-dimensionné dans le second cas, et l'on a affaire à une série de valeurs « probables, ou pas trop mauvaises ». Un second critère, généralement statistique est alors nécessaire pour sélectionner les « bons paramètres ».
Tous les modélisateurs devraient lire « Qu'est-ce qu'un Modèle ? » de Henri Atlan (11, Editions Manucius, 48 p.). La réponse d'Atlan, qui a été président du Comité d'Ethique, avant de poursuivre des études du Talmud et de soutenir une thèse en Sorbonne sur Spinoza, tient en environ 25 pages de petit format (10*14.5 cm) et quelques 100 000 signes. Il est assez amusant que ce texte ait donné lieu à des discussions presque plus longues, certaines ayant un fond de vérité, d'autres étant plutôt des justifications de modélisateurs qui défendaient leur bonne foi (et leurs travaux). C'est aussi une bonne raison de (re)lire Baruch Spinoza (1632-1677). Cela d'autant plus que vient de sortir un livre de Henri Atlan « Cours de philosophie biologique et cognitive, Spinoza et la biologie actuelle » (2018, Odile Jacob, 636 p.).
A ce stade, on a décrit, en partie compris. Il reste à prédire, ce qui n'est pas gagné d'avance. Examinant les catastrophes naturelles, telles que séismes, éruptions volcaniques, tsunamis, la science a vite trouvé son maitre. Tous ces évènements procèdent de phénomènes aléatoires, agissent en termes de vulnérabilité et induisent donc des risques. Une des rares chose que l'on peut leur opposer c'est une préparation antérieure, une prévention des risques. Il convient de séparer les notions d'aléas et de vulnérabilité. Un séisme, par exemple, qui est un aléa, est relativement imprédictible dans le temps. Par contre, il n'aura pas le même effet, sa vulnérabilité, s'il se produit dans une région fortement urbanisée, et donc peuplée, ou au milieu d'un désert, vide ou très peu peuplé. Reste la prévention, qui consiste à prendre des mesures sécuritaires pour réduire les dégâts, préparer les populations et les secours. En d'autres termes, faire en sorte que le risque soit moindre.
En ce sens la théorie des catastrophes est une avancée. Certes, elle ne permet pas de prédire ou prévoir. Ce n'était d'ailleurs pas le but de René Thom. « Si l'on n'a pas le concept d'un objet, on ne le reconnaîtra pas ». Il propose donc que sa théorie puisse fournir des analogies. « Cette théorie a pour intérêt principal de proposer une théorie mathématique de l'analogie ». Cette analogie n'est pas simplement ne juxtaposition, un peu comme une carpe et un lapin, ou un cheval et une alouette pour en faire un pâté. « L'analogie, la métaphore, contrairement à la vision commune qui en fait quelque chose d'approximatif, de flou, m'apparaît comme une relation stricte et que l'on peut, dans bien des cas, exprimer mathématiquement ».
« La théorie des catastrophes est plutôt une méthodologie qui permet de comprendre, dans beaucoup de cas, et de modéliser dans un certain nombre de cas, des situations qui, autrement, seraient très difficiles à atteindre, des systèmes dont on ne pourrait pas obtenir une description parce qu'ils sont trop compliqués, qu'ils possèdent trop d'éléments ». Il est vrai qu'avec cette approche des phénomènes naturels, il est extrêmement difficile de cerner les véritables paramètres, et surtout leurs interactions, qui les génèrent. « Peu de phénomènes dans la nature sont régis par des lois quantitatives exactes et précises. Par définition, c'est le domaine de la physique, pourrait-on dire. Toutes les autres lois sont approchées ».
Avec son aisance habituelle, il prend un exemple simple. « La manche de ma veste, si je la comprime, je fais apparaître des plis. C'est une situation générale. Cela ne relève pas de la mécanique des matériaux ». On aura compris, ce qu'il explicite mathématiquement ensuite, que « lorsqu'un espace est soumis à une contrainte, c'est-à-dire lorsqu'on le projette sur quelque chose de plus petit que sa propre dimension, il accepte la contrainte, sauf en un certain nombre de points où il concentre, si l'on peut dire, toute son individualité première. Et c'est dans la présence de ces singularités que se fait la résistance ».
J'en reviens à ce que j'ai déjà écrit à propos de la théorie des catastrophes, c'est une description, une topologie, des paramètres qui génèrent une discontinuité, et non une quelconque géométrie de cette discontinuité. « Ce qu'offre la théorie des catastrophes, surtout des catastrophes élémentaires, c'est la description de conflits de tendances ».
La distinction que René Thom avance entre le discret et le continu n'est pas anodine. Elle est liée à l'IHES et aux travaux qui s'y déroulent, notamment ceux de Alexandre Grothendieck. Ce dernier va refuser les prestigieux Medal Fields en 1977 et Prix Crafoord en 1988, équivalent du Nobel en mathématiques. Il propose donc de développer une « géométrie algébrique », réunification de deux mondes jadis séparés. Naturellement ce n'est pas si simple, il faut introduire de nouveaux concepts et outils. Ce seront les notions de schéma et celle de topos, auxquelles il faut ajouter les faisceaux qui révolutionne la notion d'espace, formant une infinité de théories cohomologiques, dont se dégage la notion de motif. Très abstrait, et leur définition strictement mathématique n'aide pas à la compréhension. D'autant que ce vocabulaire nouveau est adopté d'un schéma ancien, ce qui embrouille encore plus le non-spécialiste. « Par là, elle est apte à saisir les structures et phénomènes continus : les mouvements, espaces, comme la science des structures discrètes, et l'analyse, comme la science des structures continues ». Ces notions de continu et de discontinu sont par la suite essentielles et définissent l'arithmétique et la géométrie.
« Ce qui limite le vrai, ce n'est pas le faux, c'est l'insignifiant ».
Commenter  J’apprécie          00
Dans cet entretien avec Émile Noël, René Thom se livre simplement et sans complaisance sur son parcours de mathématicien. Il revient sur sa formation et bien entendu sur sa fameuse théorie des catastrophes. Il insiste sur le rôle qualitatif des mathématiques. du coup, il ressort de ce discours, dans lequel René Thom fait toujours preuve d'une grande modestie, une certaine "poétique des mathématiques" comme l'écrivait si joliment Manuel de Dieguez dans "Sciences et nescience".
Un livre à lire pour tous ceux qui comme moi ne sont pas mathématicien, mais qui souhaitent malgré tout comprendre la pensée d'un mathématicien contemporain dont on n'a cessé de parler depuis les années 1970.
Commenter  J’apprécie          00
Rien capté.
Commenter  J’apprécie          10

Citations et extraits (4) Ajouter une citation
Je me suis beaucoup exprimé comme un antimoderniste, en grande partie parce que les modernistes ont commis des excès. Lorsqu'ils ont voulu, avec l'appui du gouvernement, transformer l'enseignement des mathématiques dans le premier degré, des instituts pédagogiques ont été créés dans toutes les universités, les fameux Instituts de Recherche sur l'Enseignement des Mathématiques (IREM). Ils ont entrepris un prosélytisme dans les milieux d'instituteurs. On a pu voir de vieux maîtres chenus, qui enseignaient le calcul élémentaire avec des bûchettes, contraints de venir se recycler. On leur a dit : Messieurs, ce que vous faites est ridicule ; vous ne connaissez rien à la théorie des ensembles, et on ne peut faire d'arithmétique sans la comprendre. Et ces vieux maîtres ont été contraints de venir s'asseoir sur les bancs de l'école pour écouter de jeunes prétentieux leur expliquer qu'ils n'avaient rien compris aux nombres !

{N. B. : Ce que décrit René Thom à propos des mathématiques est exactement comparable à ce qu'il s'est passé dans les années 1970-80 avec l'introduction " de force " de la méthode globale pour l'apprentissage de la lecture. Cela a eu pour conséquence primaire de faire en sorte que des enseignants qui avaient pratiqué avec succès depuis des années une méthode classique de type syllabique ont basculé de mauvaise grâce vers une méthode qu'ils n'avaient pas choisie. Ils l'ont donc enseigné plutôt mal et très incomplètement.
Cela a eu pour conséquence secondaire que la méthode étant mal enseignée et mal comprise, tant des enseignants que des parents, les résultats en ont été mauvais sur les performances des élèves et, du coup, cette méthode jouit désormais d'une réputation calamiteuse et de ringardise absolue.
Alors qu'en réalité, c'est une belle méthode, mais une méthode exigeante, qui demande beaucoup de travail à l'enseignant. De même, il aurait peut-être fallu préciser, tant aux enseignants qu'aux parents, que c'est une méthode d'apprentissage de la lecture sur 2 ans et non 1 comme avec la syllabique et contrairement à ce que l'appellation CP laisse supposer. Lorsqu'elle est menée à bien, à l'issue du CE1, elle donne des résultats spectaculaires, pas tant sur la mise en voix (ce que souvent, improprement, les parents appellent " lire ") que sur la compréhension, qui est le véritable but de la lecture. Lire, ce n'est pas déchiffrer une partition musicale, ce n'est pas simplement mettre en sons un code écrit, lire c'est comprendre. Et dans cette optique, une vraie méthode globale, bien menée et non tronquée donne des résultats infiniment supérieurs aux méthodes syllabiques (devenues elles aussi rares) ou mixtes (les plus fréquentes à l'heure actuelle). Ah ! la magie du tout par le haut, la magie de l'uniformisation, la magie de la bureaucratie. Et malheureusement, plus que jamais en place aujourd'hui. Ouvrez simplement vos oreilles et vous entendrez : réforme nationale du collège, nouvelle forme d'évaluation, pour la réussite de tous les élèves, etc. Bref, que des mots creux et qui montrent qu'on n'a rien compris à ce que le mot diversité signifiait. Non, madame la ministre, un collège n'est pas égal à un autre collège, le public et sa culture, les enseignants, les structures, tout y est différent. Comment escomptez-vous faire en sorte qu'un programme rigide et unilatéral puisse venir à bout d'un quelconque problème qui se pose aujourd'hui dans un collège donné ?}
Commenter  J’apprécie          331
Les espaces que l'on considère généralement sont des espaces homogènes, localement homogènes. Ces espaces sont ce que nous appelons variétés. L'espace euclidien est une variété. Mais les singularités apparaissent lorsque l'on soumet en quelque sorte l'espace à une contrainte. La manche de ma veste, si je la comprime, je fais apparaître des plis. C'est une situation générale. Cela ne relève pas de la mécanique des matériaux. J'énonce en réalité un théorème abstrait : lorsqu'un espace est soumis à une contrainte, c'est-à-dire lorsqu'on le projette sur quelque chose de plus petit que sa propre dimension, il accepte la contrainte, sauf en un certain nombre de points où il concentre, si l'on peut dire, toute son individualité première. Et c'est dans la présence de ces singularités que se fait la résistance. Le concept de singularité, c'est le moyen de subsumer en un point toute une structure globale.
Commenter  J’apprécie          192
Vous prétendez, avec vos mathématiques, que vous touchez une réalité abstraite et non matérielle ? Et moi, je vous dis que si je vous broie la cervelle à grands coups de massue, vos entités intelligibles vont disparaître.
Commenter  J’apprécie          181
Je le répète, il me semble que l'on ne peut observer que ce dont on a préalablement le concept. Cependant, les experimentalistes peuvent arguer du fait que, partant d'un système de concepts existants, l'observation ou l'expérimentation peuvent apporter des modifications de ce système de concept, et l'obliger en quelque sorte à bifurquer dans d'autres directions, permettant ainsi la création de nouveaux concepts. C'est parfaitement défendable. Et l'on trouverait sûrement des exemples
Mais si l'on regarde la naissance des grandes théories scientifiques, on peut dire que l'imagination, la construction conceptuelle, ont en général précèdé les données de l'expérience. La plupart des gens croient régler le problème en affirmant brutalement que c'est le dialogue de la pensée et de l'expérience qui fait le progrès. La métaphore du dialogue est belle, mais il faudrait savoir comment il se déroule.
Je crois que le gros des concepts mathématiques sont d'origine endogène. Je ne crois guère à la possibilité d'une origine expérimentale d'un concept mathématique, d'un principe suggéré par l'expérience. Il y a bien la transformation de Fourier, mais elle est issue de la nécessité de quantifier quelque chose qui existait bien avant : les instruments de musique. Et il s'agit toujours de vibrateurs, qui émettent des sons, lesquels ont un spectre. En cé sens cette théorie est fondamentalement issue de l'étude des phénomènes vibratoires. Qu'est-ce qui a créé la musique ? Probablement pas les mathématiques. Mais la mélodie et l'harmonie ont vraiment été l'une des grandes sciences de l'Antiquité grecque ; le fait que l'on pouvait associer les accords à des rapports relativement simples de longueurs de cordes a joué un rôle.
Commenter  J’apprécie          00

Videos de René Thom (2) Voir plusAjouter une vidéo
Vidéo de René Thom
Préface de Mieke BAL
Nouvelle édition actualisée
Dans le contexte actuel de guerre et de pandémie, la réédition de Mère Folle prend une tonalité particulière. En effet, dans un récit littéraire, l'ouvrage met en scène la rencontre anachronique des Fous d'un théâtre politique très populaire en Europe après la Grande Peste et la Guerre de Cent ans avec ceux des asiles où l'auteur a travaillé comme analyste pendant trente ans.
Demain, c'est la Toussaint. La narratrice, psychanalyste à l'hôpital psychiatrique, vient d'apprendre la mort par overdose d'un de ses patients psychotiques. Découragée, elle s'en veut et en veut à la psychanalyse de cet échec. Tentée d'abandonner son travail, elle y retourne néanmoins « à reculons ».
Débute alors un étrange voyage où des personnages surgis du passé, fous du Moyen-Âge, acteurs des Sotties – Mère Folle – se mêlent aux malades de l'hôpital, mais aussi à de grands penseurs comme Erasme, René Thom, Artaud, Wittgenstein ou Schrödinger avec qui elle engage des dialogues imaginaires. Cette traversée dialogique, qui est aussi un retour vers son propre passé, la rend capable de recevoir et mettre en actes les enseignements de Gaetano Benedetti à qui elle rend visite à Bâle pendant le Carnaval. Il lui conseille de s'immerger dans le délire de ses patients afin de devenir leur égal fraternel et de leur ménager un espace auxiliaire où pourront être rendues conscientes les « aires catastrophiques » constitutives de leur folie. le traitement possible de la psychose est à ce prix.
Dans le contexte actuel de guerre et de pandémie, la réédition de Mère Folle qui met en scène la rencontre anachronique des Fous d'un théâtre politique très populaire en Europe après la Grande Peste et la Guerre de Cent ans avec ceux des asiles où l'auteur a travaillé comme analyste pendant trente ans, se révèle particulièrement précieuse.
Dans la collection
Hypothèses
+ Lire la suite
autres livres classés : mathématiquesVoir plus
Les plus populaires : Non-fiction Voir plus


Lecteurs (44) Voir plus



Quiz Voir plus

Pas de sciences sans savoir (quiz complètement loufoque)

Présent - 1ère personne du pluriel :

Nous savons.
Nous savonnons (surtout à Marseille).

10 questions
412 lecteurs ont répondu
Thèmes : science , savoir , conjugaison , humourCréer un quiz sur ce livre

{* *}