AccueilMes livresAjouter des livres
Découvrir
LivresAuteursLecteursCritiquesCitationsListesQuizGroupesQuestionsPrix BabelioRencontresLe Carnet
EAN : 9782845781351
48 pages
Manucius (16/11/2011)
4.5/5   1 notes
Résumé :
Pierre Musso a introduit la conférence de Henri Atlan "Qu'est-ce qu'un modèle ?", présentée à la chaire d'Enseignement et de recherche "Modélisations des imaginaires, innovation et création", le jeudi 24 mars 2011 à Paris, en rappelant cette phrase d'Alfred Fessard : "la principale idée directrice d'Henri Atlan est que si la notion d'information peut nous aider à reconnaître l'ordre biologique qui existe dans le monde vivant, ce n'est pas sous la forme d'une évaluat... >Voir plus
Que lire après Qu'est-ce qu'un modèle ?Voir plus
Critiques, Analyses et Avis (1) Ajouter une critique
« Qu'est ce qu'un modèle ? » donc. La réponse d'Atlan tient en environ 25 pages de petit format (10*14.5 cm) et quelques 100 000 signes.

un (petit) livre que toute personne modélisant ou utilisant des modèles DEVRAIT lire.

Il est assez amusant que ce texte ait donné lieu à des discussions presque plus longues, certaines ayant un fond de vérité, d'autres étant plutôt des justifications de modélisateurs qui défendaient leur supposée bonne foi (et leurs travaux). Ayant moi-même modélisé et pratiqué cette discipline, de plus dans une science dite naturelle ou semi-dure, à un époque ou un chiffrage des données était quasi gage de vérité (chez les aveugles, le borgne est roi), et en en ayant très vite perçu les limites, il m'a été relativement aisé de trier les arguments (et d'une certaine manière abonder dans le sens de Henri Atlan).
L'auteur commence par expliquer ce que peut être un modèle, en complément d'une expérimentation (par exemple sur des animaux, pris comme modèles pour des maux humains). Après l'avènement de la biologie moléculaire et découverte de l'ADN et de la synthèse des protéines, on a pu coder l'information portée par les quatre bases, et donc calculer la quantité d'information portée par une molécule d'ADN (information selon Shannon). Ce codage en quatre bases ou vingt deux acides aminés a permis le changement de paradigme, passant du code à la programmation génétique. Tout allait donc très bien, sauf que… Et c'est là que la modélisation devient extrêmement complexe, et que la génomique laisse place à la protéonomique, c'est-à-dire passe des gènes aux protéines. Ceci d'autant plus que les réactions ne sont pas linéaires et qu'il existe de nombreux effets rétroactifs (feedback loops). de ce fait le modèle devient quasi imprédictible, et surtout il est impossible de connaître l'effet de chacune des interactions. de plus les transmissions du signal ne se font pas de façon linéaire et uni-directionnelle, mais selon un schéma en parallèle, dans lequel les trajets peuvent être multiples d'un émetteur à un récepteur.

Plusieurs solutions existent alors qui permettent une approche de modélisation, toujours dans le domaine de la biochimie. L'une est la cinétique de réaction, ou vitesse de déroulement des différentes réactions chimiques. A supposer que chacune des réactions puisse être suivie dans le temps, on peut modéliser l'effet global de chacune et donc appréhender l'effet total. Tout se passe bien sur le papier, mais la confrontation aux données expérimentales montre vite les limites de la méthode. On peut (presque facilement) mesurer les différents paramètres en jeu lors d'une réaction. Sauf que le modèle que l'on construit alors est fortement sous-déterminé. C'est-à-dire que l'on a plus d'inconnues que de mesures. Augmenter les mesures donc, oui, mais celles-ci peuvent être redondantes, donc n'ajouter aucune information, et c'est bien là le problème. Il en résulte que plusieurs modèles, tous aussi rigoureux, peuvent expliquer le phénomène, ou du moins lui donner une signification approximative, pas tout à fait juste, ni tout à fait fausse. On se retrouve donc avec un trop plein de modèles dont chacun pourrait être une explication différente du même phénomène. Ce type de modélisation, partant d'un grand nombre d'observations et essayant de déterminer quelles en sont les causes est souvent décrite comme de bas vers le haut (bottom-up).

Par opposition une autre catégorie de modèles procède de manière inverse. Il s'agit de déterminer l'influence de tel paramètre, avec production de telle cause. On procède alors de haut vers le bas (top-down). Souvent le problème est plus complexe et la simulation sert alors à hiérarchiser les effets provoqués par les différentes causes. Enfin une dernière catégorie de modèles est récemment apparue qui aboutit à une auto-organisation des phénomènes, sans que l'on sache exactement pour l'instant ce qui la provoque (si ce n'est une complexité des rétroactions). Cela aboutit à ce que l'on nomme les réseaux neuronaux, avec de multiples développements dans la recherche de l'auto apprentissage ou de l'intelligence artificielle. Mais l'un n'explique pas l'autre. le retour à l'expérimentation et surtout la démonstration de la reproductibilité des résultats limite sérieusement la modélisation.
Petit livre, donc, pas facile à résumer en 5000 signes (et à coder sur 30 caractères). En fait cette classification en top-down et bottom-up peut aussi se résumer en modélisations directe et inverse, le sens (la direction) étant des données aux causes. le problème de la sous détermination, c'est-à-dire du nombre des observations (des équations) par rapport aux inconnues, reste identique. Tout comme la linéarité (ou non) des relations. Certes, la solution à la non-linéarité se traduit souvent par une pseudo-linéarisation. C'est le cas le plus fréquent lors de la méthode la plus utilisée, celle de l'approximation des moindres carrés. (C'est ce qui est utilisé le plus souvent lors des approximations de droite dans un nuage de points dans des tableurs communs). Mais on constate que cela reste une approximation. Deux grands facteurs d'incertitude sont inhérents à ces systèmes d'équations. Ils sont liés aux valeurs et vecteurs propres (les « solutions » principales). D'une part, la différence de grandeurs entre les valeurs propres (leur poids respectif) influe grandement sur les solutions. de l'autre, le poids relatif des faibles valeurs propres reflète le plus souvent la redondance, c'est-à-dire une sorte de valeur ajoutée quasi nulle. Il est notable qu'augmenter le nombre de mesures (ou d'équations) conduit souvent à accroître le nombre de ces valeurs propres à faible valeur ajoutée, donc cela est inutile.
Commenter  J’apprécie          00

Citations et extraits (6) Voir plus Ajouter une citation
on part de la réalité naturelle, et on essaie pour les besoins de la cause, en général pour mieux comprendre ce qu'on observe dans la nature, de fabriquer des modèles, qui eux, évidemment n'ont rien de naturels, qui sont des modèles mathématiques, informatiques, etc
Commenter  J’apprécie          00
nous faisons tous des modèles depuis longtemps, comme Mr Jourdain faisait de la prose : sans le savoir
Commenter  J’apprécie          10
le modèle c'est quelqu'un qui prend la pose, ou ce qu'on appelle une nature morte, mais un être réel existant dans la nature.
tandis que la réalité produite à partir du modèle, c'est l'oeuvre d'art.
Commenter  J’apprécie          00
une dernière limitation à ces possibilités de modélisation concerne plus particulièrement la caractère non reproducible des observations. c'est le passage à la limite e la sous-détermination.
Commenter  J’apprécie          00
cette sous-détermination de modèles par les observations n'est pas seulement une difficulté de la modélisation. elle peut être vue aussi come une propriété de la réalité elle-même
Commenter  J’apprécie          00

Videos de Henri Atlan (4) Voir plusAjouter une vidéo
Vidéo de Henri Atlan
Croire, est-ce bien raisonnable ? - Séminaire RDJ .Croire, est-ce bien raisonnable ? le dimanche 7 décembre 2014 à 11h Avec : Henri ATLAN, médecin, biologiste et philosophe, auteur de "Croyances. Comment expliquer le monde ? "(Autrement, 2014, 374 pages) Rémi BRAGUE, philosophe, auteur de "Modérément moderne" (Flammarion, 2014, 384 pages) Alexandre ADLER, historien, éditorialiste à Europe 1 et à l?Opinion Jean-Guilhem XERRI, "A quoi sert un chrétien ?" (Cerf, 2014, 273 pages) Une rencontre animée par Alexis Lacroix. ENTRÉE LIBRE ET GRATUITE Séminaire de la Règle du jeu Tous les dimanches à 11h Au cinéma Saint-Germain 22 rue Guillaume-Apollinaire Paris 6ème Métro : Saint-Germain-des-Prés Informations : redaction@laregledujeu.org ? 01 45 44 98 74 laregledujeu.org
+ Lire la suite
autres livres classés : modèleVoir plus
Les plus populaires : Non-fiction Voir plus


Lecteurs (5) Voir plus



Quiz Voir plus

Philo pour tous

Jostein Gaarder fut au hit-parade des écrits philosophiques rendus accessibles au plus grand nombre avec un livre paru en 1995. Lequel?

Les Mystères de la patience
Le Monde de Sophie
Maya
Vita brevis

10 questions
437 lecteurs ont répondu
Thèmes : spiritualité , philosophieCréer un quiz sur ce livre

{* *}