AccueilMes livresAjouter des livres
Découvrir
LivresAuteursLecteursCritiquesCitationsListesQuizGroupesQuestionsPrix BabelioRencontresLe Carnet
>

Critique de jlvlivres


« Qu'est ce qu'un modèle ? » donc. La réponse d'Atlan tient en environ 25 pages de petit format (10*14.5 cm) et quelques 100 000 signes.

un (petit) livre que toute personne modélisant ou utilisant des modèles DEVRAIT lire.

Il est assez amusant que ce texte ait donné lieu à des discussions presque plus longues, certaines ayant un fond de vérité, d'autres étant plutôt des justifications de modélisateurs qui défendaient leur supposée bonne foi (et leurs travaux). Ayant moi-même modélisé et pratiqué cette discipline, de plus dans une science dite naturelle ou semi-dure, à un époque ou un chiffrage des données était quasi gage de vérité (chez les aveugles, le borgne est roi), et en en ayant très vite perçu les limites, il m'a été relativement aisé de trier les arguments (et d'une certaine manière abonder dans le sens de Henri Atlan).
L'auteur commence par expliquer ce que peut être un modèle, en complément d'une expérimentation (par exemple sur des animaux, pris comme modèles pour des maux humains). Après l'avènement de la biologie moléculaire et découverte de l'ADN et de la synthèse des protéines, on a pu coder l'information portée par les quatre bases, et donc calculer la quantité d'information portée par une molécule d'ADN (information selon Shannon). Ce codage en quatre bases ou vingt deux acides aminés a permis le changement de paradigme, passant du code à la programmation génétique. Tout allait donc très bien, sauf que… Et c'est là que la modélisation devient extrêmement complexe, et que la génomique laisse place à la protéonomique, c'est-à-dire passe des gènes aux protéines. Ceci d'autant plus que les réactions ne sont pas linéaires et qu'il existe de nombreux effets rétroactifs (feedback loops). de ce fait le modèle devient quasi imprédictible, et surtout il est impossible de connaître l'effet de chacune des interactions. de plus les transmissions du signal ne se font pas de façon linéaire et uni-directionnelle, mais selon un schéma en parallèle, dans lequel les trajets peuvent être multiples d'un émetteur à un récepteur.

Plusieurs solutions existent alors qui permettent une approche de modélisation, toujours dans le domaine de la biochimie. L'une est la cinétique de réaction, ou vitesse de déroulement des différentes réactions chimiques. A supposer que chacune des réactions puisse être suivie dans le temps, on peut modéliser l'effet global de chacune et donc appréhender l'effet total. Tout se passe bien sur le papier, mais la confrontation aux données expérimentales montre vite les limites de la méthode. On peut (presque facilement) mesurer les différents paramètres en jeu lors d'une réaction. Sauf que le modèle que l'on construit alors est fortement sous-déterminé. C'est-à-dire que l'on a plus d'inconnues que de mesures. Augmenter les mesures donc, oui, mais celles-ci peuvent être redondantes, donc n'ajouter aucune information, et c'est bien là le problème. Il en résulte que plusieurs modèles, tous aussi rigoureux, peuvent expliquer le phénomène, ou du moins lui donner une signification approximative, pas tout à fait juste, ni tout à fait fausse. On se retrouve donc avec un trop plein de modèles dont chacun pourrait être une explication différente du même phénomène. Ce type de modélisation, partant d'un grand nombre d'observations et essayant de déterminer quelles en sont les causes est souvent décrite comme de bas vers le haut (bottom-up).

Par opposition une autre catégorie de modèles procède de manière inverse. Il s'agit de déterminer l'influence de tel paramètre, avec production de telle cause. On procède alors de haut vers le bas (top-down). Souvent le problème est plus complexe et la simulation sert alors à hiérarchiser les effets provoqués par les différentes causes. Enfin une dernière catégorie de modèles est récemment apparue qui aboutit à une auto-organisation des phénomènes, sans que l'on sache exactement pour l'instant ce qui la provoque (si ce n'est une complexité des rétroactions). Cela aboutit à ce que l'on nomme les réseaux neuronaux, avec de multiples développements dans la recherche de l'auto apprentissage ou de l'intelligence artificielle. Mais l'un n'explique pas l'autre. le retour à l'expérimentation et surtout la démonstration de la reproductibilité des résultats limite sérieusement la modélisation.
Petit livre, donc, pas facile à résumer en 5000 signes (et à coder sur 30 caractères). En fait cette classification en top-down et bottom-up peut aussi se résumer en modélisations directe et inverse, le sens (la direction) étant des données aux causes. le problème de la sous détermination, c'est-à-dire du nombre des observations (des équations) par rapport aux inconnues, reste identique. Tout comme la linéarité (ou non) des relations. Certes, la solution à la non-linéarité se traduit souvent par une pseudo-linéarisation. C'est le cas le plus fréquent lors de la méthode la plus utilisée, celle de l'approximation des moindres carrés. (C'est ce qui est utilisé le plus souvent lors des approximations de droite dans un nuage de points dans des tableurs communs). Mais on constate que cela reste une approximation. Deux grands facteurs d'incertitude sont inhérents à ces systèmes d'équations. Ils sont liés aux valeurs et vecteurs propres (les « solutions » principales). D'une part, la différence de grandeurs entre les valeurs propres (leur poids respectif) influe grandement sur les solutions. de l'autre, le poids relatif des faibles valeurs propres reflète le plus souvent la redondance, c'est-à-dire une sorte de valeur ajoutée quasi nulle. Il est notable qu'augmenter le nombre de mesures (ou d'équations) conduit souvent à accroître le nombre de ces valeurs propres à faible valeur ajoutée, donc cela est inutile.
Commenter  J’apprécie          00







{* *}