vendredi 12 décembre 2014

La sous-détermination des modèles

Pour faire suite aux commentaires de Marc et Nicolas dans cet article concernant la modélisation, je voudrais attirer l'attention sur une difficulté fondamentale de la modélisation des systèmes naturels:
Il s'agit du problème de la sous-détermination des modèles par rapport aux données d'observation, c'est à dire la capacité pour plusieurs modèles d'expliquer les mêmes données.
Ce problème caractérise grandement tous les systèmes complexes, notamment biologiques et sociaux.
J'ai montré comment, grâce à l'informatique, il est possible de simuler des comportements auto-organisateurs ayant des propriétés émergentes.
L'intérêt de ces simulations consiste:
  1. A suggérer des modèles théoriques conduisant à l'apparition de phénomènes observés dans la nature et qui sembleraient "à priori" improbables ou mystérieux (comme l'apparition de la vie, ou l'évolution)
  2. De suggérer de nouvelles expériences qui permettraient de décider, entre deux modèles concurrents, lequel est le plus capable d'expliquer des phénomènes observés.
Dans son livre sur l'auto-organisation (1), Henri Atlan décrit des recherches menées en intelligence artificielle et en cybernétique, qui montrent qu'il est possible d'organiser deux systèmes de réseaux de neurones tels que le système 1 a un comportement émergent, qui peut être utilisé par le système 2 de telle sorte que l'ensemble Système 1/Système 2 se fixe ses propres buts (qu'on peut donc qualifier de buts émergents)
Ces buts sont tout à fait imprévisibles à priori: le système global n'est pas pré-programmé pour les atteindre. Atlan dénomme cette classe de comportement "auto-organisation intentionnelle au sens fort" par opposition à "l'auto-organisation au sens faible" où l'objectif du réseau de neurones est déterminé par le concepteur et non pas le système lui-même. (En général le "but" fixé par le concepteur est un apprentissage adaptatif)
Dans le cas de ce système d'auto-organisation intentionnelle au sens fort, il permet d'envisager la possibilité d'un principe téléologique émergent et non vitaliste, c'est à dire d'une auto-détermination.

Le système décrit par Atlan se base intégralement sur la théorie de la complexité par le bruit. Les 2 systèmes sont organisés de telle façon que le bruit dans le système 1 produit un sens pour le système 2 qui, lui-même, rétroagit sur le système 1. Les "buts" du système émergent naturellement et sont relativement stables par rapport aux perturbations, tout en n'étant jamais complètement figés car ils peuvent continuer d'évoluer au fil des données d'entrée.

Ainsi on est capable de concevoir et de mettre en oeuvre un modèle de machine d'intelligence artificielle qui se fixe ses propres buts et qui se comporte ainsi quasiment comme un organisme vivant.

Mais peut-on affirmer pour autant que les organismes vivants sont construits sur le même modèle?

Les problèmes de l'ingénierie classique consistent à reproduire des systèmes capables de certaines fonctionnalités prédéfinies ou de performances observées dans la nature. Par exemple, un appareil photo est capable d'enregistrer une image, de même que l’œil humain (et les neurones associés) de la stocker.
L’œil humain fonctionne-il pour autant comme un appareil photo?
C'est une question typique de l'ingénierie inverse.
L'ingénierie inverse part des observations pour construire un modèle capable de reproduire des états observés: elle essaie de concevoir des modèles capables d'expliquer des observations.

Or pour les systèmes naturels (de même que pour la sociologie, l'histoire, l'économie, la psychologie, etc.), il existe un nombre extrêmement élevé de variables observables, et de nombreux modèles sont capables de prédire les mêmes états observés: c'est ce qu'on appelle la sous-détermination.

On peut estimer le degré de sous-détermination d'un modèle en fonction du nombre d'éléments qui composent un système. D'une certaine manière, puisque cette sous-détermination donne une mesure de l'information cachée dans le système (son fonctionnement), elle donne une mesure de sa complexité, c'est à dire de son entropie d'information.
Ce degré de sous-détermination est déjà très important pour de petits réseaux d'éléments interconnectés (moins d'une dizaine d'éléments).
Par exemple, pour n éléments interconnectés qui peuvent avoir x états différents, le nombre d'états observables du système global est à la puissance n. Mais le nombre de structures de modèles possibles pour expliquer ces états observés, est de à la puissance n au carré (y étant le nombre de valeurs possibles que peut prendre chaque connexion: par exemple: active/inactive/inexistante).
Il en résulte que pour un système complexe tel que, par exemple, le cerveau humain, un nombre gigantesque de modèles peuvent expliquer les mêmes états observés.

Cette propriété des systèmes complexes, notamment biologiques, peut parfois expliquer leur robustesse.
En génétique, une expérience de "knock-out" consiste à inhiber totalement un gène.
Lors d'une telle expérience menée sur des souris, les biologistes ont pu constater que la suppression d'un gène dont on savait par ailleurs, qu'il avait un rôle important dans le développement d'un phénotype chez la souris, n'affectait quasiment pas le phénotype.

Le modèle déterministe classique cause>conséquence, instancié en biologie sous la forme un gène>une protéine>une fonction, est actuellement revisité en un modèle multicausal ou la multi-causalité provient du fait qu'un grand nombre de structures possibles peut produire les mêmes fonctions.
Autrement dit, une structure biologique qui utilise certains gènes pour produire certaines fonctions peut se passer complètement de ces mêmes gènes et pourtant parvenir à produire exactement ou approximativement les mêmes fonctions, ce qui explique en partie leur fiabilité et dénote une redondance fonctionnelle délocalisée telle que prévue par Von Neumann.

En matière médicale, les raisons pour lesquelles tels médicaments ou telle médecine parallèle fonctionnent sont tellement sous-déterminées qu'on est presque fondé à dire que tout marche mais avec des probabilités différentes.
Ainsi, comme le dit le titre d'un livre du mathématicien René Thom, "prédire n'est pas expliquer". Plusieurs modèles concurrents peuvent prédire le devenir d'un système sans toutefois l'expliquer. D'après Atlan, c'est en cela que la science se distinguerait de la magie, qui ne laisse rien, elle, d'inexpliqué. Alors que l'explication laisse notre âme en repos, la science, elle, ne cesse de nous questionner par son caractère ouvert d'incomplétude explicative...

Le problème du biais de sous-détermination apparaît lorsqu'on cherche à prédire le futur en se basant sur un modèle qui marche pour expliquer des faits observés dans le passé. Car les nombreux modèles différents capables d'expliquer ces états passés peuvent ne pas conduire tous aux mêmes prédictions concernant les états futurs... surtout dans le cas de systèmes naturels complexes ou le nombre de données observables et reproductibles sont en nombre limités.

Ainsi la sous détermination des modèles par rapport aux observations peut nous conduire à des extrapolations erronées...

Non seulement notre monde est donc fondamentalement indéterminé, mais de plus, les modèles explicatifs que nous concevons pour l'appréhender sont généralement sous-déterminés...
Il n'y a donc rien d'étonnant à ce que nos prévisions soient hasardeuses ou, en tous cas, risquées.

Pour répondre au commentaire de mon ami Nicolas Quint, je ne parierai donc pas trop sur le fait que nos amis Alsaciens voteront conservateur dans les 5 prochaines élections, même si ça fait déjà deux siècles que c'est le cas.

Comme disait Pierre Dac, "la prévision est un art difficile, surtout quand elle concerne l'avenir".

Sources:

(1) Le vivant post-génomique ou qu'est-ce que l'auto-organisation - Henri Atlan
(2) La peinture est de Françoise Nielly
(3) Les photos sont extraites de "The writing on the wall" de OK Go (une découverte du prof d'Art Plastique de mon fils, un type qui donne envie de prendre des courts d'Art Plastique)

Post Scriptum:
Pour ceux qui ont aimé la vidéo The writing on the wall (les autres peuvent quitter ce blog, je les renie), je recommande aussi celles-ci:
I wan't let you down et Needing/Getting, le tout réalisé sans montage! (C'est le principe de OK Go, mais c'est incroyable)
Et puis, ça illustre parfaitement la sous-détermination des modèles...

6 commentaires:

  1. "Dans le cas de ce système d'auto-organisation intentionnelle au sens fort, il permet d'envisager la possibilité d'un principe téléologique émergent et non vitaliste, c'est à dire d'une auto-détermination." ==> n'est-ce pas là le point de singularité cher aux tenants du transhumanisme (notamment) ?

    Pour la question du "reverse engineering", c'est la tendance naturelle que tu décris, à savoir comparer une fonction corporelle à une fonction techno existante. Notamment l'exemple qui t'horripiles : le cerveau comme ordinateur (ou l'oeil comme appareil photo). Ce qui est intéressant (j'avais entendu une émission là-dessus) c'est le biomimétisme où on cherche à comprendre un mécanisme biologique sans a priori et comparaison avec de l'existant mais à reproduire des propriétés extra-ordinaires (saut d'une puce, résistance d'un fil d'araignée) au service de visées humaines. Après, je ne sais pas si on peut parler de "reverse engineering" dans le sens où celui-ci tend à démonter une "boîte noire" pour comprendre "comment ça a été conçu et ça marche". Là, il n'y a pas eu "engineering" (à moins de considérer que la nature et l'évolution soient de "grands ingénieurs").

    Après, l'explication sur la sous-détermination est très claire. Néanmoins, je ne pense pas que cela remet fondamentalement en question ce que nous disions, Marc et moi (je parle en son nom, comme tu nous apostrophes). La question est : pourquoi je cherche à modéliser ? avec quelle incertitude ai-je l'espoir d'y arriver ? si c'est dans l'espoir de prédire le futur du système, en quoi dois-je limiter ma prétention. Bref, on pourrait déduire de ton article que ça n'est pas la peine de s'emm.. à modéliser puisque ce sera toujours entâché d'une (éventuellement très grande) incertitude et que mes projections pour le futur seront toujours contraintes par un "en principe". C'est vrai ... et pourtant, c'est utile ! Comme le disait Marc avec la mécanique Newtonienne, ça marche ... Et pourtant, des 100aines d'avions survolent la Terre à cette seconde en se basant sur la mécanique newtonienne et pire sur des équations d'écoulement d'air et d'aérodynamiques qu'on ne sait résoudre que par approximation. Un avion est un système complexe avec plus d'1.000.000 d'éléments interconnectés qui évolue dans un environnement complexe que l'on n'arrive pas réellement à modéliser. Et pourtant ça marche (presque) tout le temps. Une centrale nucléaire fournit probablement le courant qui m'éclaire sans que l'on puisse dire que la modélisation de la réaction de fission soit la bonne. Et ça marche (aux deltas catastrophiques près).

    Evidemment, il y a des contre-exemples. Je reviens évidemment à mon exemple de l'économie où X modèles, tous censément explicatifs sont en concurrence mais tous sont visiblement TRES sous-déterminés et tous TRES visiblement peu prédictifs. Le drame est que les acteurs n'ont visiblement pas assez conscience de cette limite. En gros, et c'est assez empirique mais les choses se passent relativement bien (même si il peut y avoir des accrocs aux limites - parfois catastrophiques) quand on modélise en ayant un minimum conscience des limites de sa modélisation (d'où l'intérêt en ingénierie d'appliquer des coefs de sécurité sur, par exemple, la résistance des matériaux). Là où réside l'empirisme total, c'est qu'on se sait pas vraiment mesurer l'indétermination du modèle. Evidemment, l'expérience (tester le modèle et voir si les valeurs obtenues sont bien les valeurs attendues) est généralement une clef quand c'est possible (en éco, évidemment ...) mais comme tu le démontres, le nombre de variables, éléments, états fait que cette validation n'est que partielle. Donc il y a une part de "feeling", d'expérience, un côté presque artisanal ...

    RépondreSupprimer
    Réponses
    1. Oui enfin, je ne vous apostrophais pas, je faisais simplement suite à vos commentaires forts intéressants, au demeurant. :-)
      Le fait que vous ayez parlé de modélisation, plutôt que de "lois de la nature", m'a paru une excellente terminologie et m'a inspiré cet article.
      Je voulais attirer l'attention sur la difficulté inhérente de la modélisation, et sur la complexité du monde qui nous entoure. (un thème qui m'est cher)

      Le fait, que, comme tu le dis, "ça marche!" (dans la plupart des cas) pourrait nous faire croire que le monde qui nous entoure est simple et prévisible. Or il n'en est rien!
      Quand on réfléchit au problème de la modélisation, il est même surprenant qu'on parvienne à faire la moindre prédiction (et pourtant, comme tu le dis, nous parvenons à trouver des choses qui marchent, probablement d'ailleurs davantage avec une démarche empirique qu'avec une démarche théorique)

      Pour faire bref, le fait que "ça marche" (qu'on sait faire voler des avions et des satellites) peut nous donner l'illusion que nous maîtrisons notre environnement, comme si celui-ci répondait à des lois mécaniques simplistes.

      Il me semble qu'on accorde trop souvent à des modèles théoriques simplistes une confiance exagérée, notamment, comme tu le fais remarquer, en économie, ou ce biais s'est maintes fois manifesté (mais aussi dans de multiples autres aspects de la vie moderne).

      Supprimer
    2. Je me permets de rebondir maintenant - après deux ans - puisque je viens de tomber sur blog et cette discussion que j'apprécie particulièrement. C'est vrai que les modèles sont confrontés à la sous-détermination et que la nature même des disciplines (physique, biologie, économie, géographie...) déterminent des moyens différents de contrôle ou de limitation des effets délétères de la sous-détermination. Dans mes travaux, cependant, j'ai insisté sur l'importance aussi de l'essor contemporain des approches de modélisation multi-physiques, multi-échelles et/ou multi-niveaux: la plurifomalisation qui va de pair en général avec ces approches permet de produire des représentations modèles robustes (que je qualifie d' "épaisses") dans la mesure où il y des validations croisées hétérogènes (cross-validations au sens de Bruce Edmonds) qui sont à l'origine de leurs calibrations. Voilà. Si cela vous intéresse, vous pouvez regarder mes travaux ici : https://www.researchgate.net/profile/Franck_Varenne

      Supprimer
    3. Merci pour le lien. Vos travaux ont l'air intéressants en effet.

      Supprimer
  2. Et là, j'en reviens à mes Alsacos. La modélisation paraît totalement hasardeuse : 1,2 millions de votants chacun se déterminant "librement" selon un nombre de critères quasi-infinis et dépendant de chacun allant de la tradition familiale à la bonne gueule du candidat. Peine perdue donc ?
    Et pourtant ... il y a une permanence des votes par "zones" (plus dans certaines que dans d'autres) qui s'expliquent par des déterminants anthropologiques (parfois vieux de plusieurs siècles) ou sociaux (régions ouvrières ou autres). Evidemment, cela n'est pas gravé dans le marbre une fois pour toutes. Les évolutions économiques, sociales ou l'offre politique font que Henin-Beaumont et sa région est passé de l'état de bastion de gauche à forteresse FN ... mais pas en 1 jour.
    L'expérience ensuite. Le fait que le 67 ait voté à 65% Sarkozy en 2007 ET en 2012. Que l'Alsace soit la seule région métropolitaine à droite.
    Evidemment, j'ai bien conscience de la faiblesse de mon modèle, c'est pourquoi je ne me suis pas trop avancé ... "conservateur" mais sans nommer de parti. 5 élections, ça ne fait jamais que 7 ou 8 ans, pas plus. Ca n'est pas du 100% mais j'ai une certaine confiance (limitée mais quand même).

    RépondreSupprimer
    Réponses
    1. Disons que le jour où ils voteront à gauche, le modèle n'aura pas permis de le prévoir! :-)
      D'un autre côté, les poules auront peut-être des dents! Mais après tout, il y a bien des cygnes noirs! ;-)

      Supprimer