Mais qu'est-ce au juste que la complexité?
Un système nous apparaît complexe si on ne peut pas prévoir son évolution bien qu'on en connaisse les règles de fonctionnement (c'est le cas des automates cellulaires comme le jeu de la vie)
Or, l'entropie, c'est l'information que nous ne possédons pas sur un système complexe: c'est l'information que nous percevons, mais dont la signification nous est inaccessible et qui nous apparaît comme du bruit.
En reprenant l'exemple de notre système constitué de 2 éléments A et B dans l'article précédent, on peut la mesurer par l'effet produit sur le récepteur B: (c'est l'output du récepteur B).
C'est l'information qu'un système possède/contient et qui ne nous est pas compréhensible: de notre point de vue d'observateur externe au système, c'est du bruit ou de l'entropie (notons la H suivant la formule de l'entropie de Shannon)
Mais si un système continue à fonctionner avec ce que nous percevons comme du bruit (c'est à dire avec de l'information dont nous ne comprenons pas la signification, c'est à dire un accroissement d'entropie de notre point de vue), alors, c'est que pour le système, ce bruit reste fonctionnel.
L'intégration de ce bruit au système implique également une différenciation de ses éléments (c'est à dire une augmentation de la variété des éléments qui le composent), c'est à dire une diminution de la redondance de ses éléments:
Dans notre système "AB" avec bruit, au lieu d'avoir 2 éléments identiques "A", on aura un élément "A" et un élément "B", distinct/autonome de "A" puisque n'ayant pas la même information, le système est donc moins redondant qu'il ne l'était à l'origine, donc plus varié, et donc plus complexe.
Evidemment, si le système n'est composé que de 2 éléments A et B avec une voie de communication entre ces 2 éléments, il n'est pas complexe et le bruit reste le symptôme d'un mauvais fonctionnement.
Mais un système mettant en jeu un grand nombre d'éléments interconnectés (le cerveau, le corps humain ou une population par exemple) peut tirer parti du bruit (c'est à dire des erreurs) comme un accroissement d'information.
C'est le principe d'accroissement de complexité (ou d'auto-organisation) par le bruit.
En utilisant la formule de l'entropie de Shannon et en définissant le taux de redondance R d'un système complexe comme étant égal à (Hmax - H)/Hmax, puis en dérivant cette fonction par rapport au temps, on obtient une entropie d'information dH/dt qui est la somme de deux termes.
Je vous passe les calculs mais cette somme est composée d'une fonction décroissante (la redondance) et d'une fonction croissante de l'information max. Suivant la valeur des paramètres qui expriment la nature de l'organisation à laquelle on a affaire, la somme de ces 2 termes génère une évolution du type de celle ci-dessous, dont on voit qu'elle décrit parfaitement une phase de croissance et de maturation avec augmentation de la complexité/entropie/information, diminution de redondance et possibilité d'apprentissage adaptatif (augmentation de l'information), suivie d'une phase de vieillissement et de mort.
Source: Entre le cristal et la fumée - Henri Atlan
Quelque chose me gêne dans la physique contemporaine: c'est cette tendance à parler de plus en plus d'"information". Or, je ne conçois pas une information sans un "esprit" (ou une "conscience") capable de la recevoir (et même d'ériger tel ou tel phénomène au statut d'"information"). Bref, quelque soit la conception que l'on se fait de cette notion d'"esprit", je ne vois pas en ce concept d'information d'entité strictement matérielle, objet d'étude exclusif de la physique.
RépondreSupprimer