jeudi 31 octobre 2013

L'entropie en physique statistique

Dans le cadre de la physique statistique, c'est Ludwig Boltzmann qui a pu donner le premier une interprétation microscopique à l'entropie perçue au niveau macroscopique.

Un système fermé évolue vers son équilibre, c'est-à-dire vers un état d'entropie maximale:
Par exemple, si on chauffe un bocal contenant de l'eau en un point du bocal, il s'établit un gradient de température (C'est à dire que l'eau qui est proche du point de chauffage est plus chaude que l'eau qui en est éloignée)
Si on arrête brutalement cet apport de chaleur pour laisser le bocal livré à lui-même (système clos), le bocal évolue spontanément vers un état ou la température est égale en tout point. (Température homogène).
Cette transformation est irréversible et s'effectue sans apport d'énergie extérieure supplémentaire.

De même, si on dépose une goutte d'encre colorée dans un bain, le bain évolue spontanément (et de manière irréversible) vers un état ou l'encre se diffuse de manière homogène dans le liquide.
L'entropie maximale est donc un état d'équilibrehomogène, avec un minimum d'énergie utilisable.

Au niveau microscopique, la théorie de Boltzmann permet d'expliquer statistiquement pourquoi les molécules d'un gaz ou d'un liquide tendent à s'homogénéiser au cours du temps.
A la température de 0 Kelvin (-273°C), les molécules et les atomes sont au repos complet.
Cette température est dite "Le zéro absolu" car on ne peut pas descendre en dessous.
Mais dès qu'un corps a une température supérieure zéro absolu, alors cela signifie une certaine agitation des molécules et des atomes.
A cause de cette agitation thermique, les particules s'entrechoquent et se répartissent dans le volume disponible. Cette agitation et ces chocs "mélangent" les particules, à la manière d'un jeu de carte qu'on mélange. Voir une excellente explication ici à la page 10 du document.
Ce chaos moléculaire est à l'origine du mouvement brownien.

Au bout d'un certain temps d'agitation thermique (c'est à dire de mélange), l'entropie (c'est à dire l'homogénéité) représente la probabilité de trouver une particule colorée à un certain endroit.
Autrement dit, l'entropie est faible lorsqu'on sait dire avec certitude où se trouve l'encre et où se trouve l'eau, puis l'entropie augmente avec le temps quand on ne sait plus faire la distinction...
Elle traduit simplement le fait qu'il est plus probable d'avoir l'encre mélangée à l'eau que l'encre et l'eau séparées, chacune d'un côté du bain.

Boltzmann en a donné une interprétation particulière en l'exprimant comme une mesure du désordre moléculaire: lorsqu'on mélange un jeu de carte, on a plus de chances d'avoir un jeu de carte désordonné que trié. Mais l'entropie est-elle une mesure du désordre ? Ou est-elle le révélateur d'un ordre qui nous serait caché, d'une information perdue ?

9 commentaires:

  1. Bonjour Agnostix, ici Panoramix.
    L'exemple avec de l'encre nous démontre la solubilité (en langage druidique). Mais si on considère de l’huile et de l’eau ? Est-ce que ce n’est pas l’inverse qui se produit (passage d’un état homogène vers un état hétérogène) ?
    Refais me le ta démonstration de l’augmentation de l’entropie avec de l’huile (20W40 Castrol) et de l’eau (H2O standard pH7) pour voir.

    RépondreSupprimer
  2. Ah ah! excellente question Panoramix!
    Voilà encore une excellente illustration que l'interprétation de l'entropie comme mesure d'"ordre" est peu pertinente puisqu'elle dépend du référentiel dans lequel on se place.

    On voit bien dans ce exemple que l'ordre macroscopique (La tendance de l'huile à se séparer de l'eau) est contradictoire avec a notion d'ordre au niveau microscopique.

    En effet, l'effet hydrophobe des molécules d'huiles est liée à leur nature (elles sont très différentes des molécules d'eau); plus elles sont nombreuses et plus elles obligent les molécules d'eau dans leur voisinage à se structurer de manière particulière, ce qui diminuerait l'entropie globale du système.
    La loi de croissance de l'entropie conduit donc le mélange à ne pas s'homogénéiser.

    Voir ici une explication détaillée de la chimie particulière de l'eau et de l'huile et de l'effet hydrophobe: http://espacesciences.com/Chimquo/Eau/eaucours.htm

    RépondreSupprimer
  3. Scusatemi, je reviens sur cet exemple de la goutte d'encre (qui fait déborder le vase). Tu dis qu'on tend vers un état homogène (Ok), d'équilibre (Ok), avec un minimum d'énergie utilisable.
    En quoi y avait-il au départ, avant que l'encre ne se diffuse, de l'énergie utilisable dans ce système ?

    RépondreSupprimer
    Réponses
    1. Le concept d'"énergie utilisable" a été introduit en thermodynamique pour distinguer les énergies cinétiques et potentielles (directement convertibles en "travail") de l'énergie calorifique qui n'est pas directement convertible (hormis via les machines thermiques, qui sont justement l'objet de la thermodynamique).
      L'énergie calorifique est considérée comme une forme "dissipée" d'énergie car c'est une énergie qui réside de manière "diffuse" dans la matière (dans le chaos moléculaire)

      L'exemple de la diffusion de l'encre dans l'eau illustre visuellement le chaos moléculaire et le phénomène de diffusion, mais surtout, les probabilités pour que l'encre se sépare de l'eau sont du même ordre que les probabilités pour que la chaleur d'un corps se transforme en énergie cinétique (il faudrait pour cela que les vitesses des milliards de particules qui composent ce corps décident de s'orienter toutes dans le même sens), c'est pourquoi la chaleur est considérée comme une énergie non utilisable. Cette "non-utilisabilité" est directement liée au phénomène de diffusion, c'est à dire à l'agitation moléculaire.

      Supprimer
  4. Je vais tenter un parallèle (osé). La physique statistique montre que, si l'on ne peut pas déterminer le comportement des n particules formant un gaz (par exemple), on peut statistiquement déterminer le comportement global de ce gaz (avec un écart reltif de racine(n)/n).
    N'en est-il pas de même des hommes ? Nous sommes comme des particules dont il est bien difficile de prédire le comportement, a priori gouverné par les décisions rationnelles, le "libre arbitre" ou encore le hasard et la nécessité. Et pourtant, tester 1.000 individus permet de prédire (pas si mal) les résultats d'une élection à laquelle sont conviés 40M d'individus ! A 19h55, un jour de froid d'hiver, qui peut prédire ce que toi ou moi feront ? Et pourtant, c'est toujours l'heure de pointe de conso d'électricité. De même que la dernière semaine de juin est le pic de conso d'eau à Paris. C'est tout l'enjeu du "big data" de révéler ces comportements "statistiques" au-delà des préférences individuelles. Un sorte de sociologie statistique donc ?

    RépondreSupprimer
  5. En effet, mais je dirais que le parallèle n'est pas si osé. On considère généralement que les particules soit disant "élémentaires" sont des objets simples: en fait, il n'en est rien.
    On ne sait même pas dire avec précision où se trouve un électron à un instant donné et pour dire vrai, nul ne sait ce qu'est vraiment un électron, qu'est-ce que le spin, qu'est-ce qu'un quark etc. Est-ce un grain de matière ? Est-ce une énergie ? Une onde de probabilités ? Les objets microscopiques forment tout un bestiaire (les quark, les neutrinos, les leptons, les bosons etc.) aux propriétés étranges et mystérieuses dont la complexité nous échappe encore pour beaucoup... Je n'irai pas jusqu'à les comparer à la complexité d'un être humain mais il n'en est pas moins étonnant de pouvoir calculer des probabilités concernant des objets dont le comportement est loin d'être totalement déterministe.

    RépondreSupprimer
    Réponses
    1. oui enfin l'Homme se sent très singulier dans le sens où il se "sent" une conscience et surtout un libre-arbitre, chose qu'on n'attribue pas aux particules élémentaires pas plus qu'aux molécules les plus complexes. C'est CA qui pose question ...
      Si on reprend l'exemple de Schrödinger sur l'aimantation qui montre que les particules s'ordonnent plus ou moins en fonction de l'aimantation mais, au final, il y a bien un magnétisme observé. Plus au augmente le champ, plus les particules vont dans le même sens et plus le magnétisme augmente. Donc, en gros, plus la "contrainte" extérieure est forte, plus le comportement des atomes est "aligné". Cela ressemble fort au comportement humain. En présence d'un stimulus ou d'une contrainte externe, statistiquement, les humains vont plus ou moins s'aligner dans la même direction et plus au augmente le stimulus ou la contrainte, plus l'alignement sera fort (à part quelques individus qu'on peut nommer retors ou héros selon ...). Ce qui tendrait à dire que notre libre-arbitre est ... NUL. Qu'en fait, notre perception individuelle (notre "conscience") nous amène à voir un libre arbitre là où une perception globale du système ne verra qu'une variation statistique du comportement collectif. C'est cette "propriété" (assez désespérante) qu'exploiterait le big data et qu'illustre mes exemples). On peut aussi arguer que non, que les exemple que j'ai pris sont liés à une forme d'action particulière : la consommation d'électricité ou celle d'eau sont liés à nos besoins. Le fait que la conso d'eau explose au moment de la pub pendant le super-bowl aux USA est liée aux besoins de la vessie des supporters après ingestion massive de bière. Donc cette synchronie des comportements serait exacte dans le cas des besoins. Ayant tous le même corps (en tout cas fonctionnant sur le même modèle), les comportement liés aux besoins sont donc modélisables. Peut-être également ceux liés aux cerveau "primaire". Mais on peut éventuellement penser que les actions liées au cerveau le plus évolué (les émotions, la projection dans le futur, l'amour, "la culture" ..) ne sont pas modélisables, donc montrant bien un "libre arbitre" (et seront donc rétifs au big data).
      Bref, y-a-t-il un libre-arbitre ou pas et quels sont ces contours?

      Supprimer
    2. "Plus au augmente le stimulus ou la contrainte, plus l'alignement sera fort": je ne sais pas si cela s'applique aux sociétés humaines, à commencer par l'exemple le plus extrême: les dictatures.
      En l'absence de contrainte, un système physique composé de milliards de particules (un gaz par exemple) tend à l'homogénéité et à une absence totale d'organisation collective,
      Ca ne semble pas être le cas des sociétés humaines ou la liberté peut faire naître des comportement collectifs ordonnés. Par exemple, l'essor des logiciels libres, de wikipedia (ou plus historiquement la création de l'encyclopédie), et tous les mouvements associatifs en général...
      On a justement du mal à prévoir statistiquement les mouvements dits "émergents" car on a justement du mal à prévoir CE qui va émerger... Ainsi en 2002, malgré les statistiques, la majorité des journalistes et instituts de sondages ont été surpris par l'arrivé de Lepen au deuxième tour. Ces statistiques ont été ré-interprétées après coup et on a glosé sur le fait qu'on aurait pu prévoir mais ça a quand même constitué une surprise des derniers jours...

      Supprimer
  6. Voici un très bel exemple d'entropie en image et en mouvement par l'artiste Karina Smigla-Bobinski : https://www.youtube.com/watch?list=PLU9xNPsRguFkF1Ta-feXOtv7G1aYqunv3&v=qSjajlm3Bk0

    RépondreSupprimer