Au XVIIIe siècle, l'énergie thermique est déjà transformée en énergie mécanique dans les machines à vapeur sans que l'on sache à l'époque expliquer cette relation. (©photo)
L’entropie est la dernière et la plus mystérieuse des cinq grandeurs physiques (température, pression, volume, énergie interne, entropie) définissant l’état d’un système thermodynamique, c'est-à-dire d’un ensemble matériel délimité capable d’échanger de la chaleur et du travail avec le milieu extérieur.
L’entropie caractérise l’aptitude de l’énergie contenue dans un système à fournir du travail, ou plutôt son incapacité à le faire : plus cette grandeur est élevée, plus l’énergie est dispersée, homogénéisée et donc moins utilisable (pour produire des effets mécaniques organisés)(1). Lorsqu’un système thermodynamique est isolé sans échange possible avec l’extérieur, il ne peut qu’évoluer spontanément vers le maximum de son entropie pour tendre vers un état d’équilibre définitif (2e principe) alors que son énergie interne reste conservée (1er principe).
La notion d’entropie a été introduite par Rudolf Clausius en 1865. Il avait entrepris d’intégrer dans une nouvelle discipline, la thermodynamique, l’ensemble des progrès faits en physique de la chaleur(2). Clausius s’attaqua à la traduction mathématique de l’équivalence chaleur-travail de Joule (W=JQ). Grâce à la machine à vapeur, on savait quantifier le travail mécanique d’un gaz poussant un piston dans un cylindre à pression constante (∆ W = p ∆ V) mais cette relation n’avait pas encore été transposée à son équivalent, la chaleur.
Clausius, assimilant la température à une pression, proposa alors par analogie la relation ∆Q=T ∆S, S étant une grandeur d’état additive (extensive) nouvelle qu’il baptisa entropie (« transformation » en grec), son accroissement s’exprimant en Joules par degrés Kelvin (J/K). A la lumière du second principe imposant à la chaleur d’aller toujours du chaud vers le froid, la variation d’entropie s’est alors révélée être la grandeur traduisant le sens de toute transformation irréversible d’un système thermodynamique par l’inéquation ∆S≥0. Mais à ce stade l’entropie macroscopique restait une abstraction, son sens physique restant une énigme.
Clausius établit que la chaleur est un phénomène mécanique dû au mouvement des particules (molécules) et la température une mesure de leur agitation. Simultanément Maxwell, appliquant à la physique des particules les nouvelles méthodes de l’analyse statistique, parvint à retrouver la plupart des résultats macroscopiques de la thermodynamique, en particuliers la loi des gaz parfaits. Mais à l’échelle microscopique, ils ne purent mettre en évidence d’irréversibilités pouvant expliquer le deuxième principe et ou se cachait l’entropie.
Ce fut Boltzmann qui découvrit en 1873 que la fonction de distribution statistique des positions et des vitesses des molécules obéissait à une évolution irréversible : pour un même état macroscopique (volume V, énergie interne U), constitué déjà d’un nombre gigantesque de particules (>1023 dans une seule mole de gaz parfait), il existe un nombre Ω de distributions possibles des positions et des vitesses encore beaucoup plus « immensément grand ». Or la probabilité des « équirépartis » dans tous les états possibles croît mathématiquement avec leur nombre au détriment des autres. A l’échelle microscopique, ces états Ω équirépartis sont si dominants en nombre et en temps d’occupation qu’ils constituent l’état d’équilibre macroscopique le plus probable vers lequel, par agitation thermique, le système a tendance à évoluer spontanément. Le ressort probabiliste du second principe qui pousse le chaud vers le froid était découvert. Boltzmann a alors lié l’entropie d’un système au nombre Ω par la relation :
S = K.log Ω où K est la constante de Boltzmann (1,38110.10-23)
On retrouve que plus les particules d’un système sont, en positions et en vitesses, dispersées de façon homogène entre leurs Ω états possibles, plus l’entropie de ce système est grande et sa capacité à fournir du travail limitée.
En 1904, le troisième principe (Nernst) stipulait que l’entropie est nulle au zéro absolu puisqu’un ordre parfait y règne, la dotant ainsi d’une échelle de mesure absolue(3).