Jean-Claude Lehmann

La vision de…
Jean-Claude Lehmann

Physicien
Président honoraire de l’Académie des Technologies

En 2050, les transformations majeures du mix de consommation énergétique pourraient bien venir du numérique.

Qui ne s’est jamais rendu compte que son ordinateur portable, posé sur les genoux, pouvait chauffer considérablement. Certains s’y sont même brûlés ! Or ceci n’est qu’une toute petite partie de l’énergie absorbée puis dissipée par l’ensemble de la civilisation numérique. Les centres de stockage (les data centers), au nombre d’une bonne centaine en France, consomment déjà près de 9% de l’énergie électrique du pays.

L’ensemble du stockage et du traitement de l’information, outre la consommation directe des ordinateurs et des data centers, consomme aussi de l’énergie dans les réseaux, la fabrication des composants et des équipements, les périphériques, etc. Au niveau mondial, on estime que le numérique consomme au total près de 2% de l’énergie produite dans le monde, soit environ 10% de l’énergie électrique.

On nous annonce une croissance de la masse de données traitées de l’ordre d’un facteur deux tous les deux à quatre ans, ce qui laisse certains augures prévoir que la gestion de l’énergie pour l’ensemble production, transport, stockage et traitement de l’information ne sera plus maîtrisable d’ici une vingtaine d’années !

Bien sûr, il existe de nombreuses possibilités d’amélioration de la situation : l’énergie consommée se transformant essentiellement en chaleur, on peut la récupérer pour chauffer des bâtiments, voir des piscines comme cela se fait déjà. La climatisation des data centers devient plus performante, on développe des composants pouvant travailler de façon fiable à plus haute température, donc nécessitant moins d’énergie de climatisation, des logiciels et des structures plus performants permettent de minimiser la dépense énergétique, notamment en remplaçant des architectures de calcul universelles par des architectures spécialisées, éventuellement neuromorphiques (mimant le fonctionnement du cerveau). Enfin, l’informatique elle-même apporte sa contribution à la maîtrise donc à la diminution de notre consommation d’énergie.

Et pourtant, cette débauche d’énergie se situe bien au-delà de ce que requiert théoriquement le processus fondamental de stockage et de traitement de l’information.

Depuis Claude Shannon, Léon Brillouin et surtout Rolf Landauer, on sait que l’informatique est soumise aux lois de la thermodynamique. Ainsi, le traitement réversible d’un bit informatique, comme son transfert d’un endroit à un autre, peut se faire théoriquement sans dépense d’énergie. A l’opposé, tout processus irréversible, comme l’effacement d’un bit d’information par exemple, augmente l’entropie du système donc dégrade une autre forme d’énergie élémentaire en chaleur.

Landauer a montré que cette dépense minimum est kTLog2 où k est la constante de Boltzmann et T la température absolue. Cet ordre de grandeur peut se comprendre de la façon suivante : stocker N bits d’information a minima, c’est les inscrire sur N degrés de liberté d’un système élémentaire, par exemple sur N spins électroniques que l’on orienterait dans un sens ou dans l’autre. Perdre cette information en effaçant les N bits revient à remplacer l’ensemble orienté par N spins dans des directions aléatoires, ce qui augmente le désordre, c’est-à-dire l’entropie de NkLog2. Les bits étant en équilibre avec un réservoir à la température T, cette augmentation d’entropie s’accompagne d’après le second principe de la thermodynamique d’un dégagement de chaleur NkTLog2. On peut aussi comprendre que, pour « inscrire » un bit d’information sur un système dont chaque degré de liberté a une énergie thermique désordonnée de 1/2kT, il faille lui apporter une énergie supérieure à ce minimum.

Mais cette énergie théorique minimum est immensément inférieure à ce qui est dépensé dans les systèmes réels actuels. Notons d’ailleurs que la plupart des équipements consommant de l’énergie dont l’humanité s’est dotée (moteurs, pompes à chaleur, etc.) sont déjà proches des limites que leur assigne la thermodynamique, sauf donc le traitement de l’information ! Les pertes y sont essentiellement dues au fonctionnement même des transistors qui, à chaque cycle de fonctionnement, libèrent de l’énergie comme le ferait un condensateur (consommation « dynamique »), mais aussi aux courants de fuites qui augmentent avec la finesse de la gravure, donc le nombre de transistors au cm2 (consommation « statique »), ainsi qu’à l’effet Joule dans les circuits de connexions.

Cette différence entre énergie réellement consommée et limite de Landauer serait plutôt une bonne nouvelle. En effet, cela laisse l’espoir de pouvoir encore considérablement augmenter nos capacités de stockage et de traitement de l’information, tout en diminuant de façon spectaculaire leur consommation énergétique. Encore faut-il savoir comment s’y prendre, et là quelques décennies seront certainement nécessaires.

D’ici 2050, on peut penser que des technologies complètement nouvelles se développeront. Plusieurs directions peuvent être imaginées, qui vont nécessiter de nombreuses recherches, tant scientifiques que technologiques.

Des expérimentations ont été faites utilisant des composants supraconducteurs, donc ne dissipant pas d’énergie par effet Joule, mais sans résultats significatifs. En termes de stockage, si, comme on l’a vu les dimensions submicroniques des structures semi-conductrices commencent à poser de sérieux problèmes, notamment en ce qui concerne les courants de fuite, on peut penser par exemple que des technologies vont se développer qui étendront à trois dimensions ce que l’on sait faire actuellement à deux. Ce serait une source de développement potentiel importante.

Mais les véritables révolutions viendront peut-être de deux autres directions radicalement différentes : des sciences de la vie et/ou du traitement quantique de l’information.

La plus spectaculaire concentration d’informations actuellement connue est la molécule d’ADN. Un unique brin d’ADN humain stocke une information considérable sur ses 3 milliards de paires de bases, concentrée dans le volume d’une cellule humaine. On peut penser que la maîtrise de sa composition et de sa lecture permettra d’ici 2050 de développer des mémoires d’un type complétement nouveau, entrant dans des systèmes également très différents des systèmes actuels. Des chercheurs commencent à travailler sur la notion de transistors biologiques et plus généralement de stockage et de traitement de l’information par voie biologique !

La question de la consommation énergétique du traitement de l’information devra être aussi complètement repensée en cas d’avènement de l’ordinateur quantique dont on rappellera pour finir le principe : un qubit est un système quantique à deux états de base comme le spin d’un électron. Dans un état quantique dit « cohérent », il peut être dans une superposition linéaire de ces deux états (que l’on peut noter a/0> + b/1> où a et b sont des nombres complexes). Ainsi au lieu d’être représenté par deux états possibles comme un bit classique, le qubit peut être représenté comme un vecteur dont l’extrémité peut se trouver n’importe où sur une sphère unitaire centrée sur l’origine. En outre, deux qubits peuvent être cohérents entre eux, ce qui multiplie par deux le nombre d’états de base possibles /00>, /01>, /10> et /11> dont on peut créer une superposition cohérente. Ainsi, alors que l’addition d’un bit normal ne fait qu’ajouter deux états possibles, chaque addition d’un qubit double le nombre de dimensions de l’espace dans lequel on travaille. Ceci conduit, par application d’un opérateur à cet état « cohérent », à l’équivalent de calculs massivement parallèles, dont la puissance croit exponentiellement avec le nombre de qubits, pourvu que l’on puisse les garder dans un état global cohérent…ce qui est loin d’être évident.

Le problème est double : d’une part réaliser de tels systèmes et les conserver sans que le phénomène de décohérence ne leur fasse perdre immédiatement leurs propriétés et d’autre part « programmer » ces systèmes, puis recueillir le résultat de leur évolution. De nombreuses approches sont actuellement étudiées : atomes piégés à très basse température, électrons piégés dans une structure solide, noyaux de molécules dans un champ magnétique, utilisation de circuits mésoscopiques exploitant l’effet Josephson, etc. En ce qui concerne la dépense en énergie, celle d’un calculateur quantique pourrait peut-être plus facilement s’approcher de la limite de Landauer, ce qui nous ferait sortir de l’impasse actuelle. Encore faudrait-il pouvoir maîtriser les dépenses énergétiques nécessaires à la manipulation et au contrôle des qubits (alimentation des lasers dans le cas des atomes piégés, dépenses cryogéniques, etc.). Si des ordinateurs quantiques à quelques qubits ont pu être réalisés et ont permis de démontrer leur principe de fonctionnement, on est encore loin de voir cette technologie se substituer aux technologies actuelles. Les plus optimistes annoncent une dizaine d’années. Rien n’est impossible mais avant que notre société numérique, avec ce qu’elle va devenir entre temps, ne bascule vers le quantique, j’estime que l’objectif 2050 est un peu moins irréaliste.

Je tiens à remercier Serge Haroche pour d’intéressantes discussions, notamment autour de la seconde partie de ce texte.

parue le
07 juillet 2017