publisurf.com
Image default
A savoir

comment évaluer sa consommation d’énergie ?

[ad_1]

Pour mieux comprendre l’ordinateur quantique et la course technologique qu’il génère, nous vous proposons ici le troisième opus de notre série. Après un premier article sur la naissance du concept d’ordinateur quantique et un second sur les défis techniques à relever pour en contruire « en vrai », nous questionnons ici sa consommation énergétique, à l’heure où la facture numérique explose.


Les ordinateurs quantiques sont l’objet d’intenses recherches car ils pourraient – en théorie – permettre de résoudre en quelques heures des problèmes qui pourraient prendre un temps comparable à l’âge de l’univers (plusieurs dizaines de milliards d’années) sur les meilleurs supercalculateurs. Leurs applications sont nombreuses et vont de la conception de nouveaux médicaments et de nouveaux matériaux à la résolution de problèmes d’optimisations complexes. Ils sont donc avant tout destinés à la recherche scientifique et industrielle.

Traditionnellement, la « suprématie quantique » est donc recherchée sous l’angle de la puissance de calcul brute : on veut calculer (beaucoup) plus vite.

Cependant, un intérêt énergétique pourrait aussi être de la partie, alors que les supercalculateurs actuels consomment parfois autant d’électricité qu’une petite ville (ce qui pourrait de fait limiter l’augmentation de leur puissance de calcul) et que les technologies de l’information représentaient 11 % de la consommation mondiale d’électricité en 2020.

Pourquoi s’intéresser à la consommation énergétique des ordinateurs quantiques ?

Comme un ordinateur quantique peut résoudre des problèmes en quelques heures là où un supercalculateur pourrait mettre plusieurs dizaines de milliards d’années, on peut naturellement espérer qu’il consommera beaucoup moins d’énergie, en raison de ce gain de temps. Cependant, la réalisation d’ordinateurs quantiques aussi puissants ne sera possible qu’au prix de la résolution de nombreux défis scientifiques et technologiques, nécessitants potentiellement une à plusieurs décennies de recherche.

Un objectif plus modeste consisterait à créer des ordinateurs quantiques moins puissants, capables de résoudre des calculs en un temps relativement comparable aux supercalculateurs, mais en consommant beaucoup moins d’énergie que ces derniers.

Ce potentiel intérêt énergétique du calcul quantique a déjà été discuté. Le processeur quantique Sycamore de Google consomme 26 kilowatts de puissance électrique, soit bien moins qu’un supercalculateur, et exécute un algorithme quantique de test en quelques secondes. Suite à cette expérience, des algorithmes classiques permettant de simuler cet algorithme quantique ont été proposés. Les premières propositions d’algorithmes classiques requéraient une énergie bien plus importante – ce qui semblait démontrer l’avantage énergétique du calcul quantique, mais elles ont rapidement été suivies d’autres propositions, bien plus économes énergétiquement parlant.

La question de l’avantage énergétique reste donc sujette à caution et est un sujet ouvert de recherche, et ce d’autant plus que l’algorithme quantique exécuté par Sycamore n’a pas d’application « utile » identifiée à ce jour.

La superposition : phénomène fragile au cœur du calcul quantique

Pour savoir si on peut s’attendre à ce que les ordinateurs quantiques fournissent un avantage énergétique, il est nécessaire de comprendre les lois fondamentales sur lesquelles ils reposent.

Les ordinateurs quantiques manipulent des systèmes physiques qu’on appelle « qubits » (pour quantum bits) afin d’exécuter un calcul. Un qubit peut prendre deux valeurs : 0 (l’état « fondamental », d’énergie minimale) et 1 (l’état « excité », d’énergie maximale). Il peut aussi occuper une « superposition » de 0 et de 1. L’interprétation des superpositions est encore sujette à de vifs débats philosophiques, mais, en simplifiant, elles signifient que le qubit peut être « à la fois » dans l’état 0 et l’état 1 avec certaines « amplitudes de probabilités » associées.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Grâce à ces probabilités, on peut grandement simplifier le principe de l’ordinateur quantique en disant qu’il implémente des algorithmes réalisant des calculs sur plusieurs nombres « à la fois » (ici 0 et 1 en même temps). Cet avantage devient clair quand on augmente le nombre de qubits : 300 qubits en superpositions sont capables de représenter 2 à la puissance 300 états à la fois. À titre d’exemple, il s’agit approximativement du nombre d’atomes dans l’univers observable – donc représenter autant d’états à la fois sur un supercalculateur est complètement irréaliste.

Cependant, les fondements de la théorie quantique nous disent que si les valeurs de ces amplitudes de probabilités sont « mesurées » par un autre système physique, alors la superposition est détruite : le qubit relaxe vers la valeur 1 ou 0, introduisant ainsi une erreur dans le calcul.

Un exemple concret d’une telle destruction survient si le qubit absorbe un photon (une particule de lumière qui est un petit paquet d’énergie). Si c’est le cas, c’est qu’il n’était pas dans son état d’énergie maximale (puisqu’il peut absorber de l’énergie, celle du photon). Le photon, et donc à travers lui l’« environnement » du qubit a donc indirectement « trouvé » la valeur des amplitudes, ce qui détruit la superposition. On parle de « décohérence ».

De manière générale, le défi est de s’assurer que les qubits soient suffisamment isolés pour éviter la moindre fuite d’information : il ne faut pas qu’un photon ou une autre particule perturbe notre qubit inopinément. C’est un défi car il faut par ailleurs pouvoir contrôler les qubits : on ne peut donc pas les isoler complètement.

Ce manque de protection est la source principale d’erreur dans les calculs effectués grâce à des qubits. Par exemple, une des technologies de qubits les plus matures fait face à une erreur toutes les 1000 opérations. Quand on sait qu’il faut 1013 opérations pour un algorithme quantique typique, on comprend que c’est beaucoup trop.

Préserver les superpositions a un coût énergétique

Le coût énergétique du calcul d’un ordinateur quantique viendra majoritairement de ce besoin de « protection de la donnée quantique ».

Par exemple, il faut souvent mettre l’environnement des qubits proche du 0 absolu (-273 °C) pour garantir qu’aucun photon ne peuple cet environnement, évitant la problématique évoquée plus haut. C’est un processus très énergivore.

Certaines autres techniques, telle la correction d’erreur quantique, permettent aussi de préserver l’information quantique, et peuvent améliorer la fidélité des opérations. Cependant, en plus des défis qu’elles soulèvent, ces techniques induisent également un coût énergétique très important car elles impliquent des algorithmes de détection d’erreurs, ou des qubits supplémentaires permettant cette détection, etc.

En résumé, plus on veut qu’une opération effectuée sur un qubit soit fidèle, plus il faudra le protéger, et plus on va devoir dépenser de l’énergie pour cela. Il y a un lien très fort entre « taux d’erreur » et « énergie » dans le calcul quantique. Comprendre précisément ce lien peut alors permettre de concevoir un ordinateur très efficace énergétiquement.

Un avantage quantique énergétique est-il possible ?

Certaines études théoriques ont pu calculer le coût énergétique nécessaire à la réalisation d’ordinateurs quantiques, mais dans un régime non optimisé, n’exploitant notamment pas le lien entre taux d’erreur et énergie, et souvent avec un modèle simplifié de l’ordinateur.

L’exploitation de ce lien peut permettre de réaliser de puissantes optimisations réduisant le coût énergétique des algorithmes. En pratique, cela nécessite une approche interdisciplinaire incluant la compréhension des phénomènes fondamentaux induisant la décohérence, la modélisation des algorithmes et des codes de correction d’erreur quantique ainsi que toute la partie « ingénierie » nécessaire au contrôle des qubits. On peut alors calculer le coût énergétique minimal nécessaire pour résoudre différents problèmes, tout en visant une probabilité d’erreur pour l’algorithme considérée comme « acceptable ».

Comme nous l’avons étudié, pour des qubits d’excellente qualité (c’est-à-dire d’une qualité encore hors de portée en pratique aujourd’hui), il existe des taches pour lesquelles l’ordinateur quantique pourrait dépenser cent fois moins d’énergie que les meilleurs supercalculateurs actuels pour un temps de calcul comparable (ce gain énergétique d’un facteur 100 est indicatif : on pourrait imaginer sauver davantage d’énergie en réalisant des optimisations supplémentaires).

Ce résultat s’explique tout d’abord parce que, à temps de calcul comparable, un algorithme quantique nécessite un nombre d’opérations qui peut être de nombreux ordres de grandeur plus faibles (par exemple, plusieurs milliards de fois plus faibles) que l’algorithme « non quantique » implémenté sur le supercalculateur.

C’est parce qu’un ordinateur quantique calcule en suivant des processus fondamentalement différents de ceux d’un ordinateur quantique : le premier manipule des qubits et le second des bits. Ainsi, pour une même tache et pour un même temps de calcul le nombre d’opérations peut être drastiquement différent. De plus, une opération effectuée dans un ordinateur quantique impliquera des processus physiques radicalement différents de ceux requis par une opération implémentée sur un supercalculateur. Ces deux remarques prises ensemble impliquent que, même à temps de calcul égal, même si une opération logique quantique est plus coûteuse qu’une opération logique classique, le plus faible nombre d’opérations logiques quantique pourra faire que l’ordinateur quantique sera in fine bien plus économe énergétiquement.

Bien sûr, cet exemple provient de calculs théoriques, basés sur des hypothèses parfois très optimistes. Cependant, il semble indiquer qu’un des premiers avantages au calcul quantique pourrait bien être énergétique avant d’être computationnel – il pourrait être plus facile à atteindre que l’avantage computationnel, car il nécessiterait un ordinateur quantique de taille bien plus modeste… mais des qubits très stables, et un certain nombre d’innovations technologiques.


L’auteur souhaite remercier Alexia Auffèves, Olivier Ezratty et Robert Whitney pour leurs conseils d’écriture.

[ad_2]

Marco Fellous-Asiani, Post-doctorant en information quantique au Centre of New Technologies, University of Warsaw

Cet article est republié à partir de The Conversation sous licence Creative Commons.

Autres articles

La médecine chinoise, c’est la diététique des saveurs qui soignent

Irene

Rentrée 2012 : 10 conseils pour une rentrée zen et organisée !

Irene

Les pieds dans le plat, une cuisine du terroir

Irene

Top 5 des petits exercices antidouleur

Irene

De l’oxyde de graphène pour les nouvelles générations de batteries et supercondensateurs

administrateur

Comment reconnaître les symptômes du cancer du sein ?

Irene