Magazine Culture

La révolution des ordinateurs quantiques est-elle imminente ?

Par Memophis

La société D-Wave Systems vient de fournir à la Nasa et à Google un calculateur quantique de 512 qubits alors que les laboratoires de par le monde n'arrivent à travailler qu'avec une dizaine de qubits. Est-ce le début de la révolution des ordinateurs quantiques ?

Surprise de taille, le mois dernier, quand il a été révélé qu’un calculateur quantique utilisant 512 qubits était en cours d’installation dans un laboratoire hébergé par le fameux Ames Research Center de la Nasa. Acquis parGoogle pour équiper son Quantum Artificial Intelligence Lab, il sera utilisé en partenariat avec la Nasa et la USRA (Universities Space Research Association).

Le calculateur en question n’est autre que D-Wave Two, commercialisé depuis peu par la société canadienne D-Wave Systems. Comme son prédécesseur, ce calculateur est censé utiliser l’intrication quantique pour mettre en œuvre un algorithme quantique de recuit simulé avec des qubits. Il utiliserait des circuits supraconducteurs, non pas pour effectuer des calculs avec des portes logiques (comme c’est d’ordinaire le cas avec desordinateurs, y compris quantiques), mais afin d’utiliser une technique dite de calcul quantique adiabatique.


Une vidéo au sujet de l'ordinateur quantique et des recherches menées dans ce domaine en 2009 au CEA. © universcienceTV, YouTube

Des calculateurs quantiques pour l'apprentissage automatique

Les algorithmes de recuit simulé permettent de résoudre des problèmes d’optimisation, auxquels la Nasa est confrontée depuis longtemps. C’est pourquoi elle utilise des supercalculateurs comme ceux qui se sont succédé dans son célèbre département, connu sous le nom de Nasa Advanced Supercomputing (NAS) Facility.

En optant pour le D-Wave Two, la Nasa confirme qu’elle espère bien explorer les possibilités des calculateurs quantiques pour résoudre plus efficacement qu’avec des ordinateurs classiques divers problèmes, tels que le trafic aérien, la planification de missions ou d’autres relevant de larobotique et de la recherche d’exoplanètes. Pour sa part, Google compte sur le potentiel des calculateurs quantiques pour optimiser la recherche dans des bases de données, la reconnaissance vocale, mais surtout l'apprentissage automatique (machine learning en anglais).

RTEmagicP_d_wave_one_ordinateur_quantique_d_wave_systems_txdam37334_cca558.jpg.png


La société canadienne D-Wave Systems commercialise des calculateurs quantiques (photo ci-dessus). Deux générations de ces calculateurs utilisant unprocesseur avec des circuits quantiques supraconducteurs se sont succédé. © D-Wave Systems

Rappelons que l’apprentissage automatique est l’un des champs d'étude de l'intelligence artificielle concerné par le développement, l'analyse et la mise en œuvre de méthodes automatisables qui permettent à une machine d'évoluer grâce à un processus d'apprentissage. On ne peut s’empêcher de penser que la fondation du Quantum Artificial Intelligence Lab par Google n’est pas sans relation avec son recrutement récent de Ray Kurzweil, véritable gourou du transhumanisme.

L’obstacle de la décohérence quantique

Comme l’expliquait un précédent article de Futura-Sciences consacré à l’achat du D-Wave Two par Google, la communauté scientifique fait preuve d’un grand scepticisme vis-à-vis de ce calculateur. D’abord parce que la société D-Wave Systems n’a pas vraiment fourni de preuves qu’elle était parvenue à intriquer plus de 100 qubits pour faire des calculs quantiques. Mais surtout parce que cette performance semble impossible ou presque à beaucoup, à cause du fameux obstacle de la décohérence.

RTEmagicC_Haroche_college_de_france_txdam32573_b3ebc7.jpg


Serge Haroche est devenu mondialement célèbre en 1996, grâce à une publication portant sur les expériences effectuées avec ses collègues sur le mécanisme de la décohérence. Ce mécanisme avait été proposé il y a des années par le physicien Wojciech Zurek pour résoudre le célèbre paradoxe du chat de Schrödinger. Il s’agit d’un problème fondamental de l’interprétation de la mécanique quantique, auquel Zurek a beaucoup réfléchi avec le grand physicien John Wheeler. © Collège de France

Le problème de la décohérence peut se comparer à la construction d’un château de cartes : chaque carte représente un qubit. Pour bâtir un processeur, il faut fabriquer un château, le plus grand possible si l’on veut un gros processeur. La décohérence, c’est un coup de vent qui vient abattre l’édifice. Pour parer à ce problème, il faut isoler notre château de son environnement, et en particulier de tout souffle de vent. Imaginons donc que ce château de cartes soit un calculateur très puissant, mais qu’il s’écroulerait si souvent et si vite qu’aucun calcul pratique n’aurait le temps d’être réalisé.

Voilà où on en est : ça pourrait marcher, mais on n’a toujours pas réussi à colmater toutes les fuites qui font passer les courants d’air. Quoique si : on a montré qu’un château avec une ou deux cartes pouvait rester debout assez longtemps. Ce n’est pas encore Versailles, mais après tout, bien peu à l’époque du Roi Soleil pensaient qu’ils pourraient un jour admirer l’édifice achevé. Mais alors, pourquoi un processeur classique, dont le fonctionnement qui, au fond, repose aussi sur les lois de la mécanique quantique marche-t-il si bien ? Disons qu’on met de la colle entre chaque carte, ce qui aide quand souffle la tempête…

Une intelligence artificielle quantique problématique

Résumons la chose, calcul long et complexe veut dire : gros château de cartes bien isolé de son environnement pour avoir le temps de mener à bien le calcul. Isoler, c’est par exemple supprimer toutes les vibrations mécaniques, mais surtout refroidir le processeur à une température proche du zéro absolu. C'est la raison pour laquelle beaucoup ne croient pas que l’on puisse expliquer la conscience associée au cerveau humain, en avançant l’hypothèse que celui-ci serait en fait un ordinateur quantique, ou qui opérerait selon les idées de Roger Penrose. Selon l'opinion générale, il serait impossible de construire de gros châteaux quantiques bien isolés.

RTEmagicC_SAMINADAYAR__Institut_Neel_2012_.jpg


Laurent Saminadayar travaille sur des problèmes de cohérence quantique en physique mésoscopique à l'Institut Néel. © Institut Néel, 2012

Alors, Google et la Nasa sont-ils malgré tout sur la route qui mènera dans peu de temps à la création du Skynet de Terminator avec D-Wave Two, en dépit du mur de la décohérence ?

Pour tenter de le savoir Futura-Sciences a demandé à Laurent Saminadayar ce qu'il pensait des affirmations de D-Wave Systems concernant ses calculateurs quantiques. Professeur à l’université Joseph Fourier, membre de l’Institut universitaire de France, le chercheur est membre de l’équipe Cohérence quantique du célèbre Institut Néel de Grenoble. Retrouvez son interview, dans l’article qui fera suite à celui-ci.

Ordinateur quantique : l'avis de Laurent Saminadayar sur D-Wave Two Par Laurent Sacco

Google et la Nasa ont acheté un calculateur quantique à D-Wave Systems, mais beaucoup doutent de la réalisation de la société canadienne. Pour y voir plus clair, Futura-Sciences a demandé son avis à Laurent Saminadayar, spécialiste de la décohérence avec lesordinateurs quantiques.

Après l'annonce de l'ordinateur quantique D-Wave Two par Google et par la Nasa, la question est de savoir si nous sommes vraiment à la veille d'une révolution quantique en informatique. Nous nous sommes tournés vers Laurent Saminadayar. Professeur à l’université Joseph Fourier, membre de l’Institut universitaire de France, le chercheur est membre de l’équipecohérence quantique du célèbre Institut Néel de Grenoble.

RTEmagicC_SAMINADAYAR__Institut_Neel_2012_.jpg


Laurent Saminadayar travaille sur des problèmes de cohérence quantique en physique mésoscopique à l'Institut Néel. © Institut Néel, 2012

Futura-Sciences : Est-il vrai qu’un ordinateur quantique avec suffisamment de qubits peut battre n’importe quel ordinateur classique ?

Laurent Saminadayar : On ne peut pas vraiment se poser la question de la supériorité d’un ordinateur quantique sur un ordinateur classique en ces termes. Ce que l’on sait, c’est qu’il existe quelques algorithmes que l’on peutimplémenter sur un calculateur quantique pour résoudre certains types de problèmes, qui peuvent alors être effectués plus rapidement qu’avec des ordinateurs classiques.

Il existe beaucoup d’autres calculs avec lesquels les algorithmes dont on dispose ne permettent pas d’avoir un gain de temps appréciable en utilisant des bits quantiques à la place des bits classiques. Il n’y a donc aucune raison de croire qu’un ordinateur quantique, de même « taille » qu’un ordinateur classique, est automatiquement plus rapide pour toutes les opérations que l’on se propose de faire avec lui.

Par ailleurs, un ordinateur classique actuel, même intrinsèquement plus lent qu’un ordinateur quantique sur certains points, peut rattraper ce handicap par l’utilisation d’un plus gros processeur. À titre de comparaison, les meilleurs calculateurs (prétendument) quantiques tournent sur quelques centaines de bits, contre des millions pour le moindre ordinateur de bureau… Les tests de vitesse pure présentés lors de conférences de presse peuvent donc être difficiles à interpréter.

RTEmagicC_Peter_Shor_Peter_Shor_txdam37240_b317b1.jpg


Peter Shor, né le 14 août 1959, est un mathématicien américain du MIT bien connu pour ses travaux portant sur le calcul quantique. On lui doit un algorithme célèbre très efficace pour décomposer un entier en produit de nombres premiersavec un calculateur quantique. C'est l'algorithme de Shor. © Peter Shor

En revanche, il est vrai qu’un ordinateur quantique « opérationnel » (c’est-à-dire avec un nombre suffisant de bits correctement implémentés) pourrait se montrer très supérieur aux ordinateurs classiques pour certaines opérations : l’exemple le plus cité est la décomposition en produit de facteurs premiers par l’algorithme (quantique) établi par Peter Shor en 1994 (dit algorithme de Shor).

Dans cet exemple, le gain en temps de calcul entre un ordinateur classique et un ordinateur quantique pourrait être très important. Or, la cryptographieactuelle est basée sur cette décomposition en produit de facteurs premiers : si on utilise des nombres assez grands pour coder une information, un ordinateur classique ne peut donc pas casser le code en un temps raisonnable. Mais il n’en serait pas de même avec un ordinateur quantique. On voit tout l’intérêt de cette histoire…

En 2012, un calculateur quantique est tout juste parvenu à trouver la factorisation de 21 en 3 x 7, et ce au prix d’immenses efforts expérimentaux. On voit qu’il s’agit là d’une preuve de principe, puisqu’un enfant de cinq ans peut le faire aussi bien : comme le disait Groucho Marx, « amenez-moi un enfant de cinq ans » ! Mais on comprend aussi que lorsque D-Wave Systems prétend commercialiser des calculateurs quantiques réellement utilisables et performants, l’incrédulité soit souvent de mise.

D-Wave Two fonctionnerait avec des circuits quantiquessupraconducteurs du type de ceux que vous utilisez pour vos propres recherches, dans l’équipe cohérence quantique de l’Institut Néel. Quels sont les avantages et les inconvénients de ces circuits par rapport à d’autres approches, pour construire des calculateurs quantiques avec un grand nombre de qubits ?

Laurent Saminadayar : Plusieurs voies sont explorées dans de nombreux laboratoires dans le monde pour tenter de contourner l’obstacle de la décohérence et permettre la réalisation pratique de calculateurs quantiques. On a essentiellement deux approches permettant de fabriquer des qubits :

  • Les circuits « solides », comme des circuits supraconducteurs ou des boîtes quantiques ;
  • Des systèmes plus « exotiques », comme des ions piégés, les centres colorés du diamant, etc.

La première solution présente un avantage considérable : des circuits avec des jonctions Josephson comme ceux que nous étudions à l’Institut Néel, ou que D-Wave Systems affirme utiliser pour ses calculateurs quantiques, sont en théorie réalisables en grand nombre sur une puce, comme on le fait actuellement pour les processeurs. C’est la notion de circuit intégré. Ce n’est pas gagné, mais cela devrait pouvoir marcher.

Par contre, énorme désavantage, ces circuits sont très sensibles à la décohérence, et on peut raisonnablement penser qu’un processeur quantique à base de jonctions Josephson ne marchera qu’à de très basses températures. De fait, la puce de D-Wave Two est censée fonctionner à une température de 20 mK environ, ce qui est très proche du zéro absolu. Ceci dit, pour des applications très spécifiques, c’est-à-dire non grand public, ce problème peut être géré. Bien entendu, il ne faudrait donc pas s’imaginer avoir un jour des ordinateurs quantiques personnels : à ce jour, la cryogénie n’est pas vraiment portable...

RTEmagicC_coherence_quantique_groupe_institut_neel_txdam37242_7aa280.jpg


Les membres de l'équipe cohérence quantique de l'Institut Néel à Grenoble. La cohérence quantique est centrale pour le fonctionnement des composants, nanocircuits et dispositifs complets (réseaux, processeurs quantiques) qu’ils étudient. © Institut Néel

Lorsque l’on se tourne vers la deuxième solution, les dispositifs réalisés fonctionnent à température ambiante. Ceux avec des ions piégés résistent particulièrement bien aux perturbations de l’environnement, avec un temps de décohérence long. Par contre, faire fonctionner un grand nombre de qubits de ce type posera de nombreux autres problèmes : à l’heure actuelle, on ne voit pas comment on pourrait « intégrer » de tels systèmes sur une puce…

D-Wave Systems prétend que leur calculateur incorpore 512 qubit. Catherine McGeoch a récemment fait passer des tests au D-Wave Two, montrant qu’au moment de ce test, il prenait de vitesse des ordinateurs classiques confrontés au même problème. Cela veut-il dire que les chercheurs de D-Wave Systems ont réussi à résoudre le problème de la décohérence ?

Laurent Saminadayar : Il est très difficile de répondre à cette question. Personne n’a vraiment le droit d’aller soulever le capot de la machine de D-Wave Systems pour voir ce qu’il y a dedans, à part les membres de D-Wave Systems bien sûr. Il y a quand même eu des publications sur arxiv des chercheurs de la société canadienne, exposant les principes du calcul quantique adiabatique qu’ils mettraient en œuvre avec leur processeur quantique.

Tout dernièrement, ils ont même publié un article dans Nature. Ils y affirment avoir vérifié que les temps de cohérence obtenus étaient suffisamment longs pour permettre de réaliser des calculs complexes dans le cas spécifique d’une implémentation d’un algorithme quantique de recuit simulé sur l’un de leurs processeurs. Mais ce travail repose sur l’utilisation de 16 qubits seulement. Je suis vraiment dubitatif sur le fait qu’ils aient réussi à faire du calcul quantique avec l’intrication de plusieurs centaines de qubits.

Sur son blog, Scott Aaronson, qui a toujours été sceptique au sujet des affirmations de D-Wave Systems, signale que certaines publications récentes permettent de penser qu’au moins dans le cas spécifique du recuit quantique simulé effectué par les processeurs de D-Wave Systems, on a effectivement obtenu des calculs reposant sur l’intrication quantique d’un grand nombre de qubits.

Si cela s’avère être vrai, cela voudrait dire que D-Wave Systems a trouvé un moyen particulièrement efficace de lutter contre la décohérence des qubits. Mais sur ce sujet, silence… Pour le moment, en ce qui concerne les calculateurs quantiques basés sur des circuits supraconducteurs comme ceux de D-Wave Systems, le meilleur espoir que l’on ait de résoudre le problème de la décohérence, c’est de le contourner en utilisant des algorithmes de correction d’erreurs. Il ne semble pas que ce soit le cas avec les machines de la société canadienne.

RTEmagicC_Scott_Aaronson_MIT_txdam37332_b3ebc7.jpg


Scott Aaronson est un chercheur en informatique théorique reconnu, membre du corps professoral du département de génie électrique et d'informatique auMassachusetts Institute of Technology. Il a de sérieux doutes sur le potentiel des calculateurs quantiques de D-Wave Systems. © MIT

Scott Aaronson affirme que même si D-Wave Two est peut-être un vrai calculateur quantique, en pratique, cela représente peu d’intérêt, car il ne surpasse pas vraiment les ordinateurs classiques. A-t-il raison ?

Laurent Saminadayar : À mon avis, s’il y a effectivement un vrai progrès, il n’est flagrant que sur quelques problèmes particuliers. Comme le reconnaît Catherine McGeoch, elle n’a constaté un avantage en vitesse du D-Wave Two qu’en le comparant à ce qu’il était possible d’obtenir avec des algorithmes particuliers pour des problèmes bien spécifiques, connus à l’époque de ses tests et tournants sur des ordinateurs classiques. Ce n’est pas la même chose qu’une réelle comparaison entre les performances de calcul de deux machines.

De fait, Aaronson a signalé qu’un autre expert, Sergei Isakov, travaillant aussi sur les performances du D-Wave Two, a simplement amélioré en quelques mois un algorithme classique capable de faire du recuit simulé. Au final, il peut faire les mêmes calculs que D-Wave Two, mais 15 fois plus vite !

Contrairement à ce que l’on pourrait naïvement croire, il n’y a donc aucune preuve à l’heure actuelle que les millions de dollars dépensés pour mettre au point les calculateurs de D-Wave Systems aient servi à quelque chose. On peut même raisonnablement penser que dans bien des situations, des améliorations des algorithmes classiques suffisent pour faire des calculs aussi rapidement qu’avec des calculateurs quantiques…

Pour l’instant, D-Wave Systems a surtout joué sur les immenses potentialités des ordinateurs quantiques pour attirer les projecteurs sur son travail. Mais concrètement, pour l’immense majorité des tâches d’un ordinateur, l’affaire est de peu d’intérêt. La situation en est là. On peut la résumer de la façon suivante : il y a une chance infime que tout ceci, c'est-à-dire l’intrication avec succès d’un grand nombre de qubits pendant un temps de cohérence important avec le D-Wave Two, soit vrai. Mais si c’est vrai, alors c’est le jackpot et les milliards à la clé. En ce moment, Google paye pour voir… Cela me rappelle un peu les avions renifleurs de ma jeunesse. Mais c’est l’âge qui me rend pessimiste…

Enfin, n’oublions pas que, comme le disait Pierre Dac, « les prévisions sont très difficiles à faire… surtout lorsqu’elles concernent l’avenir » !

feynman_cern_06.jpg

Richard Feynman en séminaire au Cern en 1965, juste après avoir reçu son prix Nobel. Il est l'un des pères de la théorie des ordinateurs quantiques. © IOP, Cern


Retour à La Une de Logo Paperblog

A propos de l’auteur


Memophis 2303 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte