Informatique quantique : tout savoir sur la révolution en cours
Gordon Moore nous a promis en 1965 un doublement de la puissance de calcul tous les 2 ans. Sa loi, si bien vérifiée pendant des décennies, s’essouffle aujourd’hui. Pourquoi ? Notamment parce que la miniaturisation des transistors a atteint l’échelle nanométrique (10^{-9} mètre). Et en dessous de cette taille, des effets quantiques viennent perturber le fonctionnement des transistors. Il devient compliqué de miniaturiser encore plus.
Par ailleurs, certaines propriétés des matériaux, certaines réactions chimiques et biologiques s’expliquent mal si on ne tient pas compte des effets quantiques qui gouvernent les interactions de la matière à l’échelle atomique. Ces propriétés quantiques rendent la simulation numérique de ces matériaux et réactions tellement longue, qu’elle est en pratique impossible.
La mécanique quantique serait donc un adversaire de l’informatique ? C’est une question de point de vue. Dans les années 1980, Richard Feynman part du constat de la difficile simulation d’effets quantiques par un ordinateur classique et renverse le problème : pourquoi ne pas utiliser les propriétés quantiques de la matière pour réaliser des calculs ?
L’idée de l’ordinateur quantique est née. Une quarantaine d’années d’intenses recherches et développement plus tard, nous savons bien mieux caractériser les tâches pour lesquelles l’ordinateur quantique apporte un avantage. Et les premiers ordinateurs quantiques voient leur nombre de qubits doubler à intervalles de temps régulier. La loi de Moore a-t-elle trouvé son successeur ? C’est ce qu’on vous propose de découvrir dans ce livre blanc.
Bonne lecture !