Ce billet est le premier d’une série d’articles consacrés à l’informatique quantique et la transition prochaine vers l’ère post-quantique. Les articles suivants dresseront un état des lieux de l’univers quantique et apporteront des informations complémentaires sur les mesures à prendre aujourd’hui pour se préparer aux enjeux de demain. Ajoutez notre blog à vos favoris et suivez @digicert sur Twitter pour vous tenir informé.
Partie intégrante de la National Academy of Sciences, le Committee on Technical Assessment of the Feasibility and Implications of Quantum Computing vient de publier un rapport en anglais intitulé . Ce document de 200pages rassemble les avis de divers experts et fait un point sur l’évolution de l’informatique quantique et la menace qu’elle représente pour les techniques de cryptographie actuelles. Verdict: l’heure est venue d’agir.
estime qu’il faudrait plusieurs quadrillions d’années aux technologies informatiques actuelles pour casser une clé RSA de 2048bits(estimation reprise dans le rapport de la National Academy). Un ordinateur quantique suffisamment puissant pourrait, quant à lui, y parvenir en quelques mois seulement. Toutefois, il reste encore beaucoup d’obstacles techniques à surmonter avant de pouvoir créer une machine capable de constituer une réelle menace pour le RSA et l’ECC, les deux principaux algorithmes asymétriques qui sous-tendent actuellement la sécurité sur Internet. Selon le rapport, ce supercalculateur quantique devra être cinq fois plus puissant et afficher des taux d’erreurs deux fois inférieurs aux modèles actuels de première génération, sans compter qu’il devra certainement intégrer des technologies qui n’ont pas encore été inventées.
L’informatique quantique est encore balbutiante. De même, la marche vers la création d’ordinateurs quantiques ne s’est accélérée qu’au cours de ces dernières années. Le rapport en conclut par conséquent qu’il est encore trop tôt pour pouvoir prédire la sortie d’ordinateurs quantiques hautement scalables. Cela dépend non seulement du taux d’augmentation du nombre de qubits physiques des ordinateurs, mais également de la réduction du taux d’erreur.
Les taux d’erreur ont en effet un impact considérable sur le nombre de qubits physiques nécessaires à la création d’un qubit logique, sachant que le qubit physique est l’élément quantique individuel représentant un ‘0’ ou un ‘1’. Or, en raison des interactions inévitables avec leur environnement, les qubits physiques sont sujets aux erreurs, même à des températures proches du zéro absolu. Sans correction, il est impossible d’effectuer de grands calculs complexes à l’aide de qubits sans que les erreurs n’avortent rapidement les calculs.
De nombreux qubits physiques peuvent être combinés en un seul qubit logique, de la même manière que les codes de correction d’erreur classiques utilisent plusieurs bits classiques pour encoder un seul bit. Toutefois, la correction des erreurs quantiques demande énormément plus de ressources. De fait, les chercheurs n’ont pas encore été en mesure de créer le moindre qubit logique, bien que des progrès rapides soient accomplis en ce sens. Une fois les premiers qubits logiques créés, leur dénombrement deviendra la métrique de référence. Pour le comité, il n’existe donc « aucune raison fondamentale qui, en principe, empêcherait la création d’un supercalculateur quantique tolérant aux pannes».
S’il faudra du temps aux chercheurs pour surmonter tous ces obstacles, il en faudra aussi pour développer, normaliser et déployer des techniques de cryptographie post-quantique. En fait, les calendriers sont pratiquement les mêmes. Et pour éviter que les ordinateurs quantiques ne prennent de vitesse nos techniques de cryptographie actuelles, il est particulièrement vital d’entamer dès maintenant la transition dans les domaines d’application les plus sensibles.
Dans un avenir proche, la recherche et le développement sur des ordinateurs quantiques de taille moyenne, dans des environnements bruyants, génèreront certainement des progrès. Ensuite, l’utilité de ces ordinateurs et les problèmes qu’ils seront capables de résoudre détermineront sûrement les volumes d’investissements engagés dans l’informatique quantique. On observe à l’heure actuelle une très forte dynamique dans cette direction, avec des milliards de dollars investis dans la course à la production d’ordinateurs quantiques plus puissants et plus performants.
Les organismes de normalisation se préparent eux aussi à un avenir post-quantique, et se situe aux avant-postes dans ce domaine. Le est l’initiative la plus connue à ce jour. L’institut de normalisation américain collabore notamment avec des chercheurs du monde entier pour développer de nouvelles primitives cryptographiques suffisamment robustes pour résister aux attaques des ordinateurs quantiques. Cependant, il faudra plusieurs années avant que ces algorithmes atteignent le stade de la normalisation. Une technologie plus simple de signatures basées sur le hachage (RFC 8391) a été normalisée par l’Internet Engineering Task Force et le sera bientôt par le NIST. Bien qu’elle présente certains inconvénients par rapport à des algorithmes plus avancés, à savoir des signatures plus volumineuses et limitées en nombre, cette technologie présente l’avantage d’être bien maîtrisée, à l’épreuve des attaques quantiques et disponible dès à présent.
Le Quantum Risk Study Group de l’ANSI X9 a quant à lui rédigé un rapport portant spécifiquement sur la menace que représente l’informatique quantique pour la cryptographie dans le secteur des services financiers. Ce rapport a été publié en mars 2019. De son côté, l’Institut européen des normes de télécommunications (ETSI) a mis en place un groupe de travail “Quantum Safe Cryptography” qui produit régulièrement des rapports depuis neuf ans.
On observe donc un véritable emballement sur les deux faces de l’informatique quantique: d’un côté, on étudie les moyens de créer des superordinateurs quantiques tolérants aux pannes; de l’autre, on tente d’anticiper cette révolution en inventant aujourd’hui une cryptographie résistant aux attaques quantiques de demain. C’est pourquoi compte publier une série d’articles qui aideront les lecteurs à comprendre l’enjeu de cette transition et recommanderont les mesures à prendre pour protéger leurs systèmes de la menace imminente qui pèse sur les algorithmes de chiffrement asymétriques existants comme RSA et ECC.