Google affirme que les applications d’informatique quantique seront disponibles dans cinq ans

Il y a quelques semaines, au CES 2025, le PDG de Nvidia, Jensen Huang, a affirmé que les utilisations pratiques de l'informatique quantique seraient dans environ 20 ans. Aujourd'hui, Hartmut Neven, responsable de l'informatique quantique chez Google, a déclaré à Reuters que nous pourrions voir des applications concrètes de l'informatique quantique d'ici cinq ans. Alors, qui a raison ?

Selon Huang, les systèmes quantiques actuels ne disposent pas de suffisamment de « qubits ». En fait, leur déficit est d’environ cinq ou six ordres de grandeur. Mais pourquoi en avons-nous besoin autant ? Eh bien, les recherches actuelles suggèrent qu’un plus grand nombre de qubits entraîne moins d’erreurs, créant ainsi des ordinateurs quantiques plus précis. Parlons de pourquoi.

Un qubit est exactement ce à quoi cela ressemble : un bit quantique. Il diffère d’un bit binaire dans un ordinateur normal car il peut coder plus de données à la fois. Le problème avec les qubits est que ce sont des particules quantiques – et les particules quantiques ne font pas toujours ce que nous voulons. Lorsque nous effectuons des calculs sur un ordinateur quantique, un qubit sur mille « échoue » (c’est-à-dire arrête de faire ce que nous voulons qu’il fasse) et fausse les résultats.

À l’époque, nous avions un problème similaire avec les ordinateurs traditionnels. L' ordinateur ENIAC , par exemple, utilisait plus de 17 000 tubes à vide pour représenter les bits et tous les deux jours, les tubes tombaient en panne et produisaient des erreurs. Mais la solution ici était simple : il nous suffisait de laisser tomber les tubes à vide et de trouver quelque chose qui ne tombait pas en panne si souvent. Quelques décennies plus tard, nous obtenons de minuscules transistors en silicium avec un taux de défaillance d'un milliard.

Pour l’informatique quantique, cette solution ne fonctionnera pas. Les qubits sont des particules quantiques, et les particules quantiques sont ce qu'elles sont. Nous ne pouvons pas les construire à partir d’autre chose et nous ne pouvons pas les forcer à rester dans l’état que nous souhaitons – nous pouvons seulement trouver des moyens de les utiliser tels quels.

C’est là que la partie « pas assez de qubits » devient pertinente. L'année dernière, Google a utilisé sa puce quantique Willow pour découvrir que plus de qubits équivaut à moins d'erreurs. Essentiellement, Google a construit des méga-qubits à partir de plusieurs qubits physiques, qui partagent tous les mêmes données. Cela crée essentiellement un système de sécurité : chaque fois qu'un qubit physique tombe en panne, il y en a un autre pour garder les choses sur la bonne voie. Plus vous disposez de qubits physiques, plus vous pouvez résister à des échecs, ce qui vous laisse de meilleures chances d'obtenir un résultat précis.

Cependant, comme les qubits échouent souvent et que nous devons atteindre un taux de précision assez élevé pour commencer à utiliser des ordinateurs quantiques pour résoudre des problèmes du monde réel, nous aurons besoin de beaucoup de qubits pour faire le travail. Huang pense qu’il faudra jusqu’à 20 ans pour obtenir les chiffres dont nous avons besoin, tandis que Neven laisse entendre qu’il pourra y parvenir en cinq ans.

Google sait-il quelque chose que Nvidia ignore ? Est-ce simplement pour attiser les flammes d’une compétition amicale ? Pour l’instant, nous ne connaissons pas la réponse. Peut-être que Neven voulait simplement augmenter les stocks d'informatique quantique après que les commentaires de Huang aient provoqué une perte d'environ 8 milliards de dollars le mois dernier.

Chaque fois que cette avancée se produira, Google pense pouvoir utiliser l’informatique quantique pour construire de meilleures batteries pour les voitures électriques, développer de nouveaux médicaments et peut-être même créer de nouvelles alternatives énergétiques. Affirmer que de tels projets pourraient devenir possibles en seulement cinq ans est une bonne idée – mais je suppose que nous n'aurons pas à attendre trop longtemps pour savoir à quel point Neven a raison ou tort.