ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Le calcul et l'ordinateur quantiques

 


 

 

 

 

 

Le calcul et l'ordinateur quantiques

Publié le 18 mai 2021

Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

QU'EST-CE QU'UN BIT QUANTIQUE ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.


Le fonctionnement d'un ordinateur quantique
    
Atouts et difficultés de la recherche sur le calcul quantique
La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.


L'INTRICATION QUANTIQUE
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.


Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.

L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.
    

QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*         Le Data Mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*         L’optimisation de procédés de l’industrie 4.0 : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.<
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*         Enfin, le qubit photonique est, quant à lui, lui codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.


Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.
Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.
Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

 

  DOCUMENT     cea         LIEN

 
 
 
 

Le cycle du combustible nucléaire

 


 

 

 

 

 

Le cycle du combustible nucléaire


Publié le 11 mars 2016

Le cycle du combustible correspond aux différentes étapes d’extraction, fabrication, retraitement puis recyclage du combustible des centrales nucléaires. Son retraitement permet de récupérer l’ensemble des matières réutilisables et de réduire en parallèle le volume et la toxicité des déchets. Présentation des grandes étapes et des avantages de ce cycle.

Le combustible nucléaire est la matière dont on extrait l’énergie dans un réacteur grâce à la réaction de fission. Celle-ci consiste à « casser » le noyau des atomes en les bombardant de neutrons. Le combustible utilisé dans les réacteurs nucléaires est composé d’uranium, un élément naturel qui nécessite plusieurs étapes de préparation.

EXTRACTION ET CONCENTRATION
L’uranium est naturellement présent dans certaines roches, une roche peut contenir jusqu’à 200 kg d’uranium par tonne. Une fois extrait de la roche, l’uranium doit être dissous puis traité chimiquement pour obtenir une poudre jaune : le yellow cake.
Inconvénient : seule une petite partie (0,7 %) de l’uranium naturel peut produire une réaction de fission, c’est l’isotope 235 ou uranium 235. Le reste du minerai (99,3 %) est composé d’uranium 238, non fissile.


CONVERSION ET ENRICHISSEMENT
Pour qu'une réaction de fission en chaîne soit possible, la concentration en uranium 235 doit représenter entre 3 et 5 % du combustible. Le combustible doit donc être enrichi. Il faut d’abord convertir le yellow cake en gaz, puis le transférer vers des centrifugeuses qui utilisent la faible différence de masse entre les isotopes 235 et 238 pour les séparer en deux flux :
*         l’uranium « enrichi »  qui sert à la fabrication du combustible ;
*         l’uranium « appauvri » entreposé sous forme solide, en vue d’une utilisation future dans les réacteurs nucléaires de 4e génération.


FABRICATION DU COMBUSTIBLE
L’uranium gazeux enrichi est converti en poudre d’oxyde d’uranium (UOX), une forme particulièrement stable. Cette poudre est comprimée en pastilles de 7 grammes, empilées dans des tubes métalliques en alliage de zirconium, le tout forme des « crayons de combustible ». D’une hauteur de 4 mètres, ces crayons sont ensuite réunis en faisceaux pour constituer des « assemblages de combustible » qui sont ensuite acheminés vers les réacteurs nucléaires.

    Le cycle du combustible nucléaire
    
CHAPITRES    GLOSSAIRE CRÉDITS    Chapitre

* CHAPITRES            Introduction
*         1 : Extraction et concentration
*         2 : Conversion et enrichissement
*         3 : Fabrication du combustible
*         4 : Utilisation en réacteur
*         5 : Séparation des éléments
*         6 : Recyclage des matières
*         7 : Conditionnement des déchets ultimes
        Le cycle des systèmes du futur    VOIR DANS LA MÉDIATHÈQUE     

UTILISATION EN RÉACTEUR
L’assemblage de combustible est introduit dans le cœur du réacteur au sein duquel règne un intense flux de neutrons. « Cassés » par les neutrons, les atomes d’uranium 235 contenus dans le combustible libèrent alors une grande quantité d’énergie, sous forme de chaleur, évacuée du réacteur par un premier circuit d’eau sous pression, dont la température s’élève ; la chaleur est ensuite transférée par des échangeurs à un circuit secondaire où l’eau se transforme en vapeur, qui actionne des turbines et permet de produire de l’électricité.

SÉPARATION DES ÉLÉMENTS
Après 4 années d’utilisation, le combustible, dit « usé », est retiré du réacteur. Il se compose alors de 96 % de matières valorisables (réutilisables) et de seulement 4 % de déchets ultimes (éléments non réutilisables, issus de la fission de l’uranium et pour la plupart très radioactifs.).
Après une période d’entreposage en piscine de refroidissement (pour faire décroître la radioactivité et la chaleur émise), le combustible usé est traité dans l’Usine Areva de La Hague. Il est notamment dissous et mis en présence de molécules extractantes, conçues pour isoler des éléments spécifiques. Ce traitement permet de séparer les matières valorisables des déchets.


RECYCLAGE DES MATIÈRES VALORISABLES
L’uranium extrait du combustible usé peut ensuite être ré-enrichi. Une autre matière, appelée plutonium, qui s’est formée dans le réacteur, est recyclée sous la forme d’un nouveau combustible appelé MOX. Ce combustible est actuellement employé dans le tiers des réacteurs du parc nucléaire français, et produit environ 10% de notre électricité.

Dans les réacteurs actuels, le combustible ne peut être recyclé efficacement qu’une seule fois. Après cette seconde vie, Il est donc entreposé en piscine dans l’attente de nouveaux recyclages, réalisables dans une nouvelle génération de réacteurs (les réacteurs à neutrons rapides, dits de  « 4e génération »).

    
CONDITIONNEMENT DES DÉCHETS ULTIMES
Les déchets ultimes sont piégés dans une matrice de verre : c’est le procédé de vitrification. Mélangés à haute température avec une pâte vitreuse, ils sont ensuite coulés dans des conteneurs en inox et entreposés en puits, en attendant d’être stockés dans une installation dédiée.  


Conformément à la loi de juin 2006, le stockage en formation géologique profonde (projet Cigéo) est la solution de référence pour la gestion de ces déchets radioactifs à vie longue. Il vise à les placer dans un site géologique profond, particulièrement stable et apte à procurer  leur confinement à très long terme (jusqu’à ce que leur radioactivité soit ramenée à un niveau très faible). Le stockage est dit réversible car il prévoit la possibilité de reprendre les déchets si cela s'avérait opportun.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Le calcul et l'ordinateur quantiques

 


 

 

 

 

 

Le calcul et l'ordinateur quantiques

Publié le 18 mai 2021
       
Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

QU'EST-CE QU'UN BIT QUANTIQUE ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.



Etats quantiques d'un bit quantique. © CEA/F. Mathé


Le fonctionnement d'un ordinateur quantique
    

Atouts et difficultés de la recherche sur le calcul quantique
La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.


L'INTRICATION QUANTIQUE
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.


Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.

L'histoire de l'ordinateur quantique

Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.

    
QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*         Le Data Mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*         L’optimisation de procédés de l’industrie 4.0 : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.<
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*         Enfin, le qubit photonique est, quant à lui, lui codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.


Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques

Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.
Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.
Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

 

  DOCUMENT     cea         LIEN

 
 
 
 

LE BOSON DE HIGGS

 

 

 

 

 

 

 

Le mécanisme de Brout-Englert-Higgs

Dans les années 1970, les physiciens ont compris qu’il y avait des liens étroits entre deux des quatre forces fondamentales, la force faible et la force électromagnétique. Ces dernières peuvent être décrites dans le cadre d’une théorie unifiée, qui constitue la base du Modèle standard. On entend par « unification » le fait que l’électricité, le magnétisme, la lumière et certains types de radioactivité sont tous des manifestations d’une seule et même force appelée force électrofaible.

Les équations fondamentales de la théorie unifiée décrivent de façon correcte la force électrofaible et ses particules porteuses de force associées, à savoir le photon et les bosons W et Z. Mais il y a un hic. Dans ce modèle, toutes ces particules paraissent dépourvues de masse. Or si le photon a effectivement une masse nulle, nous savons que les particules W et Z ont une masse non nulle, équivalente à près de 100 fois la masse d'un proton. Heureusement, les théoriciens Robert Brout, François Englert et Peter Higgs ont proposé une théorie qui devait résoudre ce problème. Ce que nous appelons à présent mécanisme de Brout-Englert-Higgs donne une masse au W et au Z lorsqu'ils interagissent avec un champ invisible, dit « champ de Higgs »,  présent dans tout l’Univers.

Le 4 juillet 2012 au CERN, les collaborations ATLAS et CMS ont présenté dans leurs données du LHC la preuve de l’existence d’une particule compatible avec un boson de Higgs, la particule liée au mécanisme proposé dans les années 1960 pour expliquer pourquoi les particules W, Z et d’autres particules ont une masse.(Image: Maximilien Brice/Laurent Egli/CERN)

Juste après le Big Bang, le champ de Higgs était nul, mais, lorsque l’Univers a commencé à se refroidir, et que la température est tombée en dessous d’une certaine valeur critique, le champ s’est développé spontanément, si bien que toutes les particules interagissant avec ce champ ont acquis une masse. Plus une particule interagit avec ce champ, plus elle est massive. Les particules comme le photon, qui n’interagissent pas avec le champ, se retrouvent totalement dépourvues de masse. Comme tous les champs fondamentaux, le champ de Higgs est associé à une particule, le boson de Higgs. Le boson de Higgs est la manifestation visible du champ de Higgs, un peu comme la vague à la surface de la mer.

L’insaisissable particule

Événements candidats au boson de Higgs issus de collisions entre protons dans le LHC. L’événement du haut, obtenu par l’expérience CMS, montre une désintégration en deux photons (lignes jaunes en pointillés et lignes vertes). L’événement du bas, obtenu par l’expérience ATLAS, montre une désintégration en quatre muons (traces rouges). (Image: CMS/ATLAS/CERN)
Pendant de nombreuses années, le problème a été qu’aucune expérience n’avait observé le boson de Higgs, ce qui aurait permis de confirmer la théorie. Le 4 juillet 2012, les expériences ATLAS et CMS auprès du Grand collisionneur de hadrons (LHC) ont annoncé qu'elles avaient toutes deux observé une nouvelle particule dont la masse se situait dans la région des 126 GeV.
Le 8 octobre 2013, le prix Nobel de physique a été attribué conjointement à François Englert et Peter Higgs « pour la découverte théorique du mécanisme contribuant à notre compréhension de l’origine de la masse des particules subatomiques et récemment confirmée par la découverte, par les expériences ATLAS et CMS auprès du LHC du CERN, de la particule fondamentale prédite par cette théorie ».

Ce qu’il faut savoir sur le boson de Higgs
Comment les particules élémentaires acquièrent-elles leur masse ? Comment le champ de Brout-Englert-Higgs fonctionne-t-il ? Pourquoi est-il si particulier ? Comment son existence a-t-elle été démontrée au LHC ? Cette vidéo donne les explications de base sur le boson de Higgs et son champ associé en 4 minutes, avec des infographies.

 

   DOCUMENT  cern   LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google