ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Les diverses sources d'énergie

 

 

 

 

 

 

 

Qu’est-ce que l'énergie ?


Concept abstrait, l'énergie vient du mot grec "energia" qui signifie "force en action".


Publié le 1 juillet 2012
   
L'ÉNERGIE PLUS OU MOINS ÉLEVÉE
L’existence de l’énergie peut apparaître sous des masques divers et on peut ainsi sentir de quelle manière elle dépend de la situation. Une voiture possède une énergie d’autant plus élevée qu’elle roule plus vite ; cette énergie est inférieure à celle d’un camion allant à la même vitesse. Un ressort, lorsqu’il est comprimé, a une énergie plus grande que lorsqu’il est détendu. L’énergie d’une pile électrique avant sa mise en service est plus grande que lorsqu’elle est déchargée. L’énergie d’une casserole d’eau augmente lorsqu’on la chauffe.
L’énergie se présente ainsi sous des formes très diverses. Pour chacune d’entre elles, les comparaisons effectuées montrent que l’énergie d’un système physique dépend de l’état dans lequel il se trouve. Dans les exemples ci-dessus, cet état est caractérisé par la vitesse et la masse du véhicule, la déformation du ressort, la charge. Nous allons le voir, les divers types d’énergie peuvent, au moins partiellement, prendre bien d’autres formes. Ces transformations de l’énergie sont utilisées dans la vie courante, mais chacune d’entre elles génère des pertes.

*         Voir l'animation "Où sont les sources d'énergie ?"

Animation
Les diverses sources d'énergie




Les diverses sources d'énergie

L'ÉNERGIE SE TRANSFORME

L’énergie peut se transmettre d’un système à un autre : sous forme de chaleur, elle passe d’un radiateur à l’air d’une pièce. Elle peut aussi se transformer en changeant de nature. Dans un jouet mécanique, le ressort se détend en provoquant un mouvement. L’énergie associée au mouvement d’un vélo se transforme, lorsqu’on freine, en chaleur communiquée aux patins des freins et à la jante des roues. L’énergie emmagasinée dans une pile de lampe de poche se change, lorsqu’on ferme le circuit, en énergie électrique ; celle-ci se convertit à son tour dans l’ampoule en énergie lumineuse et calorifique. Dans une centrale thermoélectrique, l’énergie stockée dans le carburant (énergie chimique dans le charbon et le pétrole, ou énergie nucléaire dans l’uranium) est transformée (par combustion ou par réaction nucléaire) en chaleur ; puis une partie de cette chaleur est récupérée dans les turbines sous forme mécanique ; enfin, cette énergie mécanique est convertie en énergie électrique dans les alternateurs.
C’est à travers de telles transformations ou de tels transferts que l’énergie se manifeste à nous.

L'ÉNERGIE SE CONSERVE
La caractéristique la plus remarquable de l’énergie est qu’elle se conserve toujours. Lorsqu’elle est transférée d’un système à un autre, ou lorsqu’elle change de nature, il n’y a jamais ni création ni destruction d’énergie. Si un objet a perdu de l’énergie, la même quantité d’énergie a obligatoirement été gagnée par un autre objet en communication avec le premier. De même, lorsque l’énergie change de forme, le bilan est toujours exactement équilibré.

L’énergie se conserve : rien ne se perd, rien ne se crée. C’est le premier principe de la thermodynamique.

C’est donc par abus de langage que les journaux, les économistes ou les hommes politiques parlent de “production d’énergie”, ou de “pertes d’énergie”, puisque l’énergie ne peut être ni créée ni perdue. En réalité, dans une centrale thermoélectrique, on ne “produit” pas d’énergie, mais on transforme de l’énergie chimique ou nucléaire en énergie électrique et calorifique. Le bilan global de cette conversion est caractérisé par un rendement. Celui d’une centrale représente 33 %, ce qui signifie que pour envoyer sur le réseau 33 unités d’énergie électrique, il a fallu consommer 100 unités d’énergie nucléaire, tout en dégageant 67 unités de chaleur ; cette chaleur, évacuée dans l’environnement, par exemple par la vapeur d’eau sortant des tours de refroidissement, est donc, en général, perdue pour nous. Certaines centrales en récupèrent toutefois une partie pour chauffer des habitations ou des serres.
Nous verrons plus loin que, si l’énergie se conserve toujours, ses diverses formes ne sont pas équivalentes, car toutes les transformations concevables ne sont pas réalisables.

L'ÉNERGIE SE MESURE
C’est la propriété de conservation de l’énergie qui nous permet de mesurer, à l’aide d’une seule et même unité, les diverses formes de l’énergie. L’énergie, dite cinétique, associée au mouvement d’un objet de masse “m” et de vitesse “v” vaut E = 1/2 mv2 ; lorsque la masse est exprimée en kilogrammes et la vitesse en mètres par seconde, cette formule donne l’énergie en joules (J), unité légale dans le système international.
À l’époque où l’on n’avait pas encore reconnu que la chaleur était une forme de l’énergie, l’étude des échanges thermiques avait conduit à introduire une unité de chaleur, la calorie, définie comme la quantité de chaleur à fournir à 1 gramme d’eau pour élever sa température de 1 degré Celsius. L’expérience a montré que les transformations d’énergie mécanique en chaleur, ainsi que les transformations inverses, se faisaient toujours avec le même rapport, à savoir 1 calorie pour 4,18 joules. Il y a donc équivalence entre ces deux formes d’énergie (mécanique et chaleur). Ceci a permis d’abandonner la calorie et de mesurer la chaleur et toutes les autres formes d’énergie, en joules.

L'Américain consomme en moyenne environ deux fois plus d’électricité que le Français, lequel consomme quatorze fois plus d’électricité que l’Africain.

LA PUISSANCE
Les échanges d’énergie sont caractérisés, non seulement par la quantité d’énergie transférée ou transformée, mais aussi par la durée du processus. La notion de puissance est ainsi définie comme une quantité d’énergie échangée par unité de temps. L’unité de puissance, le watt, est donc le joule par seconde. Un radiateur électrique de 1 500 W consomme durant chaque seconde une énergie électrique de 1 500 J, et par suite, durant chaque heure (3 600 secondes), une énergie électrique de 3 600 x 1 500 J = 5 400 000 J, transformée en énergie calorifique.
Cet exemple montre que le joule est une unité d’énergie trop petite pour nos usages courants. On emploie souvent en pratique le kilowattheure (kWh), quantité d’énergie mise en jeu par un appareil d’une puissance de 1 000 W pendant un délai d’une heure. Ainsi, 1 kWh vaut 3 600 x 1 000 J = 3 600 000 J. Le radiateur électrique considéré ci-dessus consomme, en une heure de fonctionnement, 1,5 kWh et rayonne évidemment pendant la même durée une énergie calorifique de 1,5 kWh.
La consommation annuelle moyenne d’électricité par habitant en France est de plus de 7 000 kWh, le double aux États-Unis, soit 14 000 kWh, et en Afrique un peu plus de 500 kWh. Les trois quarts de l’électricité produite en France sont d’origine nucléaire, le dernier quart se partageant entre hydroélectrique et thermique (charbon, pétrole). Mais cette électricité représente elle-même moins de la moitié de notre consommation totale. Le reste fait appel à une utilisation directe de pétrole (essence, fioul), de gaz et de charbon ; le tiers de nos besoins concerne, en effet, le chauffage des locaux, et le quart concerne les transports.

 

   DOCUMENT     cea         LIEN

 
 
 
 

COMMENT LES RÉVOLUTIONS DE L'INFORMATION ET DES COMMUNICATIONS ONT-ELLES ÉTÉ POSSIBLES ?

 

 

 

 

 

 

 

  VIDEO       CANAL  U         LIEN 

COMMENT LES RÉVOLUTIONS DE L'INFORMATION ET DES COMMUNICATIONS ONT-ELLES ÉTÉ POSSIBLES ?

Les révolutions de l'information et des communications vont continuer à bouleverser tous les domaines de l'activité humaine. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons ou de photons et de la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage.

Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût, fiabilité, rendement de fabrication.
Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer.

Texte de la 225e conférence de l’Université de tous les savoirs donnée le 12 août 2000.
Comment les révolutions de l'information et des communications ont-elles été possibles ? Les semi-conducteurs
par Claude Weisbuch
Introduction
Les révolutions de l'information et des communications, issues des découvertes sur les semi-conducteurs, sont un des faits marquants du siècle passé et vont continuer à bouleverser dans ce nouveau siècle tous les domaines de l'activité humaine.
Le comité Nobel a rendu hommage en cette année 2000 aux pionniers qui ont rendu possible ces révolutions : après le prix Nobel de Bardeen, Brattain et Shockley en 1956 pour l'invention du transistor, c'est Kilby d'une part, Alferov et Kroemer d'autre part, qui sont récompensés respectivement pour l'invention du circuit intégré, à la base de l'explosion de la micro électronique, et pour celle des hétérostructures semi-conductrices, qui permettent, entre autres, d'obtenir des lasers pour télécommunications. Ce prix Nobel est remarquable à plus d'un titre, en particulier parce qu'il récompense des inventions, qui ont été signifiées par des brevets (pour Kilby et Alferov), et non des découvertes scientifiques au sens habituel du terme, annoncées dans des revues scientifiques évaluées par les pairs.
Les semi-conducteurs, et leur mise en œuvre dans les transistors, les lasers et les circuits intégrés, tiennent ainsi une place particulière dans les grandes découvertes du XXe siècle, à cause de leur impact jusque dans nos modes de vie. Il y a bien d'autres raisons qui ajoutent à la place essentielle du domaine dans l'histoire des sciences et des techniques :
C'est un domaine technologique complètement né de la compréhension fondamentale de la matière solide. Aujourd'hui, les milliards de composants fabriqués chaque seconde opèrent exactement comme prévu par les modèles physiques microscopiques utilisés dans les programmes de conception de circuits.
Inversement, depuis quelques années, la technologie des circuits intégrés permet d'explorer de nouveaux champs fondamentaux. C'est ainsi que l'effet Hall quantique dans les hétérostructures a déjà donné lieu à deux prix Nobel. Il y en aura certainement encore d'autres basés sur les semi-conducteurs et leurs structures.
Le domaine est né d'une recherche fondamentale à long terme, effectuée dans un laboratoire industriel. Cette expérience a longtemps été à la base du paradigme, accepté jusqu'au début des années 80, selon lequel l'industrie devait faire elle-même de la recherche fondamentale.
Il y a un étonnement renouvelé devant le progrès exponentiel ininterrompu (fig.1), à la fois en performance et en coût.
Le domaine a ouvert de nouveaux champs industriels menant à un renouvellement des entreprises industrielles les plus importantes, et a donné naissance à ce qu'on appelle la nouvelle économie. De plus, son impact se retrouve dans tous les secteurs d'activité, industriels ou de service, à cause de son caractère de technologie diffusante, transverse.
Le domaine a été à l'origine de nouvelles formes d'organisations et dynamiques industrielles. La Silicon Valley tire son nom des entreprises de microélectronique en Silicium, basées autour de San Francisco et de l'Université de Stanford. Ces entreprises ont défini un nouveau paradigme industriel, basé sur l'essaimage et la mobilité des personnes (la première entreprise, celle de Shockley est née des laboratoires Bell; des transfuges de Shockley ont créé Fairchild, puis Intel). On peut tracer des liens d'hérédité entre des centaines d'entreprises de la Silicon Valley. Une autre caractéristique est la rapidité de développement des nouveaux produits et des entités industrielles de la nouvelle économie.
Ces révolutions de l'information et des communications sont nées du codage de l'information sous forme de paquets d'électrons (les « grains » d'électricité) ou de photons (les « grains » de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information, le « bit »), et la capacité de manipuler et transmettre ces paquets d’électrons ou de photons de manière de plus en plus efficace et économique.
On nous annonce une société passant de biens matériels à l'immatériel, la « société de la connaissance ». Cela peut être discuté, mais du point de vue physique il est vrai que les quantités portant l'information sont très petites : La plus grande bibliothèque du monde, celle du Congrès à Washington, a vingt millions de volumes. Si on considère qu'un livre est codable sur 50 millions de bits, il faut 1015 bits pour coder tous les livres1. Si on code chaque bit par la présence ou l'absence de la charge électrique de 10 000 électrons, la bibliothèque est portée par 1019 électrons, soit les électrons qui sont transportés dans un courant de 1 ampère en une seconde ! À notre échelle de tous les jours, le codage de l'information nécessite effectivement une quantité infime de matière. C’est pour cela que la manipulation en est facile et efficace. La capacité de communiquer l’information, grâce aux télécommunications, n’est pas en reste : une seule fibre optique, alimentée par des lasers à semi-conducteurs, transmet aujourd'hui 3 1012 bits (3 terabits) par seconde. Il faut donc 300 s pour transmettre toute la librairie du Congrès ! Pour prendre la réelle mesure de la révolution de l'information, il suffit de considérer la quantité d'informations produites chaque année2 sous forme de livres et journaux, images fixes ou animées (films), données sur CD-Rom ou disques magnétiques (c'est ce dernier type d'archivage qui est le plus important) : 2 attobytes (1 byte = 8 bits)( dont 0,003 % seulement sous forme imprimée), soit 350 gigabytes par habitant de la terre !
Tout cela a été rendu possible par les progrès des composants et systèmes semi- conducteurs, liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la « puce », et de miniaturisation. Une des immenses surprises aura été le caractère « vertueux » de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en 35 ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, en réduction de coût (la puce de plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les années 60), en fiabilité, en rendement de fabrication.
Ce type de progrès exponentiel ne peut pas continuer indéfiniment. Le problème des limites physiques se pose de plusieurs manières : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a-t-il des matériaux autres que les semi-conducteurs qui permettraient d'aller au-delà des limites physiques, ou bien encore existe-t-il d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant ainsi à "refonder" un domaine d'activité immense qu'il a contribué à créer.
Aux origines des révolutions de l'information et des communications : la physique quantique des solides
1 La notation scientifique et les unités de longueur
Pour représenter des grandeurs extrêmes, on utilise la notation dite scientifique, comprenant le chiffre 10 et un exposant: ce chiffre en exposant signifie le nombre de zéros à mettre dans une notation normale après le chiffre 1 : 103 = 1 000 ; 106 = 1 000 000. Si l'exposant est négatif, il faut prendre l'inverse du nombre avec le même exposant positif : 10-3 = 1/103 = 1/1 000.
Les préfixes : Méga dénote la puissance +6, Giga la puissance +9, ainsi 20 Gigabit valent 20 milliards de bits ; le préfixe Téra dénote la puissance +12, soit 1 000 Giga-- ; Petta la puissance +15, atto la puissance
+18.
-Unités de longueur : le micromètre (ou micron) = un millionième de mètre. On le note 10-6 m, symbole
μm (un cheveu a un diamètre de 100 μm). L’angström, symbole Å, vaut un dix millionième de millimètre, soit 10-10 m Il représente l'ordre de grandeur de la distance entre atomes dans les cristaux solides, typiquement 3 Å.
2 voir http://www.sims.berkeley.edu/how-much-info/index.html
À la base de la capacité à stocker, manipuler et transmettre l'information se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés « classiques » médiocres, que ce soit mécaniques, thermiques, optiques ou électriques. Comment en est-on arrivé à définir une catégorie de matériaux, les semi- conducteurs, qui ne sont ni « bons » conducteurs (métalliques), ni « bons » isolants ! Ces matériaux ont longtemps mystifié ceux qui s'intéressaient à eux : contrairement aux métaux, leur conductivité s'améliore avec la température; de plus, et là aussi contrairement aux métaux, leur médiocre conductivité à l'état pur s'améliore grandement si on leur ajoute des impuretés chimiques choisies (les « dopants »).
C'est justement les propriétés conductrices moyennes des semi-conducteurs, basées sur des quantités faibles de charges mobiles, qui les rendent « commandables ». Leur capacité à changer de conductivité électrique, devenue « contrôlée » par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors les effets d'amplification et d'interrupteur du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications.
La compréhension de ces phénomènes a constitué le grand triomphe de l'application de la mécanique quantique au mouvement des électrons dans les solides cristallins : la résolution des équations de la mécanique quantique pour des électrons se propageant dans l'arrangement périodique des ions d'un cristal a montré que leurs énergies possibles se répartissaient en bandes d'énergie ayant une certaine mémoire des niveaux d'énergie des atomes constituant le cristal. Chaque bande dans un cristal comportant N atomes aura vN places pour des électrons (« états quantiques » dans le langage de la mécanique quantique) dans chaque bande, si v est le nombre de niveaux permis dans le niveau de l'atome de départ (fig. 2a). Suivant les positions de ces bandes d'énergie et le nombre d'électrons des atomes, en particulier ceux des électrons les moins liés au noyau (les électrons de « valence », assurant donc les propriétés chimiques) on va remplir entièrement ou non les bandes d'énergie permises par les électrons disponibles, à partir de l'énergie la plus basse (fig. 2b). Si les derniers électrons sont dans une bande où il reste dans le voisinage des places vides à plus haute énergie, un champ électrique appliqué pourra donner une impulsion et une énergie cinétique aux électrons. Il y aura conductivité électrique métallique. Si les électrons de valence du matériau remplissent complètement les bandes, ils ne peuvent pas prendre de l'énergie sous l'action d'un champ électrique appliqué. On a donc affaire à un isolant. On conçoit bien que pour des espèces chimiques différentes, ayant de très petites différences entre les niveaux d'énergie des atomes isolés de départ, on aura au final des matériaux solides isolants ou conducteurs, donc avec des propriétés électriques très différentes.
Les semi-conducteurs, dans cette description, sont en fait des isolants à faible « bande interdite » entre les derniers niveaux occupés de la bande de valence et les niveaux immédiatement supérieurs de la prochaine bande d'énergie permise, appelée bande de conduction. Du coup, certains électrons peuvent être excités de la bande de valence, dans laquelle ils laisseront un « trou », vers la bande de conduction (fig. 2b, 3d). Plus la température est élevée et plus il y a de tels électrons et trous, qui donc assurent une conductivité plus grande. Ainsi s'explique le mystère de la conductivité des semi-conducteurs qui augmente avec la température (celle des métaux baisse à cause de l'agitation thermique des ions du cristal qui empêche la propagation des électrons, phénomène aussi présent dans les semi-conducteurs mais dont l'effet est masqué par la bien plus importante augmentation du nombre de charges conductrices). Le trou laissé dans la bande de valence a une conductivité qui semble être due à une charge positive, car le déplacement apparent dans un champ
électrique a lieu en sens inverse de celui des électrons (figure 3c). Cette explication de la conductivité apparente de certains matériaux par le « trou » de charge apparemment
« positive » dans une bande d'énergie presque pleine résout un des grands mystères des solides, car on savait depuis J. J. Thomson que les charges légères et mobiles étaient des électrons négatifs !
La propriété supplémentaire qu'ont les semi-conducteurs est leur conductivité
« commandable» par incorporation d'impuretés choisies : comme le Silicium, matériau de base pour la microélectronique, a quatre électrons de valence, le fait d'incorporer des atomes ayant trois ou cinq électrons de valence (le bore ou le phosphore respectivement) va entraîner un manque ou un excès d'électrons par rapport au nombre qui remplit exactement la bande de valence pour du Silicium pur. Ceci se traduit par des niveaux d'énergie « permis » dans la bande « interdite », près de la bande de valence ou de conduction, qui vont relâcher des trous ou des électrons, en nombre exactement égal au nombre d'atomes dopants que l'on aura introduits. (fig. 3e, 3f) On imagine sans peine à quelles erreurs cet effet de dopage a pu donner lieu : pour des métaux, la conductivité augmente avec la pureté, car il y a moins d'ions étrangers pour s'opposer au passage du courant. Dans des semi-conducteurs, au contraire, la conductivité augmente avec les impuretés dopantes ! Tel chercheur croyait avoir un matériau pur parce qu'il conduisait bien alors qu'il était fortement dopé. Tel autre purifiait son matériau, s'attendant à le voir mieux conduire, et il devenait quasiment isolant !
Avec cette compréhension des semi-conducteurs dès 1930, fondée sur la mécanique quantique des solides cristallins, on avait les bases pour faire des composants électroniques. Il faudra cependant attendre 1947 pour que le transistor voie le jour.
Du semi-conducteur au transistor et au circuit intégré
Le transistor
On a eu l'idée d'interrupteur (relais électrique) solide commandé par une tension électrique appliquée dès le début du siècle, avec des brevets décrivant correctement le fonctionnement du transistor à effet de champ dès 1923 (fig. 4). Cet effet « transistor », c’est- à-dire le contrôle d'un courant à travers un morceau de matériau semi-conducteur par une tension appliquée sur une grille de commande, a cependant nécessité de longs travaux dans les années 30 et 40. Il a fallu maîtriser la purification des semi-conducteurs, et l'incorporation contrôlée de dopants. Plus fondamentalement, il a fallu comprendre les barrières d'énergie existant dans les semi-conducteurs dopés de manière inhomogène, ou bien encore celles qui sont situées aux interfaces métal/semi-conducteur, ainsi que les effets de surface, qui tendaient à masquer tous les autres phénomènes.
C'est par une démarche délibérée de recherche d'un tel relais solide que les laboratoires Bell, d'American Telegraph and Telephone (ATT), monopole américain des télécommunications, se sont lancés dans l'aventure du transistor dès 1936. Leur analyse montrait que l'accroissement du trafic téléphonique serait tel que les réseaux seraient constamment en panne vu leur taille et la mauvaise fiabilité des commutateurs, qu'ils soient à relais électromécaniques ou à tubes à vide. Il fallait des interrupteurs hautement fiables basés sur un nouveau concept physique. Le transistor a donc été inventé dans une entreprise de télécommunications grâce à un programme de recherche à long terme et à haut risque, pour satisfaire ses besoins, en lançant une recherche fondamentale de très grande ampleur puisqu'il a fallu comprendre complètement nombre de nouveaux phénomènes en physique et en chimie des matériaux semi-conducteurs. Il ne pouvait être inventé dans une entreprise d'ordinateurs tout simplement parce qu'ils n'existaient pas à l'époque.
Le transistor et l'ordinateur
Le domaine où les progrès induits par les transistors, puis les circuits intégrés, ont été le plus spectaculaires est sans doute celui des ordinateurs. Ce n'était pas clairement un impact attendu, les grands patrons de l'industrie se trompant parfois lourdement : Thomas Watson, PDG d'IBM, déclarait en 1943 que le marché mondial des ordinateurs serait de cinq unités. Ken Olsen, PDG de Digital, l'entreprise phare des Miniordinateurs, déclarait en 1977 qu'il ne voyait pas pourquoi les gens auraient des ordinateurs chez eux.
Ce sont les progrès de la microélectronique qui ont généralisé les ordinateurs dans un premier temps, puis rendu accessibles l'ordinateur personnel, et les services associés comme le courrier électronique ou le web. Ces progrès ont été rendus possibles par la physique des composants. C'est qu'elle est particulièrement bien adaptée à la réalisation des fonctionnalités indispensables dans un ordinateur : rappelons que pour faire un ordinateur, il faut à la fois de la mémoire (pour stocker les programmes, les données d'entrée et les résultats de calcul) et une capacité de logique combinatoire (pour effectuer des calculs)(fig. 5). Le transistor permet de construire à la fois la fonction mémoire et la capacité logique nécessaires, car il peut fonctionner comme un bon interrupteur. Comme on le démontre à partir de l'algèbre de Boole, c’est-à-dire la combinatoire d'opérateurs logiques comme la porte « ET » de la figure 5, des interrupteurs associés à des résistances permettent de réaliser toute opération logique. Associé à un condensateur, un transistor fonctionnant en interrupteur permet aussi de réaliser un élément mémoire : c'est le principe des mémoires « dynamiques » DRAM (fig. 5).
Pourquoi dit-on que la physique des composants à semi-conducteurs est bien adaptée ? C'est que l'on peut réaliser cette fonctionnalité d' interrupteur de manière quasi-parfaite, c’est- à-dire en consommant peu d'énergie et en isolant le courant contrôlé par l'interrupteur de la commande de cet interrupteur : on dit que la « sortie » du composant ne réagit pas sur
l' « entrée ». Pour cela, le matériau isolant entre grille de commande et canal conducteur (fig. 4) est déterminant pour la qualité du transistor. Il a fallu attendre 1960 pour enfin avoir un isolant de la qualité voulue, alors que les essais de fabrication des transistors à « effet de champ » avaient débuté dès 1930. Une autre propriété très importante des transistors est que chacun d'eux peut commander plusieurs autres transistors, avec une tension qui est référencée à la tension d'alimentation (cf. la tension de « sortie » de la porte « ET » de la figure 5), et non pas à la tension de commande (« 0 » ou « 1 »). On peut donc mettre en cascade des milliers de composants sans dégradation du signal de commande.
Le circuit intégré
Le circuit intégré n’est pas un concept aussi fondamental que le transistor : son invention résulte de l'association d’éléments déjà connus, sinon maîtrisés, en réponse à un besoin pratique. Kilby, prix Nobel 2000, l'a décrit dans un brevet et des conférences, pas dans une revue scientifique.
Dès l'invention du transistor, celui-ci remplace le tube à vide dans les appareillages électroniques, et les ingénieurs utilisent ses propriétés remarquables : miniaturisation, grâce à des techniques de micro fabrication, conception de très grands systèmes grâce à une meilleure fiabilité des composants, à leur petite taille et surtout à leur faible consommation énergétique. Cette course à la miniaturisation est suscitée par des besoins, comme ceux des grands centraux téléphoniques, des très grands ordinateurs, ou encore le besoin des militaires de disposer d'électronique « portable » pour les communications, les missiles ou les satellites.
Pour toutes ces applications, on tente d'assembler, de façon compacte, le plus grand nombre de composants possible, par des techniques dites « hybrides » : chaque composant (résistance, diode, condensateur, transistor, inductance) est fabriqué dans un matériau différent, et ils sont reliés, mécaniquement et électriquement, par d'autres matériaux encore. Cette approche hybride rencontre toutefois une limitation importante. Tandis que la fiabilité
des transistors a beaucoup augmenté, celle des soudures des fils qui assurent la liaison électrique entre ceux-ci plafonnent. Devra-t-on se contenter de circuits comportant au mieux quelques centaines de composants, qui ne nécessiteraient que quelques milliers de soudures ?
Quelques visionnaires proposent alors de fabriquer tous les composants électroniques avec un seul matériau, le semi-conducteur, qui servirait aussi de support, d'où le terme de
« monolithique » (« une seule pierre »). J. Kilby, en mai 1958, conçoit une méthode pour réaliser les différents éléments de circuits (résistances, condensateurs et transistors) par attaque chimique localisée du silicium. La composition chimique verticale du Silicium (on a incorporé lors de la croissance du cristal de silicium des impuretés chimiques qui dopent la conductivité), la profondeur de l'attaque et la géométrie des motifs attaqués déterminent les différents composants. Ce travail est suivi de près par celui de Robert Noyce, de la société Fairchild Electronics (il fondera plus tard Intel). Noyce décrit aussi un circuit intégré, mais, en plus, il propose la bonne méthode de fabrication : le procédé « planar ». Il reprend une idée développée chez Bell : l’utilisation de la silice SiO2 comme masque de fabrication à cause de ses excellentes propriétés d'adhésion et d'isolation chimique : elle forme une espèce de cocon protégeant la partie de la puce qui n'est pas traitée dans l'opération (cf. infra figure 6).
Bien qu'il réponde à des besoins très concrets, le circuit intégré ne s’est pas imposé facilement. Au contraire ! La plupart des entreprises fabriquant des tubes à vide s’étaient mises à fabriquer des transistors, mais peu ont fait le saut vers les circuits intégrés : le bouleversement conceptuel était bien plus grand. Les transistors remplaçaient en effet les tubes « composant pour composant ». C’était simple et évident à faire. Au contraire, l’intégration monolithique se heurtait à plusieurs objections très pertinentes. D'abord, elle utilisait le très coûteux matériau semi-conducteur pour des fonctions peu nobles, de support par exemple. Ensuite, elle obligeait à des compromis sur les géométries et les compositions des composants : chacun était moins performant que s'il était fabriqué séparément. En outre, le rendement allait être bas, puisqu’on devait avoir d’un seul coup un ensemble de bons composants. Enfin, alors que l’on avait besoin de multiples fonctionnalités dans les assemblages de composants, que l’on pouvait concevoir et réaliser à la demande par l'approche hybride, il semblait impossible de satisfaire la variété de besoins par des circuits intégrés, à la fonctionnalité figée.
On sait ce qu’il en advint : l’intégration permit au contraire de franchir ces limitations, et d’aller bien au-delà. On utilise aujourd’hui des plaquettes de silicium de 30 centimètres de diamètre, ensuite découpées en une ou quelques centaines de « puces », sur lesquelles on fabrique en une trentaine d'opérations de base des centaines de milliards de composants ! On utilise en fait fort efficacement la surface, relativement coûteuse du silicium, grâce à l’extraordinaire miniaturisation, impossible à atteindre pour des composants discrets (ne serait-ce que parce que l'on ne pourrait pas manipuler des composants aussi petits que ceux qui sont intégrés). On fabrique de manière très contrôlée (propreté, conditions chimiques de surface, préparation des matériaux, ...) et à l’identique des milliards de contacts électriques, qui du coup sont tous bons ! Ces performances ont nécessité de nombreuses recherches et un long apprentissage pour maîtriser parfaitement les procédés industriels. Mais il est aujourd'hui patent que l'intégration a multiplié les rendements et la fiabilité par plusieurs milliards. Incidemment, le coût a baissé dans les mêmes proportions : un circuit intégré, comportant bientôt un milliard de transistors, coûte aujourd'hui une dizaine de dollars, autant qu'un transistor dans les années 1950.
Quant au problème de la fonctionnalité limitée, il a été résolu en deux temps : au début des circuits intégrés, on ne réalisait que des fonctions universelles simples, les portes logiques (comme celle de la fig. 5), dont l'assemblage permettait de constituer de grands ensembles fonctionnels, tels des commutateurs téléphoniques ou des ordinateurs. Compacts, ces circuits étaient aussi très fiables. Comprenant quelques dizaines de composants élémentaires, ils contribuaient déjà fortement à l’augmentation de rendement de fabrication des ensembles, en
diminuant le nombre de soudures à effectuer. La grande révolution est cependant arrivée par le microprocesseur : au lieu de produire une fonctionnalité par assemblage d’éléments physiques, on la programme. Le microprocesseur est multifonctions, multi-applications. Bien entendu, un tel système est loin d’être optimum dans l’utilisation des composants électroniques, mais comme le coût de ceux-ci s'est effondré, ce n'est plus très important.
La course à la miniaturisation et ses limites
Les principes de la fabrication
Le procédé de fabrication par lithographie s'apparente à l'imprimerie (fig. 6) : on commence par dessiner les différents éléments de même nature que l'on pourrait fabriquer lors d'une même opération. Puis on projette optiquement cette image sur un matériau photosensible déposé sur la puce (le morceau de silicium portant le circuit intégré). Ce matériau est ensuite attaqué chimiquement de manière sélective pour transformer l'image originelle en matériau structuré. Il sert à définir les régions de la surface de la puce où l'on va opérer l'opération de fabrication voulue, par exemple un dépôt localisé de métal là où le matériau photosensible a été enlevé. On a donc transformé une image de la fonction
« connectique » entre composants d’une puce en un ensemble de conducteurs sur la puce. On réalise de la même manière toutes les incorporations de matériaux structurés nécessaires à la puce telles que dépôt d'isolants, incorporation localisée d'impuretés chimiques dans le semi- conducteur, etc.
La fabrication des condensateurs, des transistors et de la connectique des circuits intégrés devient donc une succession d'opérations répétitives : fabrication d'une couche sur la plaquette de Silicium, transfert d'une image et révélation de cette image par un procédé chimique. A chacune de ces images correspond le transfert spatial des éléments constituant les circuits intégrés : isolants, dopages en espèces chimiques, métaux de contact et d’interconnexion, etc. Aujourd'hui, la fabrication d'un composant semi-conducteur comporte 25 étapes principales (correspondant à autant de masques, images des motifs à reporter sur le composant), se décomposant en 600 étapes élémentaires qu'il faut réaliser parfaitement.
Les lois de la miniaturisation
Il ne faudrait pas croire que les progrès de la miniaturisation ont été sans heurts : l'histoire des semi-conducteurs est marquée par une succession de crises. La première crise remonte à 1962, déjà ! Elle était liée aux limites technologiques qui freinaient le développement de la lithographie. Dans les années 70, on s’inquiétait des erreurs de mémorisation dues aux rayons cosmiques absorbés dans les mémoires. Autre sujet de crise en 1982 : l'interconnexion entre éléments commence à son tour à poser problème car on peine à faire des connexions de taille micronique sans défauts.
Il y a aujourd'hui moins de crises, pour deux raisons : d'une part, on connaît les lois d'échelle, qui décrivent le comportement des composants quand on diminue toutes leurs dimensions d'un facteur. D'autre part, aujourd'hui, les industriels travaillent dans le consensus, dans un processus « coopétitif », en coopérant tout en restant des compétiteurs. Ce nouveau comportement, très typique de la nouvelle économie, vient de ce qu'ils se sont rendu compte qu'ils étaient tous gagnants s'ils définissaient ensemble comment l'industrie doit progresser en établissant des objectifs communs de progression, le « roadmap technologique ». Cela permet, en mettant toutes les ressources sur des objectifs techniques communs, de progresser plus rapidement et d'ouvrir de nouveaux marchés.
Les lois d'échelle
Les lois d'échelle sont appliquées lorsque toutes les dimensions ont été réduites d'un facteur α.(figure 7). Les composants sont alors plus rapides puisque les distances que parcourent les électrons sont plus petites. Leur densité surfacique augmente grâce à leur taille diminuée, mais comme chaque composant consomme moins, la puissance dissipée par unité de surface reste constante, ce qui est essentiel. Du coup, au global, la puissance logique a été multipliée par α 3, soit un facteur 1 000 pour une diminution de taille de 10.
Même si la physique du composant, via les lois d'échelle, indique que la miniaturisation est possible, la course vers la réalisation de circuits de plus en plus denses n'en est pas moins difficile : la lithographie des motifs les plus petits à reproduire sur une puce représente une frontière technologique qui se déplace. Aujourd'hui, les lignes de production passent au standard 0,18 micron3. On est très proche des limites physiques de ce que l'optique peut faire, même si les optiques les plus performantes à l'heure actuelle sont de très loin celles qui sont utilisées en microélectronique. Un des verrous technologiques est l’épaisseur de l’isolant en silice située sous la grille : comme l’indiquent les lois d’échelle, il faut diminuer son épaisseur pour poursuivre la miniaturisation (fig.7). Cette épaisseur est de 40 Å aujourd’hui (13 couches atomiques). Pour des épaisseurs plus faibles, on observe à la fois des fluctuations d’épaisseur inacceptables (au moins une couche atomique) et une fonction isolante insuffisante, car des électrons peuvent franchir la barrière de potentiel créée par la silice par effet tunnel, un effet purement quantique. Du coup, un champ d’exploration actuel extrêmement active est celui portant sur la recherche d’isolants meilleurs que la silice (en l’occurrence avec une permittivité diélectrique plus élevée).
Le consensus industriel : le « roadmap »
Actuellement (mi-2000), un microprocesseur ordinaire contient 42 millions de transistors (Pentium IV), et les mémoires en production contiennent 256 Mégabits (fig.1), réalisés au standard de 0,18 microns. Compte tenu des progrès réalisés, le composant électronique individuel (le microprocesseur) a rattrapé les grands ordinateurs, ce qui a bouleversé l'industrie électronique. Notons, par exemple, que dès le début des années 90 un ordinateur personnel avait la puissance de calcul d'un Superordinateur CDC 6600 de 1965, interdit à l'exportation pour des raisons de non-prolifération, ce qui n'avait pas été sans causer quelques frictions entre Français et Américains et avait été une des raisons des plans calculs français.
Ou va-t-on et à quel rythme ? le consensus industriel s'exprime par l’ « International Technology Roadmap for Semiconductors », le « roadmap », qui définit tous les deux ans4 l’évolution technique du domaine et les directions dans lesquelles les acteurs devraient s’engager. La dernière version, publiée à la fin de 1999, donne la vision jusqu’en 2014. Inutile de dire que s’il y a à court terme des solutions en vue pour la plupart des besoins, il y a
3 Les ordres de grandeur
Les grandeurs habituelles ne sont pas bien adaptées à la description d'objets microscopiques. La taille typique de composants miniatures s'exprime en microns (millième de millimètre, cf. note 1). L'unité de charge, le coulomb, lié au courant et à son unité, l'ampère (1A = 1 Cb/s) est énorme par rapport à la charge e de l'électron : 1 e = 1,6 10-19 Cb. C'est pourquoi le nombre de bits que l'on peut coder avec 1 Cb, même en prenant 10 000 électrons par bit, est supérieur à l'ensemble des bits de la librairie du Congrès !
On a le même problème pour représenter les énergies : le Joule représente une énergie énorme comparée à celle qui stocke un bit : E = QV = 104. 1,6.10-19.3 = 5.10-15J, si les 10 000 électrons sont sous 3V. On préfère une autre unité, l'électron-Volt (eV), rapportée à celle de l'électron, pris sous 1 V. 1 eV = 1,6 10-19 Cb.1V =1,6.10-19 J. Dans ce cas, l'énergie pour stocker un bit est de 3.104 eV.
Autre énergie intéressante : l'énergie d'agitation thermique de l'électron, kT, où k est la constante de Boltzmann et T la température absolue (T= 300K à l'ambiante) : kT = 0,025 eV. Bien entendu, kT représente une énergie minimum pour quantifier un bit, pour un système à l'équilibre thermique (ce que n'est pas un ordinateur quantique).
4 voir http://public.itrs.net/Files/1999_SIA_Roadmap/Home.htm
beaucoup d’incertitude à plus long terme, à la fois sur le fonctionnement des circuits, les technologies de fabrication, les rendements et les coûts. Toutefois, la loi empirique de Moore (du nom de l'un des fondateurs d’Intel, qui l'a énoncée dès 1965), selon laquelle le nombre de transistors des circuits intégrés double tous les 18 mois, devrait rester valable pour une quinzaine d'années. Sur cette durée, le progrès est encore remarquable puisqu’en 2014 on commencera à produire en masse, avec des traits de 35 nm, des mémoires de 256 Gigabits et des microprocesseurs comportant 4,4 milliards de transistors !
Les limites de la miniaturisation
À un moment, cette course à la miniaturisation doit s'arrêter : les dimensions deviendront tellement faibles que le transistor ne pourra plus fonctionner. Ces limites physiques à la miniaturisation changent avec le temps, à cause des progrès en composants, qui permettent de s'affranchir de certaines limites, en changeant la structure des transistors par exemple. On évalue cependant à 200 Angströms (un cinquantième de micron) la taille minimum de grille d'un transistor. À cette taille apparaissent un ensemble de limites sur différents paramètres, et les lois d'échelle ne s'appliquent plus. De telles dimensions seront atteintes vers 2020-25. Est-ce à dire que l'on ne continuera pas à miniaturiser après cette
date ? Non, mais on pourrait s'orienter vers d'autres approches. Certains travaillent déjà sur des concepts de composants fonctionnant avec un seul électron, puisque l'extrapolation de la loi de Moore montre que cela sera la charge des composants vers 2025-30 (fig. 8). Bien évidemment, il ne s'agira pas de transistors au sens ou on l'entend aujourd'hui, ne serait-ce que parce que le composant ne pourra pas alimenter plusieurs autres composants : comment pourrait-on partager le seul électron entre ces composants ? Le progrès continuant sans doute, d'une manière ou d'une autre, on pourra acheter vers 2030 l'équivalent du cerveau humain (en termes de puissance de calcul) pour 1000 dollars!5.
En dehors et au-delà du silicium
On l'aura compris : le silicium s'est imposé comme le matériau de choix en microélectronique, à cause de ses nombreuses propriétés : bonne résistance mécanique, pureté extrême, possibilité de masquage par la Silice pendant les opérations de fabrication, excellentes propriétés d'isolation électrique de la silice, etc.
Cependant, toute l'électronique semi-conductrice n'est pas basée sur le Silicium. Il faut distinguer entre les évolutions du Silicium, l'utilisation de matériaux autres que le Silicium le suppléant dans certaines fonctions qu'il remplit imparfaitement, et des solutions permettant de dépasser les limites physiques de l'électronique à semi-conducteurs telle que nous la connaissons aujourd'hui.
L'évolution du silicium
Elle consiste à aller un peu plus loin dans les limites du silicium en le structurant en couches minces avec d'autres matériaux; un exemple est le SOI (Silicon on Insulator, Silicium sur isolant, en fait sur Silice). Le fait d'utiliser une couche mince de silicium (une fraction de micron) reposant sur un isolant, la silice, permet d'avoir l'effet de désertion du canal (tel que décrit en figure 4) plus net, et avec une tension plus faible, que si l'on utilise du Silicium habituel épais. On gagne ainsi en rapidité et consommation, et la miniaturisation est facilitée par la faible dimension verticale. Une autre approche est liée à l'utilisation dans le canal de l'alliage Silicium-Germanium, dans lequel les électrons sont un peu plus mobiles. On gagne ainsi un facteur de l'ordre de 30 % sur la vitesse des circuits.
5 voir http://www.transhumanist.com/volume1/moravec.htm
L'utilisation de nouveaux semi-conducteurs
L'idée d'utiliser d'autres matériaux semi-conducteurs vient de la physique de base des semi-conducteurs. On s'est en effet rendu compte que les électrons pouvaient se déplacer plus rapidement dans l'Arséniure de Gallium que dans le Silicium. Du coup, ils sont très performants pour les circuits ultrarapides, comme en télécommunications. Ce même Arséniure de Gallium a de biens meilleures propriétés d'émission lumineuse que le Silicium. Si on y injecte des paires electron-trou par des contacts électriques on obtient, par la recombinaison d'un électron avec un trou, l'émission d'un photon et donc une conversion directe d'électricité en lumière. Ce phénomène est largement utilisé dans des lampes solides, appelées diodes émettrices de lumière (DEL). Il s'en produit une cinquantaine de milliards par an dans le monde. Avec les progrès récents pour générer de la lumière verte grâce au semiconducteur Nitrure de Gallium, on pense pouvoir remplacer les lampes classiques par des DELs à haut rendement et à longue durée de vie. Un autre domaine ayant des applications extrêmement importantes est celui des lasers à semi-conducteurs, très compacts, puisque leur surface typique est de 300x100 microns, utilisés largement dans les lecteurs optiques (compact-discs, DVD et CD-ROM), imprimantes laser, télécommunications...
Les concepts nouveaux de traitement de l'information
À long terme, on peut, et l’on doit commencer à envisager des alternatives au paradigme du Silicium, et des circuits et architectures actuelles des microprocesseurs et ordinateurs, en trouvant soit des matériaux et structures remplaçant le Silicium (électronique moléculaire par exemple), soit de nouveaux principes physiques de traitement de l'information (ordinateur quantique).
Une des premières approches consiste à agir sur les limites actuelles : la connectique des puces devient un facteur limitant : il faut aujourd'hui plusieurs centaines de liaisons électriques pour entrer ou sortir les données d'un microprocesseur, demain plusieurs milliers. Alors que les connexions sur la puce sont très rapides et raisonnablement gourmandes en énergie, celles qui sortent de la puce sont beaucoup plus lentes (typiquement dix fois) et nécessitent de forts courants pour alimenter des lignes d'interconnexion parfois assez longues; On songe donc de plus en plus à transmettre les données optiquement, dans des architectures basées sur des interconnexions optiques.
Une autre approche est de reconsidérer les architectures d'ordinateur. Par exemple, on utilise mal la performance des composants individuels : alors qu'un composant consomme une énergie de l'ordre du femtojoule pour commuter d'un état logique à un autre, un microprocesseur performant utilise de l'ordre de 10 millions de fois cette énergie pour une opération (microprocesseur faisant 1000 MOPS, millions d'opérations par seconde, consommant 10 watts). Bien entendu, une opération complexe sur 64 bits à la fois comporte de nombreuses opérations élémentaires (recherche en mémoire, opérations arithmétiques, retour en mémoire) mais il y a bien inefficacité de l'ensemble. C'est pourquoi on s'oriente vers de nouvelles architectures, classiques mais spécialisées (ensembles de portes logiques dédiés à une seule tâche) ou bien nouvelles, comme les architectures neuronales, bio mimétiques du cerveau. De fait, il existe d'autres systèmes faisant des opérations logiques dans la nature, bien plus efficaces que nos composants électroniques : le cerveau de l'abeille a une puissance de calcul évaluée à 10 teraopérations logiques élémentaires par seconde, soit, pour une puissance dissipée de 10 microwatts, un millième de femtojoule par opération (250 kT). La réplication d'une molécule-base d'ADN (le « bit » d’information en biologie) ne nécessite que 20 kT, pour une opération relativement complexe avec recherche de la base à copier, la copie, la mise en mémoire, le contrôle de l'opération et son irréversibilité (on veut copier l'ADN, et
que celui-ci ne copie pas l'ARN). Une voie explorée aujourd’hui en alternative au silicium est celle d’un traitement de l’information avec des molécules d’ADN.
On peut aussi songer à de nouveaux systèmes physiques permettant des fonctionnalités, similaires aux semi-conducteurs. L'approche la plus ambitieuse est celle de l'électronique moléculaire. Il s'agit de réaliser des fonctionnalités permettant de manipuler des bits d'information, codés par des paquets de charges électriques comme pour le silicium, par des molécules organiques. Les avantages sont bien sûr la compacité (la taille nécessaire pour un transistor ou mieux, une porte logique est, une molécule) et la facilité de fabrication (c'est la sélectivité de la synthèse organique qui procure une fabrication sans défaut à l'échelle atomique). Les obstacles à cette idée attrayante sont immenses : on n'a pas encore vraiment de molécules montrant un effet transistor, sauf celles qui sont basées sur des nanotubes en carbone. Les fonctionnalités établies sont plutôt celles de diodes. Or la mise en œuvre de circuits logiques complexes à partir de diodes pose des difficultés très fondamentales, rencontrées plusieurs fois au cours de l'histoire de la micro électronique, bien que les diodes, plus simples que les transistors et extrêmement rapides, puissent paraître être un meilleur composant actif. Même Shockley s'y est laissé prendre, en basant son entreprise sur un nouveau type de diode. Il a fait faillite, et les collaborateurs qui ne le suivaient pas dans cette voie, préférant le transistor, emmenés par Noyce, ont successivement fondé Fairchild, puis Intel, avec le succès que l'on sait. Robert Keyes, un pionnier de la microélectronique, a exposé à de nombreuses reprises les avantages subtils du transistor, qui mène à des architectures robustes et cascadables.
Une autre approche part de la théorie de l'information en général, et plus particulièrement des limites physiques au traitement de l'information. La question de l'énergie minimum pour traiter l'information (l'énergie même de l'information) a beaucoup intéressé physiciens et informaticiens. La théorie de l'information de Shannon mène à une énergie minimum par bit d'information de kTLog2 (kT quantum d'énergie thermique). Le composant actuel, dissipant un femtojoule, est bien loin de cette limite, d'un facteur 200 000. En fait, on peut montrer que la manipulation de l'information ne nécessite pas de dissipation d'énergie si elle est effectuée de manière réversible, au sens de la thermodynamique. Stimulés par de telles considérations les physiciens se sont demandé comment coder plus efficacement l'information que par la charge électrique d'électrons, pour mieux la manipuler. La réponse est venue dans les années 80, avec la proposition de l'ordinateur quantique, dont les principes ont été démontrés à la fin des années 90. L'information est portée par la fonction d'onde d'un système quantique, ce sont les coordonnées quantiques qui représentent les « 0 » et « 1 » de la logique. Un ensemble de N atomes (ou électrons, ou molécules, ...peu importe la nature physique du système quantique) interagissant quantiquement entre eux (ils sont imbriqués au sens de la mécanique quantique) peut posséder 2N composantes, donc bits classiques. Pour seulement 20 atomes, cela représente déjà un million de bits classiques ! Faisant des opérations quantiques sur ces q-bits (quantum bits-bits quantiques), on manipule à la fois 2N bits classiques, réalisant donc une opération fort complexe en une seule manipulation du q-bit. C'est ce qu'on appelle le parallélisme quantique qui mène à une extraordinaire efficacité de l'ordinateur basé sur les q-bits. Encore faut-il qu'il y ait des problèmes dont la solution utilise le résultat des manipulations de q-bits, car les opérations quantiques ne sont efficaces que pour certaines classes de problèmes. Depuis quelques années, on a pu identifier quelques grands problèmes mathématiques, telle la décomposition de grands nombres en produits de nombres premiers, quasi-insolubles avec des ordinateurs classiques, même en tenant compte des progrès à venir, et qui seraient aisément solubles par un ordinateur quantique. Le problème est de le fabriquer. Il faudrait des q-bits portant sur quelques centaines d'éléments. On en est à cinq, et les difficultés s'accroissent très vite avec le nombre d'éléments. L'autre problème est la très grande sensibilité des q-bits à toute perturbation, qui leur fait perdre toute mémoire.
L'ordinateur quantique n'en est pas moins fascinant par son implication de la mécanique quantique extrême, l'imbrication des fonctions d'onde, et par le retour aux sources qu'il implique, pour une informatique venue des semi-conducteurs, eux-mêmes nés de la mécanique quantique des années 30.
Références –pour en savoir plus :
Histoire et développement des semi-conducteurs et de la microélectronique
Grâce au cinquantenaire du transistor en 1997, de nombreux livres et revues se sont ajoutés à une liste déjà importante d'ouvrages souvent excellents. Quelques titres :
- Everett Rodgers et Judith Larsen, La fièvre de Silicon Valley, Londreys, 1985
- Michael Riordan and lilian Hoddeson, Crystal Fire, Norton, 1997 (ouvrage très complet sur l'histoire du transistor);"The Moses of Silicon Valley", Physics Today, dec;1997, p. 42.
- Emmanuel Rosencher, La puce et l'ordinateur, Dominos Flammarion, 1995 (excellent ouvrage simple).
- Jean-Philippe Dauvin, John Olliver et Didier Coulon, Les composants électroniques et leur industrie, Que sais-je, 1995 (ouvrage remarquable sur l'économie de la microélectronique).
- Numéro spécial de Proceedings IEEE, vol. 86 No 1, January 1998, "Fiftieth anniversary of the transistor" (nombreux articles originaux, dont ceux de Brattain et Bardeen, ainsi que celui où Moore énonce sa fameuse "loi", ainsi que quelques perspectives historiques).
- Numéro spécial des Comptes-rendus de l'Académie des Sciences, Série IV tome 1, No 7, septembre 2000, "Les défis de la microélectronique"
- Numéro spécial Nature vol; 406, August 31st, 2000, "The future of microelectronics", pp. 1021-1054.
- Numéro spécial de Bell Labs Technical Journal, vol; 2 No 4, Autumn 1997, "The Transistor" (accessible en ligne : http://www.lucent.com/minds/techjournal/common/arc_issues.html)
- Scientific American, Microelectronics (september 1977), traduit en français : La microélectronique, Belin, 1980 (ouvrage ancien constituant cependant une remarquable introduction aux principes de la microélectronique).
- Technologies futures de l'ordinateur, P. Chavel et N. de Beaucoudray eds., Editions Frontière, 1993
Quelques livres et articles plus spécialisés, mais élémentaires :
- R.W. Keyes, Physics of Digital Devices, Rev. Mod. Phys. 61, 279 (1989) ;Physics of VLSI systems, Addison-Wesley, Reading 1985 ; Physical Limits in Information Processing dans "Advances in Electron Physics" vol. 70, Academic, New-York, 1988 ; Limits and Alternatives in Electronic Information Processing dans "Technologies Matérielles Futures de l'ordinateur", loc. cit. ; Limits and Challenges in microelectronics, Contemporary Physics, vol; 32, p; 403, 1991; L'avenir du transistor, Pour la science, Août 1993, p. 60.
- Seth Lloyd, Les ordinateurs quantiques, Pour la Science, décembre 1995, p;44
- C. Bennett et Rolf Landauer, Les limites physiques du calcul, Pour la science, Septembre 1995, p. 18.
- Mark Reed et James Tour, Les ordinateurs moléculaires, pour la science, Août 2000, p. 78.
- Sur les alternatives au silicium, on pourra consulter le numéro de mars-avril de Technology Review, accessible sur le web http://www.techreview.com/past.htm (donne aussi de nombreux liens).
Légendes des figures
1G 100M 10M
1M 100K
10K 1K
1G 256M
Reseau de portes
64M 16M
4M
80486
80386
68020 64K 80286
Pentium IV
100 μ Pentium pro
et mémoire
Pentium Pro MPU seul
10 μ 1μ
0,1 μ
1M 256K
Pentium Reseau de portes
68000 4K 16K 8086
1K 8080 8085
4004 = Microprocesseurs et logique
= Memoires (DRAM)
70 74 78 82 86 90 94 98 02 06
Année
Figure 1 : Courbe de progression des circuits intégrés, microprocesseurs (unités centrales d'ordinateurs) ou mémoires dynamiques à accès aléatoire (DRAM).
Nombre de transistors par puce
Largeur de trait
Energie des
electrons
1 atome
2 atomes
10 atomes
N atomes
v3N places
(a)
E3
v3 places
E2
v2 places
E1
v1 places
(b)
metal
isolant
semiconducteur
bande de conduction
bande interdite
Bandes d’energies permises états d’electrons possibles
Figure 2 : (a) Schéma de la formation de bandes d'énergie dans les solides à partir des niveaux d'énergie des atomes séparés. Un niveau atomique comportant v places pour des électrons donnera vN places pour N atomes.(b) Remplissage des places disponibles dans les bandes d'énergie dans les solides par les électrons disponibles, par énergies croissantes. Suivant les cas, les derniers électrons sont dans une bande non-pleine, ou pleine. Dans ce dernier cas, il n'y a pas de conductivité électrique, puisque les électrons ne peuvent pas prendre de vitesse ce qui leur confèrerait une énergie cinétique, et la nécessité d'occuper une place d'énergie immédiatement supérieure, ce qui n'est pas possible. On a un isolant. Dans le premier cas, comme quand les bandes se recouvrent (cas des bandes issues des niveaux 1 et 2 en (a)), il peut y avoir conduction électrique, métallique. Un semi-conducteur est un isolant à faible bande interdite : comme les derniers niveaux occupés sont proches énergétiquement des premiers niveaux vides, des électrons peuvent être excités thermiquement de la « bande de
bande de valence
Etats occupés par les electrons
valence » vers la « bande de conduction », permettant ainsi une certaine conduction électrique (cf. infra fig.3).
(a) Isolant
(d) Semiconducteur non dopé Electrons et trous
Thermiques IV

 
 
 
 

LA MATIÈRE

 



 

 

 

 

 

La matière

Publié le 23 novembre 2018

La matière est partout présente autour de nous. Elle est constituée d'atomes, eux-mêmes construits à partir de « briques plus petites », appelées particules élémentaires. L'origine de la matière présente sur Terre et dans l'Univers est expliquée aujourd'hui par le modèle du Big Bang. Après des siècles de recherches, la matière reste encore pleine de mystères que les chercheurs tentent de percer en améliorant les technologies de visualisation de l'infiniment petit, de la cosmologie et de la physique des
 particules.

QU’EST-CE QUE LA MATIÈRE ?
La matière désigne l’ensemble des composants et objets, naturels ou synthétiques, qui compose notre environnement. Elle est, au sens classique du terme, caractérisée par une masse et un volume.

La matière est constituée d’atomes ou de molécules (assemblage d’atomes). Les atomes sont entre cent mille et un million de fois plus petits que le diamètre d’un cheveu (10-10m) et constituent les briques élémentaires qui permettent de différencier un élément chimique d’un autre. Au total, il existe actuellement 118 éléments regroupés dans un tableau périodique des éléments, aussi appelé tableau de Mendeleïev.

Un atome est composé d’un noyau, situé en son centre, et d’un nuage d’électrons en mouvement autour. Il est essentiellement composé de vide. En effet, si le noyau était une balle de tennis, le nuage électronique s’étendrait à environ 6 kilomètres de la balle.

Le noyau d'un atome est composé de protons et de neutrons qui tiennent ensemble grâce à la force nucléaire forte. Protons et neutrons sont eux-mêmes composés de grains de matière encore plus petits, les quarks. Ces derniers sont maintenus ensemble grâce à des échanges continus de gluons, des particules élémentaires qui appartiennent à la famille des bosons.

Les électrons sont des particules qui circulent autour du noyau. La cohésion de l’atome est assurée par la force électromagnétique. Celle-ci lie ensemble les électrons chargés négativement avec les protons chargés positivement. Cette attraction électromagnétique est le résultat d’un échange continu de photons, aussi appelés particules de lumière.

La force électromagnétique est présente partout autour de nous : lumière, électricité, magnétisme… Au quotidien, cette force électromagnétique empêche par exemple un verre posé sur une table de passer au travers de la table : les électrons de la table et du verre, étant de même charge électrique (négative) se repoussent.

Dans un atome qui est neutre, il y a autant d’électrons que de protons. Les propriétés chimiques d’un élément sont déterminées par le nombre d’électrons de l’atome, donc par le nombre de protons du noyau. La chimie est la science qui s’intéresse à la composition et à la transformation de la matière.


LES DIFFÉRENTS ÉTATS DE LA MATIÈRE
La matière peut avoir différents états : liquide, solide, gazeux ou plasma. Ces états dépendent de la température et de la pression et caractérisent un niveau d’organisation de la matière.

Dans les conditions normales de température et de pression terrestres, la matière se présente sous trois états : solide, liquide et gazeux. Le passage d’un état à l’autre correspond à une réorganisation des molécules ou des atomes dans la matière. Prenons l’exemple de l’eau : à l’état solide, sous forme de glace, l’eau a une structure très organisée dans laquelle les molécules sont fortement liées les unes aux autres. Sous l’effet de la chaleur, les molécules s’agitent, se désolidarisent les unes des autres et l’eau devient liquide. A plus forte température encore, la structure se désorganise totalement et les molécules d’eau s’éparpillent sous forme de gaz, c’est l’ébullition.

Dans des conditions de température et de pression extrêmes apparaît un nouvel état de la matière dans lequel la structure atomique elle-même est totalement désorganisée : le plasma. Les constituants de l'atome se séparent, noyaux et électrons se déplacent indépendamment et forment un mélange globalement neutre.

Ce quatrième état de la matière, que l'on retrouve dans les étoiles et le milieu interstellaire, constitue la majorité de la matière ordinaire de notre Univers (jusqu’à 90 %). Sur Terre, on ne le rencontre à l'état naturel que dans les éclairs ou les aurores boréales. Cet état peut être cependant produit artificiellement en appliquant des champs électriques suffisamment puissants pour séparer le noyau de ses électrons dans les gaz. Dans notre vie quotidienne, les plasmas ont de nombreuses applications (microélectronique, écrans plats des téléviseurs ...), dont la plus courante est le tube néon pour l’éclairage.


DIFFÉRENCE ENTRE MATIÈRE 
ET MATÉRIAUX

La matière compose les matériaux. Tout matériau est fait de matière mais toute matière n’est pas un matériau. Un matériau est une matière d’origine naturelle ou artificielle que l’Homme utilise et/ou conçoit pour fabriquer des objets, construire des bâtiments ou des machines.

QUELLE EST L’ORIGINE DE LA MATIÈRE ?
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’Univers. Selon le modèle du Big Bang, il y a 13,7 milliards d’années, l'Univers était extrêmement dense et chaud et soumis à une forte expansion. Du fait de cette expansion, le contenu d'énergie et de particules de l'Univers se libère dans toutes les directions sous la forme d’une soupe uniforme, constituée de particules élémentaires telles que les électrons, les quarks ou les photons.  

La température baisse rapidement et permet aux quarks de s'associer pour former les premiers protons et neutrons. Les premiers noyaux d'hydrogène sont alors formés (ils sont constitués d'un seul et unique proton). Entre trois et vingt minutes après le début de l'expansion, la température continue de baisser. Les protons et les neutrons s'associent pour former les premiers noyaux de deutérium, d'hélium et de lithium. C'est la nucléosynthèse primordiale. La production de nouveaux noyaux s'arrête quand la température passe en dessous du milliard de degrés.

Puis, 380 000 ans après le début de l’expansion, la température de l’Univers descend à environ 3 000 degrés. Les électrons deviennent assez lents pour se lier aux noyaux déjà formés, et créer les premiers atomes d’hydrogène et d’hélium. Plusieurs centaines de millions d'années après le Big Bang, d’immenses nuages de matière se concentrent : les conditions de création des étoiles sont réunies. Les fusions successives des noyaux légers dans le centre des étoiles vont former des noyaux plus lourds comme le carbone, l'azote ou l'oxygène, jusqu’au noyau de fer pour les plus grosses étoiles. C'est la nucléosynthèse stellaire. Quand les plus grosses étoiles meurent, elles explosent dans un phénomène dit de « supernova ». Pendant l’explosion, les étoiles libèrent dans tout l’Univers les noyaux qu’elles ont fabriqués et certains noyaux capturent également des neutrons de l’explosion pour former les noyaux naturels les plus lourds comme le plomb, l’uranium...

L’HISTOIRE DES DÉCOUVERTES SCIENTIFIQUES SUR LA MATIÈRE
Depuis toujours, l’Homme cherche à comprendre le monde qui l’entoure. Le philosophe Démocrite est parmi les premiers, au cinquième siècle avant JC, à envisager l’existence de particules de matière. Il parle déjà de briques indivisibles de matière qu’il appelle « atomes ». Sa théorie se perd pendant plusieurs siècles. Il faudra attendre le 18e siècle pour que l’idée d’un découpage de la matière en briques élémentaires soit reprise, mais sans parler d’atomes. Aux 19e et 20e siècles, John Dalton, Dimitri Mendeleïev, Joseph John Thomson, Ernest Rutherford, Niels Bohr font progresser la connaissance sur la matière. Parallèlement aux découvertes sur l’atome et le noyau, des astrophysiciens tels que Fred Hoyle ou encore George Gamow s’intéressent à l’origine de la matière présente dans notre Univers.

QUELS SONT LES ENJEUX DES RECHERCHES SUR LA MATIÈRE ?
Les recherches sur la matière ont permis de nombreuses découvertes sur notre Univers et son évolution. L’étude de l’infiniment petit a également permis de découvrir et théoriser, au début du 20e siècle, les phénomènes de mécanique quantique. Cette physique est à l’origine d’applications concrètes très diverses comme les lasers ou encore les diodes électroluminescentes.

Les recherches et expériences en physique des particules ont mis en évidence sur plus d’un siècle les différentes briques du « modèle standard », théorie qui décrit tous les constituants élémentaires de la matière et leurs interactions. La première particule de ce modèle à avoir été découverte est l’électron, en 1897 par Joseph John Thomson et la dernière est le boson de Higgs en 2012.

Ces avancées scientifiques ont permis une amélioration continue des connaissances sur la matière et notre Univers même s’il reste de nombreuses questions. Par exemple, en physique nucléaire, les interactions entre tous les protons et tous les neutrons d’un même noyau sont tellement complexes qu’elles ne peuvent être décrites de manière exacte : les chercheurs doivent avoir recours à des approximations judicieuses pour expliquer les propriétés du noyau. Il n’existe pas, à ce jour, de modèle standard qui permettrait d’expliquer l’ensemble des propriétés de tous les noyaux.

Aujourd’hui, les scientifiques cherchent à mieux comprendre tous les mécanismes liés à la matière : naissance des étoiles, formation des galaxies ou encore début du Big Bang avec des missions telles que le télescope spatial James Webb (JWST) qui doit être lancé en octobre 2018 pour remplacer le télescope Hubble.

La matière qui nous entoure n’est pas la seule à intriguer les physiciens. En effet, selon les observations astronomiques, la matière constituée des particules du modèle standard ne représente que 5% de l’Univers. Il resterait donc encore 95 % de l’Univers à décrypter. Parmi ces mystères, la matière noire, une matière théorique, totalement invisible, postulée pour expliquer par exemple les effets gravitationnels qu’elle occasionnerait sur la lumière en provenance de galaxies très lointaines. La traque de la matière noire constitue l’un des grands enjeux scientifiques fondamentaux de ce siècle, notamment pour vérifier la validité du modèle du Big Bang.

 

  DOCUMENT     cea         LIEN

 
 
 
 

L'ESSENTIEL SUR... L'ordinateur quantique

 

 

 

 

 

 

 

L'ESSENTIEL SUR...
L'ordinateur quantique

Publié le 15 mai 2019

Si on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

LA QUÊTE DE L’ULTIME BIT QUANTIQUE, QUBIT

A la base du concept de l’ordinateur quantique figure l’idée selon laquelle les phénomènes quantiques pourraient être utilisés pour décupler la puissance de calcul des machines classiques. Ce rêve, poursuivi par des scientifiques, de par le monde, depuis plus de trente ans, se heurte cependant à d’importants obstacles technologiques.

L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.

Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.


QU'EST-CE QU'UN BIT QUANTIQUE ?

Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.




Etats quantiques d'un bit quantique. © CEA/F. Mathé




L'ORDINATEUR QUANTIQUE : UN POTENTIEL DE RUPTURE MAJEUR MAIS UN PROBLÈME CONCEPTUEL ET TECHNOLOGIQUE EXTRÊMEMENT DIFFICILE

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique permettrait des approches révolutionnaires pour certaines classes de problèmes.

Une communauté scientifique et technique encore réduite
La communauté scientifique bien informée sur les possibilités des technologies quantiques est encore réduite. Issue pour l’essentiel du monde académique (physique et mathématiques), elle a peu développé les voies applicatives pour le moment. Il est donc possible que de nombreuses applications insoupçonnées jusqu’à présent apparaissent dans un futur proche.

L'ORDINATEUR QUANTIQUE : DES DOMAINES D’APPLICATION DÉJÀ IDENTIFIÉS
Aujourd’hui, des programmes de recherche importants sont menés selon trois grandes voies de l’ingénierie quantique qui étudie ce qu’il est possible de réaliser en termes d’application en exploitant les propriétés d’intrication, de non localité et de superposition, propre à un système quantique :

Les capteurs : une information portée par un qubit est très sensible aux perturbations apportées par son environnement ; c’est une difficulté pour réaliser un ordinateur mais cela peut permettre de construire une sonde très sensible.
Les ordinateurs de très grande performance : le calcul quantique est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique pour certaines applications.
Les télécommunications protégées : les corrélations quantiques entre des particules intriquées permettent de coder un message garantissant l’absence d’interception lors de sa transmission. Le codage à base de clefs publiques trop difficiles à factoriser par les ordinateurs actuels pourrait être cassé par un ordinateur quantique ayant un nombre suffisant de qubits (de l’ordre du nombre de bits de la clef).

Le calcul massivement parallèle, intrinsèque à l’ordinateur quantique, permet de sonder l’espace des états d’un système comportant de très nombreux paramètres.
Cette caractéristique permet déjà d’identifier quatre grands domaines d’application :

La chimie
Simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, même les plus puissants, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.

Le Data Mining
Accélérer la recherche d’une information spécifique dans une vaste base de données.

L’optimisation de procédés de l’industrie 4.0
Trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

L’intelligence artificielle 
Au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourront être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).

LES ENJEUX DE LA RECHERCHE SUR L'ORDINATEUR QUANTIQUE
Atout du quantique : des calculs intrinsèquement parallèles
Alors que dans un calculateur classique, les bits (unités de base utilisées) ne peuvent prendre qu’une valeur parmi deux (soit 0 soit 1), les qubits peuvent être placés dans un ensemble continu de superpositions de leurs deux états de base |0> ou |1>.
Un ordinateur exploitant cette possibilité, offerte par les lois de la physique quantique, pourrait calculer de façon massivement parallèle, c'est-à-dire simultanément, l'ensemble des valeurs des qubits, et ainsi surpasser considérablement la puissance de l'ordinateur classique.
Ainsi, dans un ordinateur classique, une série de N bits égaux à 0 ou 1 permet d’encoder un unique nombre parmi les 2N possibles (un parmi 4 096 pour N = 12).
En revanche, un registre quantique dont les 12 qubits seraient en parallèle plongés dans les deux états de base |0> ou |1>, se trouverait dans une superposition des 4 096 états de base du registre. Toute opération quantique qui lui serait appliquée s’effectuerait en parallèle sur ces 4 096 états de base. Ceci ne réaliserait pas pour autant du calcul parallèle car la lecture ne donnera qu’un seul résultat. L’art de l’algorithmique quantique consiste alors à exploiter le parallélisme tout en concentrant, par chaque étape de mesure, l’état du registre quantique sur la ou les solutions du problème étudié.

Difficultés du quantique : un état intrinsèquement peu stable
Si les spécialistes de physique quantique savent observer atomes, photons ou molécules dans des états dits de "superposition quantique", ces états sont extrêmement fragiles : à la moindre perturbation extérieure, ils s’évanouissent ; d’où la nécessité d’isoler aussi complètement que possible de leur environnement les systèmes que l’on souhaite mettre durablement dans de tels états.
Les qubits sont les unités de construction des calculateurs quantiques. Ils peuvent être mis en œuvre dans une large variété de systèmes physiques à l’échelle du laboratoire. La recherche sur les qubits s’est d’abord naturellement portée sur des systèmes au comportement quantique avéré, comme les atomes et les ions, bien que ces systèmes microscopiques soient difficiles à contrôler individuellement et à coupler. Elle s’est également portée ensuite sur des systèmes plus faciles à contrôler, comme des circuits électriques, qui eux ne fonctionnent, en général, pas en régime quantique.
Cependant, lorsqu’on veut produire de grands systèmes ou des qubits en série, il faut utiliser des supports de l’information quantique compatibles avec les standards industriels. Les qubits de spin dans le silicium sont de petite taille (typiquement 30 nanomètres) et sont compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication de composants électroniques), largement utilisées dans l’industrie microélectronique. Ils présentent donc des avantages évidents pour la production en série par rapport aux autres types de qubits.
Depuis 2012, où ont été mis au point les premiers qubits basés sur des spins d’électrons confinés, le silicium 28 purifié isotopiquement a permis d’améliorer significativement le temps de cohérence du spin quantique : en effet, l’isotope 28 du silicium ne porte pas de spin nucléaire, source importante de décohérence pour le qubit. Plus le temps de cohérence du spin augmente, plus la fidélité des opérations de calcul quantique et la capacité à effectuer une séquence complète d’opérations s’améliorent.

LA RECHERCHE DANS LE DOMAINE
La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche. L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.

Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l’étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd’hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d’euros. Au niveau européen, un flagship sur l’ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l’ambition d’amener les technologies quantiques sur le marché. Le financement annoncé est d’au moins un milliard d’euros, apporté par la Commission européenne et les Etats membres sur dix ans.

Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente.
En particulier, le problème de la correction d’erreurs est plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…)



VOIR AUSSI
*         L'essentiel sur... la mécanique quantique
*         Clefs CEA n°66 - Révolutions quantiques - juin 2018
*         Vidéo Masterclass Introduction à la physique quantique, par Roland Lehoucq, astrophysicien au CEA
*         Les Défis du CEA n° 214 - L'ordinateur quantique, graal du numérique - février 2017

 

    DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google