ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Les ondes gravitationnelles vues de l'espace

 

   

 

 

 

 

 

Les ondes gravitationnelles vues de l'espace

Éric Plagnol, Antoine Petiteau dans mensuel 506
daté décembre 2015 -

La mission spatiale Lisa Pathfinder doit être lancée cette année, en décembre. Objectif ? Démontrer que la détection d'ondes gravitationnelles, prédites par la relativité générale, est possible.

Le 2 décembre 2015, si tout se déroule comme prévu, une fusée Vega décollera de Kourou, en Guyane, avec à son bord la sonde Lisa Pathfinder. Après un voyage de quelques mois, cet instrument de l'Agence spatiale européenne (ESA) et de la Nasa sera placé entre la Terre et le Soleil. Son rôle ? Apporter la preuve qu'une mission spatiale d'observation des ondes gravitationnelles est possible. Si c'est un succès, une telle mission pourrait voir le jour d'ici à 2034. En jeu, pas moins que l'avènement d'une nouvelle astronomie, « gravitationnelle », qui permettra de détecter la fusion de trous noirs aux confins de l'Univers, de comprendre le rôle de ces derniers dans la formation des grandes structures, voire d'obtenir des renseignements sur la nature même de la gravité.
Que sont les ondes gravitationnelles ? Ce sont des déformations de l'espace-temps. Lorsque Einstein établit, en 1915, la théorie de la relativité générale, l'espace et le temps deviennent une entité unique et déformable. En particulier, la présence de masses déforme l'espace-temps. Dans cet espace-temps déformable, la matière ne se propage plus en ligne droite, mais « tombe » en suivant des lignes de plus court chemin, baptisées géodésiques. De plus, ces déformations peuvent se propager dans le cosmos, à la manière des ondes à la surface de l'eau. Dès 1916, Einstein prédit l'existence de ces ondes gravitationnelles. En même temps qu'il fait cette prédiction, il calcule leur intensité pour différentes configurations d'astres pouvant les produire. Sa conclusion ? Dans notre environnement proche, les principales sources d'ondes gravitationnelles - mouvement des planètes ou oscillations du Soleil - ne sont pas détectables.
Toutefois, la situation change lorsqu'on considère le mouvement rapide de corps massifs et denses, tels les étoiles à neutrons (*) ou les trous noirs, astres qui étaient alors inconnus d'Einstein. La déformation de l'espace-temps engendrée par le mouvement de ces systèmes devient alors suffisamment importante pour qu'il soit envisageable de la mesurer sur Terre. Comment cette déformation se traduit-elle ? Par des variations de longueur de l'espace-temps. Ainsi, si vous disposez d'une règle capable de mesurer précisément une longueur (par exemple entre deux miroirs), vous pourrez voir varier périodiquement cette longueur au passage d'une onde gravitationnelle.
Du moins en théorie. Car en pratique, il faut des événements violents, cataclysmiques, pour espérer déceler un changement de longueur au niveau de la Terre. Et même ainsi, les variations de longueurs induites sont extrêmement petites. Par exemple, la fusion de deux étoiles à neutrons dans une galaxie proche de la nôtre entraînerait sur Terre des distorsions mille fois plus petites qu'un atome (10-19 mètre) mesurées sur une longueur de quelques kilomètres.
Pour relever ce défi, la communauté des scientifiques travaillant sur les ondes gravitationnelles
a construit des détecteurs, dont Ligo aux États-Unis et Virgo en Italie. Le principe consiste à mesurer, à l'aide de lasers, des variations de distance entre des miroirs situés à plusieurs kilomètres les uns des autres. Leurs performances attendues rendent probable une détection d'ondes gravitationnelles d'ici à quelques années. Toutefois, ces observatoires terrestres ont une limite : ils ne peuvent détecter que les ondes gravitationnelles dont la fréquence est supérieure à 1 hertz, et qui correspondent àdeux étoiles à neutrons en rotation l'une autour de l'autre par exemple. En effet, les signaux d'ondes gravitationnelles à des fréquences inférieures seront noyés par des ondes sismiques qui surviennent en permanence à la surface de notre planète.

AMBITIEUX PROJET SPATIAL
Pour les ondes dont la fréquence est comprise entre 10-5 et 10-1 hertz, seule une détection à partir de l'espace, environnement plus calme, est envisageable. Les sources susceptibles de produire des ondes détectables à cette fréquence sont multiples : trous noirs binaires massifs tapis au centre des galaxies, astres doubles constitués d'un objet compact (étoile à neutrons ou trou noir) en orbite autour d'un trou noir massif. Les astres binaires constitués d'une étoile à neutrons et d'une naine blanche, étoile en fin de vie bien plus petite que le Soleil, seraient aussi détectables par des instruments spatiaux. Autre avantage de l'espace, on peut placer des objets très éloignés les uns des autres et mesurer leur distance, ce qui augmente les chances de détection.
De là est né l'ambitieux projet spatial eLisa : trois satellites seront positionnés dans l'espace à un million de kilomètres les uns des autres. Le passage d'une onde gravitationnelle modifiera la distance entre les satellites. Pour les sources d'ondes envisagées - par exemple deux trous noirs massifs fusionnant il y a 7,9 milliards d'années -, la distance entre les satellites sera modifiée de quelques centaines de picomètres (10-12 mètre). Cela reste certes tout petit, mais mesurable avec des techniques élaborées.
Bien évidemment, les satellites et sondes spatiales ne sont pas fixes dans l'espace. Dès lors, comment évaluer si la distance entre deux de ces objets change ? Grâce au concept de « chute libre ». Un corps en chute libre se propage librement à la surface de l'espace-temps. Il tombe, uniquement soumis à la gravitation ambiante. Sa chute suit donc, comme nous l'apprend la relativité générale, une géodésique. Deux objets tombant côte à côte suivent chacun leur propre géodésique. On peut donc considérer qu'ils sont à distance fixe l'un de l'autre. Ainsi, si entre ces deux objets vient à passer une onde gravitationnelle, leur distance fluctuera. Cette distance sera mesurée à l'aide de faisceaux laser que les satellites s'échangeront. L'utilisation de laser répond à une logique : la vitesse de la lumière est indépendante du champ gravitationnel et est toujours la même. En utilisant le laser, on s'assure donc que la règle de mesure ne change pas en même temps que les distances que l'on cherche à évaluer.

La détection de ces ondes gravitationnelles reste cependant techniquement délicate. Les variations de distance induites par leur passage étant minuscules, beaucoup d'autres sources de perturbations peuvent masquer la mesure. En particulier, il faut s'assurer que les satellites soient tout le temps en chute libre. C'est là le principal défi de la mission : être capable de mettre en orbite des satellites dont la trajectoire est suffisamment proche d'une géodésique, ce qui équivaut à être soumis uniquement à la gravité.
Un objet dans l'espace est soumis à bien d'autres influences que la gravité. Ainsi, un satellite en orbite autour du Soleil ou de la Terre, subit, entre autres, la pression de radiation (*) du Soleil, ce qui le dévie de sa trajectoire géodésique. Les particules du rayonnement cosmique modifient également la charge électrique du satellite. Couplée au champ magnétique environnant, cette charge perturbe le mouvement du satellite. Afin de détecter des ondes gravitationnelles, il est donc nécessaire de mettre en orbite une « sonde gravitationnelle », qui devra rester insensible à tout autre effet.
On le voit, les défis technologiques de la mission eLisa sont nombreux : mesurer des distances infimes, contrôler les influences extérieures afin que les satellites restent bien sur une géodésique. C'est pourquoi, avant de se lancer dans une telle mission, les chercheurs ont décidé de s'entraîner sur un démonstrateur. C'est l'objectif de Lisa Pathfinder, conçu par la communauté eLisa dans le cadre des programmes spatiaux
de l'ESA. Ce satellite devra faire la preuve de sa précision afin d'aborder le projet eLisa
avec confiance.

UN MODÈLE TRÈS RÉDUIT
Lisa Pathfinder est un satellite de près de 2 tonnes. Il sera mis en orbite héliocentrique autour du point de Lagrange L1(*), un point d'équilibre situé entre la Terre et le Soleil. Le coeur du satellite comporte deux cubes de 5 centimètres de côté, alliage d'or et de platine, qui constituent ce qu'on appelle les masses d'épreuve, placées à environ 30 centimètres l'une de l'autre. Chaque masse d'épreuve est dans une enceinte à vide sans contact mécanique avec les parois. Des actuateurs et des senseurs électrostatiques permettent de déplacer ces masses et de déterminer leur position et leur orientation. Ces mesures électrostatiques sont complétées, sur l'axe joignant les deux masses d'épreuve, par un système d'interférométrie laser (*) de très grande précision.
Sur les faces extérieures du satellite, 6 micropropulseurs à gaz froid (azote) contrôlent son mouvement en s'assurant qu'une des deux masses d'épreuve est en permanence au centre de son enceinte. Il s'agit de l'élément le plus délicat de Lisa Pathfinder, car il garantit que cette masse d'épreuve est bien maintenue en chute libre, exempte de toute autre influence.

Les actuateurs électrostatiques de l'autre masse d'épreuve ont pour objectif de la maintenir au centre de son enceinte durant plusieurs milliers de secondes. Sur des intervalles de temps plus courts, cette masse d'épreuve est autorisée à évoluer librement et sera donc également en chute libre. Les deux masses d'épreuve étant placées au sein du satellite, il est également primordial que les forces gravitationnelles propres à Lisa Pathfinder ne les fassent pas dériver. Pour cela, la répartition des masses au sein du satellite est très précisément connue afin d'évaluer et de minimiser le champ gravitationnel résiduel au niveau des masses d'épreuve, grâce à des masses judicieusement positionnées. Avec une telle configuration, Lisa Pathfinder représente un modèle, très réduit, de deux satellites de eLisa !
L'objectif principal de Lisa Pathfinder est de mesurer, grâce au système interférométrique laser, la distance entre les deux masses d'épreuve et de démontrer que leur accélération relative est compatible avec les exigences du programme scientifique de eLisa. Ce programme impose donc les performances que le satellite doit démontrer en vol (lire p. 78).
Lisa Pathfinder doit être lancée le 2 décembre. Afin de parvenir à son point de destination, le satellite subira une série de poussées lui conférant des orbites de plus en plus elliptiques autour de la Terre. Une dernière poussée libérera le satellite de l'attraction terrestre qui rejoindra alors le point L1. Ce voyage, qui durera trois mois, se terminera par le largage du moteur principal et une mise en orbite autour de L1.

TROIS MISSIONS D'ENVERGURE
Une fois sa position atteinte, six mois seront consacrés à la mesure des performances de Lisa Pathfinder et à des améliorations. Lisa Pathfinder est un instrument complexe et les équipes de physiciens travaillent depuis plus de dix ans à comprendre son fonctionnement détaillé afin d'améliorer, en vol, la qualité de ses mesures. Ces équipes de physiciens, provenant de nombreux pays européens et des États-Unis, ont mis au point et répété ces procédures d'optimisation lors de plus d'une vingtaine d'exercices au sol, en utilisant de nombreux simulateurs provenant de la communauté scientifique, des industriels participants et de l'ESA (1). Ces exercices ont lieu aussi bien dans les centres de l'ESA que dans les laboratoires des pays participants dont le laboratoire astrophysique particules cosmologie, à l'université Paris-Diderot. En se fondant sur ces exercices et sur les mesures en laboratoire, la communauté a bon espoir que les performances attendues soient non seulement atteintes mais probablement dépassées.

La mission eLisa n'est pas encore certaine de voir le jour. Dans le cadre de son programme de « grandes missions », l'ESA a en effet prévu trois missions d'envergure. Les deux premières devraient partir vers 2022 et 2028 pour explorer les principaux satellites de Jupiter (Juice), et pour observer le ciel dans les domaines des rayons X (Athena). La troisième mission n'a pas encore été sélectionnée, mais son thème sera « l'Univers gravitationnel » avec un lancement au plus tard en 2034. La sélection définitive de cette troisième mission devrait intervenir d'ici à la fin de la présente décennie. La réussite attendue du démonstrateur devrait faire pencher la balance en sa faveur, en validant le concept de mission proposé par la communauté eLisa. Cette dernière pourra alors se consacrer à sa construction et à l'analyse de ses futurs résultats. Il faudra attendre encore quelques années avant d'être fixés, mais pour un objectif aussi ambitieux que celui d'ouvrir une nouvelle fenêtre astronomique - gravitationnelle - sur l'Univers, la patience est de rigueur.

(*) Une étoile à neutrons est un astre très dense et de quelques kilomètres de diamètre composé de neutrons maintenus ensemble par la gravitation.
(*) La pression de radiation est la pression exercée par le rayonnement du Soleil sur le satellite.
(*) Les points de Lagrange , au nombre de 5, sont les points d'équilibre du système Terre-Soleil. Situé entre ces deux astres, le point L1 est à environ 1,5 million de kilomètres de la Terre.
(*) L'interférométrie laser est un système de mesure de distance très précis fondé sur l'interférence de deux rayons laser ; une modification de distance des sources modifie la figure d'interférence observée.
REPÈRES
- Les astronomes envisagent pour les années 2030 un observatoire spatial d'ondes gravitationnelles.
- Pour convaincre de la faisabilité de ce type d'observatoire, complètement novateur, le satellite Lisa Pathfinder sera lancé en décembre.
- La trajectoire de masses en chute libre y sera suivie avec précision.

À LIRE AUSSI
« L'ESPOIR DE VOIR BOUGER L'ESPACE-TEMPS », dans le hors-série n° 16 de La Recherche, en vente à partir du 10 décembre.
LES CINQ PERFORMANCES À ATTEINDRE
Pour que la mission Lisa Pathfinder soit un succès et que l'on puisse envisager un détecteur spatial d'ondes gravitationnelles, le satellite devra accomplir plusieurs performances.

1. Maintenir les deux masses d'épreuve (des cubes de 5 centimètres de côté) situées à l'intérieur du satellite en chute libre pendant environ 1 000 secondes avec des perturbations n'excédant pas un millionième de milliardième de la gravité terrestre.
2. Mesurer la position des deux masses d'épreuve avec une précision meilleure que quelques picomètres (10-12 mètre).
3. Vérifier que le système de micropropulseurs est capable de maintenir les deux masses d'épreuve en chute libre et que le système de contrôle fonctionne avec la précision nécessaire.
4. Maintenir une stabilité thermique et électromagnétique de l'environnement des deux masses d'épreuve compatibles avec les exigences ci-dessus.
5. Maintenir les masses d'épreuve électriquement neutres en éliminant, grâce à des lampes à ultraviolets, les charges parasites déposées par les rayons cosmiques.

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

La mécanique quantique

 


 

 

 

 

 

La mécanique quantique

Publié le 15 mai 2019


Qu'est-ce que la mécanique quantique ? Pourquoi est-elle utilisée ? A quoi sert-elle ? Où la retrouve-t-on dans notre quotidien ? Petite introduction au monde quantique.

QU’EST-CE QUE
LA MÉCANIQUE QUANTIQUE ?
A l’aube du XXe siècle, la naissance de la physique quantique révolutionne notre conception du monde : les physiciens réalisent que la physique classique, qui décrit parfaitement notre environnement quotidien macroscopique, devient inopérante à l’échelle microscopique des atomes et des particules. En effet, les atomes et les particules élémentaires de la matière, n’évoluent pas comme un système classique, où les quantités d’énergie échangées peuvent prendre n'importe quelle valeur. Pour un système quantique, l’énergie s’échange par valeurs discrètes ou « quanta ».
Par ailleurs, la physique classique décrit différemment un corpuscule (atome, particule) et une onde (lumière, électricité) tandis que la mécanique quantique confond les deux descriptions : un photon, un électron, un atome ou même une molécule sont à la fois onde et corpuscule.
Si, en physique classique, l’état d’un système est parfaitement défini par la position et la vitesse de l'ensemble de ses composants– il ne peut être alors que dans un seul état à un moment et à un endroit donné, il n’en va pas de même en physique quantique. Un système quantique, tel qu'une simple onde-corpuscule, peut se trouver dans une superposition cohérente d'états, qui traduit la potentialité de tous ses états possibles. Sa présence à un endroit donné, son énergie deviennent alors probabilistes : ainsi, un atome peut être à la fois dans son état fondamental stable et dans un état excité (c’est-à-dire possédant une énergie supérieure, acquise par exemple par l'absorption d'un photon). Un photon peut être à un endroit et à un autre en même temps. On ne peut être certain qu'il est en un seul lieu que si l'on effectue une mesure. Le processus de mesure impose alors à l’onde-corpuscule un état défini.
De ces découvertes, qui forment la première révolution quantique, découlent un certain nombre d’applications encore utilisées aujourd’hui : les lasers, les circuits intégrés ou encore les transistors, à la base du fonctionnement des appareils électroniques notamment.


LE CHAT DE SCHRÖDINGER

Le physicien Schrödinger a utilisé une image devenue célèbre pour mettre en avant le côté paradoxal d’objets dont on ne peut pas connaître l’état à tout moment. Il a imaginé un chat « quantique », enfermé dans une boîte sans fenêtre en présence d’un poison déclenché par un processus quantique. Tant que la boîte n’est pas ouverte, on ne sait pas si le processus quantique a déclenché le mécanisme, le chat est à la fois mort et vivant avec des probabilités dépendant du processus. Bien sûr, quand on ouvre la boîte le chat est soit mort, soit vivant. En regardant à l’intérieur, on fait une mesure qui nous permet de connaître l’état quantique du système.


À QUOI SERT
LA MÉCANIQUE QUANTIQUE
AUJOURD’HUI ?
Quelques effets sont emblématiques de la mécanique quantique :
*         L’effet laser est obtenu dans un système où les électrons sont majoritairement dans un même état excité et se désexcitent tous ensemble en émettant cette lumière intense. Cette transition des électrons d'un niveau d'énergie à un autre est un processus quantique.
*        
*         La supraconductivité est la disparition de toute résistance électrique dans un conducteur. Elle apparaît lorsque les électrons, portant une même charge électrique, peuvent s’apparier et se condenser dans un unique état quantique.
*        
*         L’effet tunnel permet à des électrons de franchir une « barrière » de potentiel ce qui est strictement interdit en physique classique.
*        
*         Le spin est une propriété quantique sans équivalent classique, à l'origine des propriétés magnétiques de la matière.
*        
Des physiciens cherchent à exploiter la richesse des états quantiques et à maîtriser leur mesure dans la perspective encore lointaine d’un ordinateur quantique.

Depuis le début des années 1980, la physique quantique a pris un nouveau tournant : c’est la deuxième révolution quantique, qui se poursuit encore aujourd’hui. En 1982, le physicien Alain Aspect et son équipe parviennent à démontrer la réalité du principe d’intrication quantique, concept fondamental de la physique quantique. Par ce phénomène, proposé dans le courant des années 1930 par Erwin Schrödinger et Albert Einstein, les particules constituant un système sont liés, et le restent quelle que soit la distance qui les sépare. Ainsi, pour une paire de photons, une mesure faite sur l’un modifiera instantanément l'état du second, même s'ils sont séparés d'une longue distance (le record de distance pour l'observation de l'intrication de deux photons a été atteint en 2020 dans le domaine de la cryptographie quantique : des physiciens chinois ont pu échanger un message secret sur 1 120 km). Cette propriété pourrait avoir des applications importantes dans le domaine de l’information quantique : cryptographie, téléportation de l'information ou encore l’ordinateur quantique.
Et le champ d’application de la physique quantique va bien au-delà : le formalisme de la mécanique quantique est utilisé par les chercheurs en nanosciences (chimie, optique, électronique, magnétisme, physique de l’état condensé) et par les physiciens des lois fondamentales de l’Univers (particules, noyau atomique, cosmologie).



ET DEMAIN,
LA MÉCANIQUE QUANTIQUE ?
Les théories décrivant trois des quatre interactions fondamentales de l’Univers sont développées dans le cadre de la mécanique quantique :
*         l’interaction forte qui lie les composants du noyau entre eux,
*         l’interaction faible à l’origine de certaines formes de radioactivité,
*         l’électromagnétisme qui régit les phénomènes lumineux, électriques et magnétiques.
*        
La quatrième interaction, la gravitation, est expliquée par la relativité. Jusqu’à présent, dans les domaines d’énergie et d’espace que l’homme a pu explorer, il n’a pas été nécessaire de « quantifier » la gravitation.
De nombreux physiciens cherchent cependant à unifier ces deux théories pour embrasser les lois de l’Univers de manière plus simple et complète.

Mécanique quantique et relativité
En mécanique quantique, temps et espace sont différenciés. Dans la théorie de la relativité, le temps et l’espace forment une seule entité : l’espace-temps, et matière et énergie sont liées. La mécanique quantique relativiste et la notion de champ sont à la base de la "théorie des champs" qui permet de comprendre les phénomènes de physique des hautes énergies au sein des accélérateurs de particules, ou encore les phénomènes de physique de la matière condensée : supraconductivité, effet Hall quantique, ou la superfluidité.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Les diverses sources d'énergie

 

 

 

 

 

 

 

Qu’est-ce que l'énergie ?


Concept abstrait, l'énergie vient du mot grec "energia" qui signifie "force en action".


Publié le 1 juillet 2012
   
L'ÉNERGIE PLUS OU MOINS ÉLEVÉE
L’existence de l’énergie peut apparaître sous des masques divers et on peut ainsi sentir de quelle manière elle dépend de la situation. Une voiture possède une énergie d’autant plus élevée qu’elle roule plus vite ; cette énergie est inférieure à celle d’un camion allant à la même vitesse. Un ressort, lorsqu’il est comprimé, a une énergie plus grande que lorsqu’il est détendu. L’énergie d’une pile électrique avant sa mise en service est plus grande que lorsqu’elle est déchargée. L’énergie d’une casserole d’eau augmente lorsqu’on la chauffe.
L’énergie se présente ainsi sous des formes très diverses. Pour chacune d’entre elles, les comparaisons effectuées montrent que l’énergie d’un système physique dépend de l’état dans lequel il se trouve. Dans les exemples ci-dessus, cet état est caractérisé par la vitesse et la masse du véhicule, la déformation du ressort, la charge. Nous allons le voir, les divers types d’énergie peuvent, au moins partiellement, prendre bien d’autres formes. Ces transformations de l’énergie sont utilisées dans la vie courante, mais chacune d’entre elles génère des pertes.

*         Voir l'animation "Où sont les sources d'énergie ?"

Animation
Les diverses sources d'énergie




Les diverses sources d'énergie

L'ÉNERGIE SE TRANSFORME

L’énergie peut se transmettre d’un système à un autre : sous forme de chaleur, elle passe d’un radiateur à l’air d’une pièce. Elle peut aussi se transformer en changeant de nature. Dans un jouet mécanique, le ressort se détend en provoquant un mouvement. L’énergie associée au mouvement d’un vélo se transforme, lorsqu’on freine, en chaleur communiquée aux patins des freins et à la jante des roues. L’énergie emmagasinée dans une pile de lampe de poche se change, lorsqu’on ferme le circuit, en énergie électrique ; celle-ci se convertit à son tour dans l’ampoule en énergie lumineuse et calorifique. Dans une centrale thermoélectrique, l’énergie stockée dans le carburant (énergie chimique dans le charbon et le pétrole, ou énergie nucléaire dans l’uranium) est transformée (par combustion ou par réaction nucléaire) en chaleur ; puis une partie de cette chaleur est récupérée dans les turbines sous forme mécanique ; enfin, cette énergie mécanique est convertie en énergie électrique dans les alternateurs.
C’est à travers de telles transformations ou de tels transferts que l’énergie se manifeste à nous.

L'ÉNERGIE SE CONSERVE
La caractéristique la plus remarquable de l’énergie est qu’elle se conserve toujours. Lorsqu’elle est transférée d’un système à un autre, ou lorsqu’elle change de nature, il n’y a jamais ni création ni destruction d’énergie. Si un objet a perdu de l’énergie, la même quantité d’énergie a obligatoirement été gagnée par un autre objet en communication avec le premier. De même, lorsque l’énergie change de forme, le bilan est toujours exactement équilibré.

L’énergie se conserve : rien ne se perd, rien ne se crée. C’est le premier principe de la thermodynamique.

C’est donc par abus de langage que les journaux, les économistes ou les hommes politiques parlent de “production d’énergie”, ou de “pertes d’énergie”, puisque l’énergie ne peut être ni créée ni perdue. En réalité, dans une centrale thermoélectrique, on ne “produit” pas d’énergie, mais on transforme de l’énergie chimique ou nucléaire en énergie électrique et calorifique. Le bilan global de cette conversion est caractérisé par un rendement. Celui d’une centrale représente 33 %, ce qui signifie que pour envoyer sur le réseau 33 unités d’énergie électrique, il a fallu consommer 100 unités d’énergie nucléaire, tout en dégageant 67 unités de chaleur ; cette chaleur, évacuée dans l’environnement, par exemple par la vapeur d’eau sortant des tours de refroidissement, est donc, en général, perdue pour nous. Certaines centrales en récupèrent toutefois une partie pour chauffer des habitations ou des serres.
Nous verrons plus loin que, si l’énergie se conserve toujours, ses diverses formes ne sont pas équivalentes, car toutes les transformations concevables ne sont pas réalisables.

L'ÉNERGIE SE MESURE
C’est la propriété de conservation de l’énergie qui nous permet de mesurer, à l’aide d’une seule et même unité, les diverses formes de l’énergie. L’énergie, dite cinétique, associée au mouvement d’un objet de masse “m” et de vitesse “v” vaut E = 1/2 mv2 ; lorsque la masse est exprimée en kilogrammes et la vitesse en mètres par seconde, cette formule donne l’énergie en joules (J), unité légale dans le système international.
À l’époque où l’on n’avait pas encore reconnu que la chaleur était une forme de l’énergie, l’étude des échanges thermiques avait conduit à introduire une unité de chaleur, la calorie, définie comme la quantité de chaleur à fournir à 1 gramme d’eau pour élever sa température de 1 degré Celsius. L’expérience a montré que les transformations d’énergie mécanique en chaleur, ainsi que les transformations inverses, se faisaient toujours avec le même rapport, à savoir 1 calorie pour 4,18 joules. Il y a donc équivalence entre ces deux formes d’énergie (mécanique et chaleur). Ceci a permis d’abandonner la calorie et de mesurer la chaleur et toutes les autres formes d’énergie, en joules.

L'Américain consomme en moyenne environ deux fois plus d’électricité que le Français, lequel consomme quatorze fois plus d’électricité que l’Africain.

LA PUISSANCE
Les échanges d’énergie sont caractérisés, non seulement par la quantité d’énergie transférée ou transformée, mais aussi par la durée du processus. La notion de puissance est ainsi définie comme une quantité d’énergie échangée par unité de temps. L’unité de puissance, le watt, est donc le joule par seconde. Un radiateur électrique de 1 500 W consomme durant chaque seconde une énergie électrique de 1 500 J, et par suite, durant chaque heure (3 600 secondes), une énergie électrique de 3 600 x 1 500 J = 5 400 000 J, transformée en énergie calorifique.
Cet exemple montre que le joule est une unité d’énergie trop petite pour nos usages courants. On emploie souvent en pratique le kilowattheure (kWh), quantité d’énergie mise en jeu par un appareil d’une puissance de 1 000 W pendant un délai d’une heure. Ainsi, 1 kWh vaut 3 600 x 1 000 J = 3 600 000 J. Le radiateur électrique considéré ci-dessus consomme, en une heure de fonctionnement, 1,5 kWh et rayonne évidemment pendant la même durée une énergie calorifique de 1,5 kWh.
La consommation annuelle moyenne d’électricité par habitant en France est de plus de 7 000 kWh, le double aux États-Unis, soit 14 000 kWh, et en Afrique un peu plus de 500 kWh. Les trois quarts de l’électricité produite en France sont d’origine nucléaire, le dernier quart se partageant entre hydroélectrique et thermique (charbon, pétrole). Mais cette électricité représente elle-même moins de la moitié de notre consommation totale. Le reste fait appel à une utilisation directe de pétrole (essence, fioul), de gaz et de charbon ; le tiers de nos besoins concerne, en effet, le chauffage des locaux, et le quart concerne les transports.

 

   DOCUMENT     cea         LIEN

 
 
 
 

COMMENT LES RÉVOLUTIONS DE L'INFORMATION ET DES COMMUNICATIONS ONT-ELLES ÉTÉ POSSIBLES ?

 

 

 

 

 

 

 

  VIDEO       CANAL  U         LIEN 

COMMENT LES RÉVOLUTIONS DE L'INFORMATION ET DES COMMUNICATIONS ONT-ELLES ÉTÉ POSSIBLES ?

Les révolutions de l'information et des communications vont continuer à bouleverser tous les domaines de l'activité humaine. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons ou de photons et de la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage.

Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût, fiabilité, rendement de fabrication.
Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer.

Texte de la 225e conférence de l’Université de tous les savoirs donnée le 12 août 2000.
Comment les révolutions de l'information et des communications ont-elles été possibles ? Les semi-conducteurs
par Claude Weisbuch
Introduction
Les révolutions de l'information et des communications, issues des découvertes sur les semi-conducteurs, sont un des faits marquants du siècle passé et vont continuer à bouleverser dans ce nouveau siècle tous les domaines de l'activité humaine.
Le comité Nobel a rendu hommage en cette année 2000 aux pionniers qui ont rendu possible ces révolutions : après le prix Nobel de Bardeen, Brattain et Shockley en 1956 pour l'invention du transistor, c'est Kilby d'une part, Alferov et Kroemer d'autre part, qui sont récompensés respectivement pour l'invention du circuit intégré, à la base de l'explosion de la micro électronique, et pour celle des hétérostructures semi-conductrices, qui permettent, entre autres, d'obtenir des lasers pour télécommunications. Ce prix Nobel est remarquable à plus d'un titre, en particulier parce qu'il récompense des inventions, qui ont été signifiées par des brevets (pour Kilby et Alferov), et non des découvertes scientifiques au sens habituel du terme, annoncées dans des revues scientifiques évaluées par les pairs.
Les semi-conducteurs, et leur mise en œuvre dans les transistors, les lasers et les circuits intégrés, tiennent ainsi une place particulière dans les grandes découvertes du XXe siècle, à cause de leur impact jusque dans nos modes de vie. Il y a bien d'autres raisons qui ajoutent à la place essentielle du domaine dans l'histoire des sciences et des techniques :
C'est un domaine technologique complètement né de la compréhension fondamentale de la matière solide. Aujourd'hui, les milliards de composants fabriqués chaque seconde opèrent exactement comme prévu par les modèles physiques microscopiques utilisés dans les programmes de conception de circuits.
Inversement, depuis quelques années, la technologie des circuits intégrés permet d'explorer de nouveaux champs fondamentaux. C'est ainsi que l'effet Hall quantique dans les hétérostructures a déjà donné lieu à deux prix Nobel. Il y en aura certainement encore d'autres basés sur les semi-conducteurs et leurs structures.
Le domaine est né d'une recherche fondamentale à long terme, effectuée dans un laboratoire industriel. Cette expérience a longtemps été à la base du paradigme, accepté jusqu'au début des années 80, selon lequel l'industrie devait faire elle-même de la recherche fondamentale.
Il y a un étonnement renouvelé devant le progrès exponentiel ininterrompu (fig.1), à la fois en performance et en coût.
Le domaine a ouvert de nouveaux champs industriels menant à un renouvellement des entreprises industrielles les plus importantes, et a donné naissance à ce qu'on appelle la nouvelle économie. De plus, son impact se retrouve dans tous les secteurs d'activité, industriels ou de service, à cause de son caractère de technologie diffusante, transverse.
Le domaine a été à l'origine de nouvelles formes d'organisations et dynamiques industrielles. La Silicon Valley tire son nom des entreprises de microélectronique en Silicium, basées autour de San Francisco et de l'Université de Stanford. Ces entreprises ont défini un nouveau paradigme industriel, basé sur l'essaimage et la mobilité des personnes (la première entreprise, celle de Shockley est née des laboratoires Bell; des transfuges de Shockley ont créé Fairchild, puis Intel). On peut tracer des liens d'hérédité entre des centaines d'entreprises de la Silicon Valley. Une autre caractéristique est la rapidité de développement des nouveaux produits et des entités industrielles de la nouvelle économie.
Ces révolutions de l'information et des communications sont nées du codage de l'information sous forme de paquets d'électrons (les « grains » d'électricité) ou de photons (les « grains » de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information, le « bit »), et la capacité de manipuler et transmettre ces paquets d’électrons ou de photons de manière de plus en plus efficace et économique.
On nous annonce une société passant de biens matériels à l'immatériel, la « société de la connaissance ». Cela peut être discuté, mais du point de vue physique il est vrai que les quantités portant l'information sont très petites : La plus grande bibliothèque du monde, celle du Congrès à Washington, a vingt millions de volumes. Si on considère qu'un livre est codable sur 50 millions de bits, il faut 1015 bits pour coder tous les livres1. Si on code chaque bit par la présence ou l'absence de la charge électrique de 10 000 électrons, la bibliothèque est portée par 1019 électrons, soit les électrons qui sont transportés dans un courant de 1 ampère en une seconde ! À notre échelle de tous les jours, le codage de l'information nécessite effectivement une quantité infime de matière. C’est pour cela que la manipulation en est facile et efficace. La capacité de communiquer l’information, grâce aux télécommunications, n’est pas en reste : une seule fibre optique, alimentée par des lasers à semi-conducteurs, transmet aujourd'hui 3 1012 bits (3 terabits) par seconde. Il faut donc 300 s pour transmettre toute la librairie du Congrès ! Pour prendre la réelle mesure de la révolution de l'information, il suffit de considérer la quantité d'informations produites chaque année2 sous forme de livres et journaux, images fixes ou animées (films), données sur CD-Rom ou disques magnétiques (c'est ce dernier type d'archivage qui est le plus important) : 2 attobytes (1 byte = 8 bits)( dont 0,003 % seulement sous forme imprimée), soit 350 gigabytes par habitant de la terre !
Tout cela a été rendu possible par les progrès des composants et systèmes semi- conducteurs, liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la « puce », et de miniaturisation. Une des immenses surprises aura été le caractère « vertueux » de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en 35 ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, en réduction de coût (la puce de plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les années 60), en fiabilité, en rendement de fabrication.
Ce type de progrès exponentiel ne peut pas continuer indéfiniment. Le problème des limites physiques se pose de plusieurs manières : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a-t-il des matériaux autres que les semi-conducteurs qui permettraient d'aller au-delà des limites physiques, ou bien encore existe-t-il d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant ainsi à "refonder" un domaine d'activité immense qu'il a contribué à créer.
Aux origines des révolutions de l'information et des communications : la physique quantique des solides
1 La notation scientifique et les unités de longueur
Pour représenter des grandeurs extrêmes, on utilise la notation dite scientifique, comprenant le chiffre 10 et un exposant: ce chiffre en exposant signifie le nombre de zéros à mettre dans une notation normale après le chiffre 1 : 103 = 1 000 ; 106 = 1 000 000. Si l'exposant est négatif, il faut prendre l'inverse du nombre avec le même exposant positif : 10-3 = 1/103 = 1/1 000.
Les préfixes : Méga dénote la puissance +6, Giga la puissance +9, ainsi 20 Gigabit valent 20 milliards de bits ; le préfixe Téra dénote la puissance +12, soit 1 000 Giga-- ; Petta la puissance +15, atto la puissance
+18.
-Unités de longueur : le micromètre (ou micron) = un millionième de mètre. On le note 10-6 m, symbole
μm (un cheveu a un diamètre de 100 μm). L’angström, symbole Å, vaut un dix millionième de millimètre, soit 10-10 m Il représente l'ordre de grandeur de la distance entre atomes dans les cristaux solides, typiquement 3 Å.
2 voir http://www.sims.berkeley.edu/how-much-info/index.html
À la base de la capacité à stocker, manipuler et transmettre l'information se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés « classiques » médiocres, que ce soit mécaniques, thermiques, optiques ou électriques. Comment en est-on arrivé à définir une catégorie de matériaux, les semi- conducteurs, qui ne sont ni « bons » conducteurs (métalliques), ni « bons » isolants ! Ces matériaux ont longtemps mystifié ceux qui s'intéressaient à eux : contrairement aux métaux, leur conductivité s'améliore avec la température; de plus, et là aussi contrairement aux métaux, leur médiocre conductivité à l'état pur s'améliore grandement si on leur ajoute des impuretés chimiques choisies (les « dopants »).
C'est justement les propriétés conductrices moyennes des semi-conducteurs, basées sur des quantités faibles de charges mobiles, qui les rendent « commandables ». Leur capacité à changer de conductivité électrique, devenue « contrôlée » par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors les effets d'amplification et d'interrupteur du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications.
La compréhension de ces phénomènes a constitué le grand triomphe de l'application de la mécanique quantique au mouvement des électrons dans les solides cristallins : la résolution des équations de la mécanique quantique pour des électrons se propageant dans l'arrangement périodique des ions d'un cristal a montré que leurs énergies possibles se répartissaient en bandes d'énergie ayant une certaine mémoire des niveaux d'énergie des atomes constituant le cristal. Chaque bande dans un cristal comportant N atomes aura vN places pour des électrons (« états quantiques » dans le langage de la mécanique quantique) dans chaque bande, si v est le nombre de niveaux permis dans le niveau de l'atome de départ (fig. 2a). Suivant les positions de ces bandes d'énergie et le nombre d'électrons des atomes, en particulier ceux des électrons les moins liés au noyau (les électrons de « valence », assurant donc les propriétés chimiques) on va remplir entièrement ou non les bandes d'énergie permises par les électrons disponibles, à partir de l'énergie la plus basse (fig. 2b). Si les derniers électrons sont dans une bande où il reste dans le voisinage des places vides à plus haute énergie, un champ électrique appliqué pourra donner une impulsion et une énergie cinétique aux électrons. Il y aura conductivité électrique métallique. Si les électrons de valence du matériau remplissent complètement les bandes, ils ne peuvent pas prendre de l'énergie sous l'action d'un champ électrique appliqué. On a donc affaire à un isolant. On conçoit bien que pour des espèces chimiques différentes, ayant de très petites différences entre les niveaux d'énergie des atomes isolés de départ, on aura au final des matériaux solides isolants ou conducteurs, donc avec des propriétés électriques très différentes.
Les semi-conducteurs, dans cette description, sont en fait des isolants à faible « bande interdite » entre les derniers niveaux occupés de la bande de valence et les niveaux immédiatement supérieurs de la prochaine bande d'énergie permise, appelée bande de conduction. Du coup, certains électrons peuvent être excités de la bande de valence, dans laquelle ils laisseront un « trou », vers la bande de conduction (fig. 2b, 3d). Plus la température est élevée et plus il y a de tels électrons et trous, qui donc assurent une conductivité plus grande. Ainsi s'explique le mystère de la conductivité des semi-conducteurs qui augmente avec la température (celle des métaux baisse à cause de l'agitation thermique des ions du cristal qui empêche la propagation des électrons, phénomène aussi présent dans les semi-conducteurs mais dont l'effet est masqué par la bien plus importante augmentation du nombre de charges conductrices). Le trou laissé dans la bande de valence a une conductivité qui semble être due à une charge positive, car le déplacement apparent dans un champ
électrique a lieu en sens inverse de celui des électrons (figure 3c). Cette explication de la conductivité apparente de certains matériaux par le « trou » de charge apparemment
« positive » dans une bande d'énergie presque pleine résout un des grands mystères des solides, car on savait depuis J. J. Thomson que les charges légères et mobiles étaient des électrons négatifs !
La propriété supplémentaire qu'ont les semi-conducteurs est leur conductivité
« commandable» par incorporation d'impuretés choisies : comme le Silicium, matériau de base pour la microélectronique, a quatre électrons de valence, le fait d'incorporer des atomes ayant trois ou cinq électrons de valence (le bore ou le phosphore respectivement) va entraîner un manque ou un excès d'électrons par rapport au nombre qui remplit exactement la bande de valence pour du Silicium pur. Ceci se traduit par des niveaux d'énergie « permis » dans la bande « interdite », près de la bande de valence ou de conduction, qui vont relâcher des trous ou des électrons, en nombre exactement égal au nombre d'atomes dopants que l'on aura introduits. (fig. 3e, 3f) On imagine sans peine à quelles erreurs cet effet de dopage a pu donner lieu : pour des métaux, la conductivité augmente avec la pureté, car il y a moins d'ions étrangers pour s'opposer au passage du courant. Dans des semi-conducteurs, au contraire, la conductivité augmente avec les impuretés dopantes ! Tel chercheur croyait avoir un matériau pur parce qu'il conduisait bien alors qu'il était fortement dopé. Tel autre purifiait son matériau, s'attendant à le voir mieux conduire, et il devenait quasiment isolant !
Avec cette compréhension des semi-conducteurs dès 1930, fondée sur la mécanique quantique des solides cristallins, on avait les bases pour faire des composants électroniques. Il faudra cependant attendre 1947 pour que le transistor voie le jour.
Du semi-conducteur au transistor et au circuit intégré
Le transistor
On a eu l'idée d'interrupteur (relais électrique) solide commandé par une tension électrique appliquée dès le début du siècle, avec des brevets décrivant correctement le fonctionnement du transistor à effet de champ dès 1923 (fig. 4). Cet effet « transistor », c’est- à-dire le contrôle d'un courant à travers un morceau de matériau semi-conducteur par une tension appliquée sur une grille de commande, a cependant nécessité de longs travaux dans les années 30 et 40. Il a fallu maîtriser la purification des semi-conducteurs, et l'incorporation contrôlée de dopants. Plus fondamentalement, il a fallu comprendre les barrières d'énergie existant dans les semi-conducteurs dopés de manière inhomogène, ou bien encore celles qui sont situées aux interfaces métal/semi-conducteur, ainsi que les effets de surface, qui tendaient à masquer tous les autres phénomènes.
C'est par une démarche délibérée de recherche d'un tel relais solide que les laboratoires Bell, d'American Telegraph and Telephone (ATT), monopole américain des télécommunications, se sont lancés dans l'aventure du transistor dès 1936. Leur analyse montrait que l'accroissement du trafic téléphonique serait tel que les réseaux seraient constamment en panne vu leur taille et la mauvaise fiabilité des commutateurs, qu'ils soient à relais électromécaniques ou à tubes à vide. Il fallait des interrupteurs hautement fiables basés sur un nouveau concept physique. Le transistor a donc été inventé dans une entreprise de télécommunications grâce à un programme de recherche à long terme et à haut risque, pour satisfaire ses besoins, en lançant une recherche fondamentale de très grande ampleur puisqu'il a fallu comprendre complètement nombre de nouveaux phénomènes en physique et en chimie des matériaux semi-conducteurs. Il ne pouvait être inventé dans une entreprise d'ordinateurs tout simplement parce qu'ils n'existaient pas à l'époque.
Le transistor et l'ordinateur
Le domaine où les progrès induits par les transistors, puis les circuits intégrés, ont été le plus spectaculaires est sans doute celui des ordinateurs. Ce n'était pas clairement un impact attendu, les grands patrons de l'industrie se trompant parfois lourdement : Thomas Watson, PDG d'IBM, déclarait en 1943 que le marché mondial des ordinateurs serait de cinq unités. Ken Olsen, PDG de Digital, l'entreprise phare des Miniordinateurs, déclarait en 1977 qu'il ne voyait pas pourquoi les gens auraient des ordinateurs chez eux.
Ce sont les progrès de la microélectronique qui ont généralisé les ordinateurs dans un premier temps, puis rendu accessibles l'ordinateur personnel, et les services associés comme le courrier électronique ou le web. Ces progrès ont été rendus possibles par la physique des composants. C'est qu'elle est particulièrement bien adaptée à la réalisation des fonctionnalités indispensables dans un ordinateur : rappelons que pour faire un ordinateur, il faut à la fois de la mémoire (pour stocker les programmes, les données d'entrée et les résultats de calcul) et une capacité de logique combinatoire (pour effectuer des calculs)(fig. 5). Le transistor permet de construire à la fois la fonction mémoire et la capacité logique nécessaires, car il peut fonctionner comme un bon interrupteur. Comme on le démontre à partir de l'algèbre de Boole, c’est-à-dire la combinatoire d'opérateurs logiques comme la porte « ET » de la figure 5, des interrupteurs associés à des résistances permettent de réaliser toute opération logique. Associé à un condensateur, un transistor fonctionnant en interrupteur permet aussi de réaliser un élément mémoire : c'est le principe des mémoires « dynamiques » DRAM (fig. 5).
Pourquoi dit-on que la physique des composants à semi-conducteurs est bien adaptée ? C'est que l'on peut réaliser cette fonctionnalité d' interrupteur de manière quasi-parfaite, c’est- à-dire en consommant peu d'énergie et en isolant le courant contrôlé par l'interrupteur de la commande de cet interrupteur : on dit que la « sortie » du composant ne réagit pas sur
l' « entrée ». Pour cela, le matériau isolant entre grille de commande et canal conducteur (fig. 4) est déterminant pour la qualité du transistor. Il a fallu attendre 1960 pour enfin avoir un isolant de la qualité voulue, alors que les essais de fabrication des transistors à « effet de champ » avaient débuté dès 1930. Une autre propriété très importante des transistors est que chacun d'eux peut commander plusieurs autres transistors, avec une tension qui est référencée à la tension d'alimentation (cf. la tension de « sortie » de la porte « ET » de la figure 5), et non pas à la tension de commande (« 0 » ou « 1 »). On peut donc mettre en cascade des milliers de composants sans dégradation du signal de commande.
Le circuit intégré
Le circuit intégré n’est pas un concept aussi fondamental que le transistor : son invention résulte de l'association d’éléments déjà connus, sinon maîtrisés, en réponse à un besoin pratique. Kilby, prix Nobel 2000, l'a décrit dans un brevet et des conférences, pas dans une revue scientifique.
Dès l'invention du transistor, celui-ci remplace le tube à vide dans les appareillages électroniques, et les ingénieurs utilisent ses propriétés remarquables : miniaturisation, grâce à des techniques de micro fabrication, conception de très grands systèmes grâce à une meilleure fiabilité des composants, à leur petite taille et surtout à leur faible consommation énergétique. Cette course à la miniaturisation est suscitée par des besoins, comme ceux des grands centraux téléphoniques, des très grands ordinateurs, ou encore le besoin des militaires de disposer d'électronique « portable » pour les communications, les missiles ou les satellites.
Pour toutes ces applications, on tente d'assembler, de façon compacte, le plus grand nombre de composants possible, par des techniques dites « hybrides » : chaque composant (résistance, diode, condensateur, transistor, inductance) est fabriqué dans un matériau différent, et ils sont reliés, mécaniquement et électriquement, par d'autres matériaux encore. Cette approche hybride rencontre toutefois une limitation importante. Tandis que la fiabilité
des transistors a beaucoup augmenté, celle des soudures des fils qui assurent la liaison électrique entre ceux-ci plafonnent. Devra-t-on se contenter de circuits comportant au mieux quelques centaines de composants, qui ne nécessiteraient que quelques milliers de soudures ?
Quelques visionnaires proposent alors de fabriquer tous les composants électroniques avec un seul matériau, le semi-conducteur, qui servirait aussi de support, d'où le terme de
« monolithique » (« une seule pierre »). J. Kilby, en mai 1958, conçoit une méthode pour réaliser les différents éléments de circuits (résistances, condensateurs et transistors) par attaque chimique localisée du silicium. La composition chimique verticale du Silicium (on a incorporé lors de la croissance du cristal de silicium des impuretés chimiques qui dopent la conductivité), la profondeur de l'attaque et la géométrie des motifs attaqués déterminent les différents composants. Ce travail est suivi de près par celui de Robert Noyce, de la société Fairchild Electronics (il fondera plus tard Intel). Noyce décrit aussi un circuit intégré, mais, en plus, il propose la bonne méthode de fabrication : le procédé « planar ». Il reprend une idée développée chez Bell : l’utilisation de la silice SiO2 comme masque de fabrication à cause de ses excellentes propriétés d'adhésion et d'isolation chimique : elle forme une espèce de cocon protégeant la partie de la puce qui n'est pas traitée dans l'opération (cf. infra figure 6).
Bien qu'il réponde à des besoins très concrets, le circuit intégré ne s’est pas imposé facilement. Au contraire ! La plupart des entreprises fabriquant des tubes à vide s’étaient mises à fabriquer des transistors, mais peu ont fait le saut vers les circuits intégrés : le bouleversement conceptuel était bien plus grand. Les transistors remplaçaient en effet les tubes « composant pour composant ». C’était simple et évident à faire. Au contraire, l’intégration monolithique se heurtait à plusieurs objections très pertinentes. D'abord, elle utilisait le très coûteux matériau semi-conducteur pour des fonctions peu nobles, de support par exemple. Ensuite, elle obligeait à des compromis sur les géométries et les compositions des composants : chacun était moins performant que s'il était fabriqué séparément. En outre, le rendement allait être bas, puisqu’on devait avoir d’un seul coup un ensemble de bons composants. Enfin, alors que l’on avait besoin de multiples fonctionnalités dans les assemblages de composants, que l’on pouvait concevoir et réaliser à la demande par l'approche hybride, il semblait impossible de satisfaire la variété de besoins par des circuits intégrés, à la fonctionnalité figée.
On sait ce qu’il en advint : l’intégration permit au contraire de franchir ces limitations, et d’aller bien au-delà. On utilise aujourd’hui des plaquettes de silicium de 30 centimètres de diamètre, ensuite découpées en une ou quelques centaines de « puces », sur lesquelles on fabrique en une trentaine d'opérations de base des centaines de milliards de composants ! On utilise en fait fort efficacement la surface, relativement coûteuse du silicium, grâce à l’extraordinaire miniaturisation, impossible à atteindre pour des composants discrets (ne serait-ce que parce que l'on ne pourrait pas manipuler des composants aussi petits que ceux qui sont intégrés). On fabrique de manière très contrôlée (propreté, conditions chimiques de surface, préparation des matériaux, ...) et à l’identique des milliards de contacts électriques, qui du coup sont tous bons ! Ces performances ont nécessité de nombreuses recherches et un long apprentissage pour maîtriser parfaitement les procédés industriels. Mais il est aujourd'hui patent que l'intégration a multiplié les rendements et la fiabilité par plusieurs milliards. Incidemment, le coût a baissé dans les mêmes proportions : un circuit intégré, comportant bientôt un milliard de transistors, coûte aujourd'hui une dizaine de dollars, autant qu'un transistor dans les années 1950.
Quant au problème de la fonctionnalité limitée, il a été résolu en deux temps : au début des circuits intégrés, on ne réalisait que des fonctions universelles simples, les portes logiques (comme celle de la fig. 5), dont l'assemblage permettait de constituer de grands ensembles fonctionnels, tels des commutateurs téléphoniques ou des ordinateurs. Compacts, ces circuits étaient aussi très fiables. Comprenant quelques dizaines de composants élémentaires, ils contribuaient déjà fortement à l’augmentation de rendement de fabrication des ensembles, en
diminuant le nombre de soudures à effectuer. La grande révolution est cependant arrivée par le microprocesseur : au lieu de produire une fonctionnalité par assemblage d’éléments physiques, on la programme. Le microprocesseur est multifonctions, multi-applications. Bien entendu, un tel système est loin d’être optimum dans l’utilisation des composants électroniques, mais comme le coût de ceux-ci s'est effondré, ce n'est plus très important.
La course à la miniaturisation et ses limites
Les principes de la fabrication
Le procédé de fabrication par lithographie s'apparente à l'imprimerie (fig. 6) : on commence par dessiner les différents éléments de même nature que l'on pourrait fabriquer lors d'une même opération. Puis on projette optiquement cette image sur un matériau photosensible déposé sur la puce (le morceau de silicium portant le circuit intégré). Ce matériau est ensuite attaqué chimiquement de manière sélective pour transformer l'image originelle en matériau structuré. Il sert à définir les régions de la surface de la puce où l'on va opérer l'opération de fabrication voulue, par exemple un dépôt localisé de métal là où le matériau photosensible a été enlevé. On a donc transformé une image de la fonction
« connectique » entre composants d’une puce en un ensemble de conducteurs sur la puce. On réalise de la même manière toutes les incorporations de matériaux structurés nécessaires à la puce telles que dépôt d'isolants, incorporation localisée d'impuretés chimiques dans le semi- conducteur, etc.
La fabrication des condensateurs, des transistors et de la connectique des circuits intégrés devient donc une succession d'opérations répétitives : fabrication d'une couche sur la plaquette de Silicium, transfert d'une image et révélation de cette image par un procédé chimique. A chacune de ces images correspond le transfert spatial des éléments constituant les circuits intégrés : isolants, dopages en espèces chimiques, métaux de contact et d’interconnexion, etc. Aujourd'hui, la fabrication d'un composant semi-conducteur comporte 25 étapes principales (correspondant à autant de masques, images des motifs à reporter sur le composant), se décomposant en 600 étapes élémentaires qu'il faut réaliser parfaitement.
Les lois de la miniaturisation
Il ne faudrait pas croire que les progrès de la miniaturisation ont été sans heurts : l'histoire des semi-conducteurs est marquée par une succession de crises. La première crise remonte à 1962, déjà ! Elle était liée aux limites technologiques qui freinaient le développement de la lithographie. Dans les années 70, on s’inquiétait des erreurs de mémorisation dues aux rayons cosmiques absorbés dans les mémoires. Autre sujet de crise en 1982 : l'interconnexion entre éléments commence à son tour à poser problème car on peine à faire des connexions de taille micronique sans défauts.
Il y a aujourd'hui moins de crises, pour deux raisons : d'une part, on connaît les lois d'échelle, qui décrivent le comportement des composants quand on diminue toutes leurs dimensions d'un facteur. D'autre part, aujourd'hui, les industriels travaillent dans le consensus, dans un processus « coopétitif », en coopérant tout en restant des compétiteurs. Ce nouveau comportement, très typique de la nouvelle économie, vient de ce qu'ils se sont rendu compte qu'ils étaient tous gagnants s'ils définissaient ensemble comment l'industrie doit progresser en établissant des objectifs communs de progression, le « roadmap technologique ». Cela permet, en mettant toutes les ressources sur des objectifs techniques communs, de progresser plus rapidement et d'ouvrir de nouveaux marchés.
Les lois d'échelle
Les lois d'échelle sont appliquées lorsque toutes les dimensions ont été réduites d'un facteur α.(figure 7). Les composants sont alors plus rapides puisque les distances que parcourent les électrons sont plus petites. Leur densité surfacique augmente grâce à leur taille diminuée, mais comme chaque composant consomme moins, la puissance dissipée par unité de surface reste constante, ce qui est essentiel. Du coup, au global, la puissance logique a été multipliée par α 3, soit un facteur 1 000 pour une diminution de taille de 10.
Même si la physique du composant, via les lois d'échelle, indique que la miniaturisation est possible, la course vers la réalisation de circuits de plus en plus denses n'en est pas moins difficile : la lithographie des motifs les plus petits à reproduire sur une puce représente une frontière technologique qui se déplace. Aujourd'hui, les lignes de production passent au standard 0,18 micron3. On est très proche des limites physiques de ce que l'optique peut faire, même si les optiques les plus performantes à l'heure actuelle sont de très loin celles qui sont utilisées en microélectronique. Un des verrous technologiques est l’épaisseur de l’isolant en silice située sous la grille : comme l’indiquent les lois d’échelle, il faut diminuer son épaisseur pour poursuivre la miniaturisation (fig.7). Cette épaisseur est de 40 Å aujourd’hui (13 couches atomiques). Pour des épaisseurs plus faibles, on observe à la fois des fluctuations d’épaisseur inacceptables (au moins une couche atomique) et une fonction isolante insuffisante, car des électrons peuvent franchir la barrière de potentiel créée par la silice par effet tunnel, un effet purement quantique. Du coup, un champ d’exploration actuel extrêmement active est celui portant sur la recherche d’isolants meilleurs que la silice (en l’occurrence avec une permittivité diélectrique plus élevée).
Le consensus industriel : le « roadmap »
Actuellement (mi-2000), un microprocesseur ordinaire contient 42 millions de transistors (Pentium IV), et les mémoires en production contiennent 256 Mégabits (fig.1), réalisés au standard de 0,18 microns. Compte tenu des progrès réalisés, le composant électronique individuel (le microprocesseur) a rattrapé les grands ordinateurs, ce qui a bouleversé l'industrie électronique. Notons, par exemple, que dès le début des années 90 un ordinateur personnel avait la puissance de calcul d'un Superordinateur CDC 6600 de 1965, interdit à l'exportation pour des raisons de non-prolifération, ce qui n'avait pas été sans causer quelques frictions entre Français et Américains et avait été une des raisons des plans calculs français.
Ou va-t-on et à quel rythme ? le consensus industriel s'exprime par l’ « International Technology Roadmap for Semiconductors », le « roadmap », qui définit tous les deux ans4 l’évolution technique du domaine et les directions dans lesquelles les acteurs devraient s’engager. La dernière version, publiée à la fin de 1999, donne la vision jusqu’en 2014. Inutile de dire que s’il y a à court terme des solutions en vue pour la plupart des besoins, il y a
3 Les ordres de grandeur
Les grandeurs habituelles ne sont pas bien adaptées à la description d'objets microscopiques. La taille typique de composants miniatures s'exprime en microns (millième de millimètre, cf. note 1). L'unité de charge, le coulomb, lié au courant et à son unité, l'ampère (1A = 1 Cb/s) est énorme par rapport à la charge e de l'électron : 1 e = 1,6 10-19 Cb. C'est pourquoi le nombre de bits que l'on peut coder avec 1 Cb, même en prenant 10 000 électrons par bit, est supérieur à l'ensemble des bits de la librairie du Congrès !
On a le même problème pour représenter les énergies : le Joule représente une énergie énorme comparée à celle qui stocke un bit : E = QV = 104. 1,6.10-19.3 = 5.10-15J, si les 10 000 électrons sont sous 3V. On préfère une autre unité, l'électron-Volt (eV), rapportée à celle de l'électron, pris sous 1 V. 1 eV = 1,6 10-19 Cb.1V =1,6.10-19 J. Dans ce cas, l'énergie pour stocker un bit est de 3.104 eV.
Autre énergie intéressante : l'énergie d'agitation thermique de l'électron, kT, où k est la constante de Boltzmann et T la température absolue (T= 300K à l'ambiante) : kT = 0,025 eV. Bien entendu, kT représente une énergie minimum pour quantifier un bit, pour un système à l'équilibre thermique (ce que n'est pas un ordinateur quantique).
4 voir http://public.itrs.net/Files/1999_SIA_Roadmap/Home.htm
beaucoup d’incertitude à plus long terme, à la fois sur le fonctionnement des circuits, les technologies de fabrication, les rendements et les coûts. Toutefois, la loi empirique de Moore (du nom de l'un des fondateurs d’Intel, qui l'a énoncée dès 1965), selon laquelle le nombre de transistors des circuits intégrés double tous les 18 mois, devrait rester valable pour une quinzaine d'années. Sur cette durée, le progrès est encore remarquable puisqu’en 2014 on commencera à produire en masse, avec des traits de 35 nm, des mémoires de 256 Gigabits et des microprocesseurs comportant 4,4 milliards de transistors !
Les limites de la miniaturisation
À un moment, cette course à la miniaturisation doit s'arrêter : les dimensions deviendront tellement faibles que le transistor ne pourra plus fonctionner. Ces limites physiques à la miniaturisation changent avec le temps, à cause des progrès en composants, qui permettent de s'affranchir de certaines limites, en changeant la structure des transistors par exemple. On évalue cependant à 200 Angströms (un cinquantième de micron) la taille minimum de grille d'un transistor. À cette taille apparaissent un ensemble de limites sur différents paramètres, et les lois d'échelle ne s'appliquent plus. De telles dimensions seront atteintes vers 2020-25. Est-ce à dire que l'on ne continuera pas à miniaturiser après cette
date ? Non, mais on pourrait s'orienter vers d'autres approches. Certains travaillent déjà sur des concepts de composants fonctionnant avec un seul électron, puisque l'extrapolation de la loi de Moore montre que cela sera la charge des composants vers 2025-30 (fig. 8). Bien évidemment, il ne s'agira pas de transistors au sens ou on l'entend aujourd'hui, ne serait-ce que parce que le composant ne pourra pas alimenter plusieurs autres composants : comment pourrait-on partager le seul électron entre ces composants ? Le progrès continuant sans doute, d'une manière ou d'une autre, on pourra acheter vers 2030 l'équivalent du cerveau humain (en termes de puissance de calcul) pour 1000 dollars!5.
En dehors et au-delà du silicium
On l'aura compris : le silicium s'est imposé comme le matériau de choix en microélectronique, à cause de ses nombreuses propriétés : bonne résistance mécanique, pureté extrême, possibilité de masquage par la Silice pendant les opérations de fabrication, excellentes propriétés d'isolation électrique de la silice, etc.
Cependant, toute l'électronique semi-conductrice n'est pas basée sur le Silicium. Il faut distinguer entre les évolutions du Silicium, l'utilisation de matériaux autres que le Silicium le suppléant dans certaines fonctions qu'il remplit imparfaitement, et des solutions permettant de dépasser les limites physiques de l'électronique à semi-conducteurs telle que nous la connaissons aujourd'hui.
L'évolution du silicium
Elle consiste à aller un peu plus loin dans les limites du silicium en le structurant en couches minces avec d'autres matériaux; un exemple est le SOI (Silicon on Insulator, Silicium sur isolant, en fait sur Silice). Le fait d'utiliser une couche mince de silicium (une fraction de micron) reposant sur un isolant, la silice, permet d'avoir l'effet de désertion du canal (tel que décrit en figure 4) plus net, et avec une tension plus faible, que si l'on utilise du Silicium habituel épais. On gagne ainsi en rapidité et consommation, et la miniaturisation est facilitée par la faible dimension verticale. Une autre approche est liée à l'utilisation dans le canal de l'alliage Silicium-Germanium, dans lequel les électrons sont un peu plus mobiles. On gagne ainsi un facteur de l'ordre de 30 % sur la vitesse des circuits.
5 voir http://www.transhumanist.com/volume1/moravec.htm
L'utilisation de nouveaux semi-conducteurs
L'idée d'utiliser d'autres matériaux semi-conducteurs vient de la physique de base des semi-conducteurs. On s'est en effet rendu compte que les électrons pouvaient se déplacer plus rapidement dans l'Arséniure de Gallium que dans le Silicium. Du coup, ils sont très performants pour les circuits ultrarapides, comme en télécommunications. Ce même Arséniure de Gallium a de biens meilleures propriétés d'émission lumineuse que le Silicium. Si on y injecte des paires electron-trou par des contacts électriques on obtient, par la recombinaison d'un électron avec un trou, l'émission d'un photon et donc une conversion directe d'électricité en lumière. Ce phénomène est largement utilisé dans des lampes solides, appelées diodes émettrices de lumière (DEL). Il s'en produit une cinquantaine de milliards par an dans le monde. Avec les progrès récents pour générer de la lumière verte grâce au semiconducteur Nitrure de Gallium, on pense pouvoir remplacer les lampes classiques par des DELs à haut rendement et à longue durée de vie. Un autre domaine ayant des applications extrêmement importantes est celui des lasers à semi-conducteurs, très compacts, puisque leur surface typique est de 300x100 microns, utilisés largement dans les lecteurs optiques (compact-discs, DVD et CD-ROM), imprimantes laser, télécommunications...
Les concepts nouveaux de traitement de l'information
À long terme, on peut, et l’on doit commencer à envisager des alternatives au paradigme du Silicium, et des circuits et architectures actuelles des microprocesseurs et ordinateurs, en trouvant soit des matériaux et structures remplaçant le Silicium (électronique moléculaire par exemple), soit de nouveaux principes physiques de traitement de l'information (ordinateur quantique).
Une des premières approches consiste à agir sur les limites actuelles : la connectique des puces devient un facteur limitant : il faut aujourd'hui plusieurs centaines de liaisons électriques pour entrer ou sortir les données d'un microprocesseur, demain plusieurs milliers. Alors que les connexions sur la puce sont très rapides et raisonnablement gourmandes en énergie, celles qui sortent de la puce sont beaucoup plus lentes (typiquement dix fois) et nécessitent de forts courants pour alimenter des lignes d'interconnexion parfois assez longues; On songe donc de plus en plus à transmettre les données optiquement, dans des architectures basées sur des interconnexions optiques.
Une autre approche est de reconsidérer les architectures d'ordinateur. Par exemple, on utilise mal la performance des composants individuels : alors qu'un composant consomme une énergie de l'ordre du femtojoule pour commuter d'un état logique à un autre, un microprocesseur performant utilise de l'ordre de 10 millions de fois cette énergie pour une opération (microprocesseur faisant 1000 MOPS, millions d'opérations par seconde, consommant 10 watts). Bien entendu, une opération complexe sur 64 bits à la fois comporte de nombreuses opérations élémentaires (recherche en mémoire, opérations arithmétiques, retour en mémoire) mais il y a bien inefficacité de l'ensemble. C'est pourquoi on s'oriente vers de nouvelles architectures, classiques mais spécialisées (ensembles de portes logiques dédiés à une seule tâche) ou bien nouvelles, comme les architectures neuronales, bio mimétiques du cerveau. De fait, il existe d'autres systèmes faisant des opérations logiques dans la nature, bien plus efficaces que nos composants électroniques : le cerveau de l'abeille a une puissance de calcul évaluée à 10 teraopérations logiques élémentaires par seconde, soit, pour une puissance dissipée de 10 microwatts, un millième de femtojoule par opération (250 kT). La réplication d'une molécule-base d'ADN (le « bit » d’information en biologie) ne nécessite que 20 kT, pour une opération relativement complexe avec recherche de la base à copier, la copie, la mise en mémoire, le contrôle de l'opération et son irréversibilité (on veut copier l'ADN, et
que celui-ci ne copie pas l'ARN). Une voie explorée aujourd’hui en alternative au silicium est celle d’un traitement de l’information avec des molécules d’ADN.
On peut aussi songer à de nouveaux systèmes physiques permettant des fonctionnalités, similaires aux semi-conducteurs. L'approche la plus ambitieuse est celle de l'électronique moléculaire. Il s'agit de réaliser des fonctionnalités permettant de manipuler des bits d'information, codés par des paquets de charges électriques comme pour le silicium, par des molécules organiques. Les avantages sont bien sûr la compacité (la taille nécessaire pour un transistor ou mieux, une porte logique est, une molécule) et la facilité de fabrication (c'est la sélectivité de la synthèse organique qui procure une fabrication sans défaut à l'échelle atomique). Les obstacles à cette idée attrayante sont immenses : on n'a pas encore vraiment de molécules montrant un effet transistor, sauf celles qui sont basées sur des nanotubes en carbone. Les fonctionnalités établies sont plutôt celles de diodes. Or la mise en œuvre de circuits logiques complexes à partir de diodes pose des difficultés très fondamentales, rencontrées plusieurs fois au cours de l'histoire de la micro électronique, bien que les diodes, plus simples que les transistors et extrêmement rapides, puissent paraître être un meilleur composant actif. Même Shockley s'y est laissé prendre, en basant son entreprise sur un nouveau type de diode. Il a fait faillite, et les collaborateurs qui ne le suivaient pas dans cette voie, préférant le transistor, emmenés par Noyce, ont successivement fondé Fairchild, puis Intel, avec le succès que l'on sait. Robert Keyes, un pionnier de la microélectronique, a exposé à de nombreuses reprises les avantages subtils du transistor, qui mène à des architectures robustes et cascadables.
Une autre approche part de la théorie de l'information en général, et plus particulièrement des limites physiques au traitement de l'information. La question de l'énergie minimum pour traiter l'information (l'énergie même de l'information) a beaucoup intéressé physiciens et informaticiens. La théorie de l'information de Shannon mène à une énergie minimum par bit d'information de kTLog2 (kT quantum d'énergie thermique). Le composant actuel, dissipant un femtojoule, est bien loin de cette limite, d'un facteur 200 000. En fait, on peut montrer que la manipulation de l'information ne nécessite pas de dissipation d'énergie si elle est effectuée de manière réversible, au sens de la thermodynamique. Stimulés par de telles considérations les physiciens se sont demandé comment coder plus efficacement l'information que par la charge électrique d'électrons, pour mieux la manipuler. La réponse est venue dans les années 80, avec la proposition de l'ordinateur quantique, dont les principes ont été démontrés à la fin des années 90. L'information est portée par la fonction d'onde d'un système quantique, ce sont les coordonnées quantiques qui représentent les « 0 » et « 1 » de la logique. Un ensemble de N atomes (ou électrons, ou molécules, ...peu importe la nature physique du système quantique) interagissant quantiquement entre eux (ils sont imbriqués au sens de la mécanique quantique) peut posséder 2N composantes, donc bits classiques. Pour seulement 20 atomes, cela représente déjà un million de bits classiques ! Faisant des opérations quantiques sur ces q-bits (quantum bits-bits quantiques), on manipule à la fois 2N bits classiques, réalisant donc une opération fort complexe en une seule manipulation du q-bit. C'est ce qu'on appelle le parallélisme quantique qui mène à une extraordinaire efficacité de l'ordinateur basé sur les q-bits. Encore faut-il qu'il y ait des problèmes dont la solution utilise le résultat des manipulations de q-bits, car les opérations quantiques ne sont efficaces que pour certaines classes de problèmes. Depuis quelques années, on a pu identifier quelques grands problèmes mathématiques, telle la décomposition de grands nombres en produits de nombres premiers, quasi-insolubles avec des ordinateurs classiques, même en tenant compte des progrès à venir, et qui seraient aisément solubles par un ordinateur quantique. Le problème est de le fabriquer. Il faudrait des q-bits portant sur quelques centaines d'éléments. On en est à cinq, et les difficultés s'accroissent très vite avec le nombre d'éléments. L'autre problème est la très grande sensibilité des q-bits à toute perturbation, qui leur fait perdre toute mémoire.
L'ordinateur quantique n'en est pas moins fascinant par son implication de la mécanique quantique extrême, l'imbrication des fonctions d'onde, et par le retour aux sources qu'il implique, pour une informatique venue des semi-conducteurs, eux-mêmes nés de la mécanique quantique des années 30.
Références –pour en savoir plus :
Histoire et développement des semi-conducteurs et de la microélectronique
Grâce au cinquantenaire du transistor en 1997, de nombreux livres et revues se sont ajoutés à une liste déjà importante d'ouvrages souvent excellents. Quelques titres :
- Everett Rodgers et Judith Larsen, La fièvre de Silicon Valley, Londreys, 1985
- Michael Riordan and lilian Hoddeson, Crystal Fire, Norton, 1997 (ouvrage très complet sur l'histoire du transistor);"The Moses of Silicon Valley", Physics Today, dec;1997, p. 42.
- Emmanuel Rosencher, La puce et l'ordinateur, Dominos Flammarion, 1995 (excellent ouvrage simple).
- Jean-Philippe Dauvin, John Olliver et Didier Coulon, Les composants électroniques et leur industrie, Que sais-je, 1995 (ouvrage remarquable sur l'économie de la microélectronique).
- Numéro spécial de Proceedings IEEE, vol. 86 No 1, January 1998, "Fiftieth anniversary of the transistor" (nombreux articles originaux, dont ceux de Brattain et Bardeen, ainsi que celui où Moore énonce sa fameuse "loi", ainsi que quelques perspectives historiques).
- Numéro spécial des Comptes-rendus de l'Académie des Sciences, Série IV tome 1, No 7, septembre 2000, "Les défis de la microélectronique"
- Numéro spécial Nature vol; 406, August 31st, 2000, "The future of microelectronics", pp. 1021-1054.
- Numéro spécial de Bell Labs Technical Journal, vol; 2 No 4, Autumn 1997, "The Transistor" (accessible en ligne : http://www.lucent.com/minds/techjournal/common/arc_issues.html)
- Scientific American, Microelectronics (september 1977), traduit en français : La microélectronique, Belin, 1980 (ouvrage ancien constituant cependant une remarquable introduction aux principes de la microélectronique).
- Technologies futures de l'ordinateur, P. Chavel et N. de Beaucoudray eds., Editions Frontière, 1993
Quelques livres et articles plus spécialisés, mais élémentaires :
- R.W. Keyes, Physics of Digital Devices, Rev. Mod. Phys. 61, 279 (1989) ;Physics of VLSI systems, Addison-Wesley, Reading 1985 ; Physical Limits in Information Processing dans "Advances in Electron Physics" vol. 70, Academic, New-York, 1988 ; Limits and Alternatives in Electronic Information Processing dans "Technologies Matérielles Futures de l'ordinateur", loc. cit. ; Limits and Challenges in microelectronics, Contemporary Physics, vol; 32, p; 403, 1991; L'avenir du transistor, Pour la science, Août 1993, p. 60.
- Seth Lloyd, Les ordinateurs quantiques, Pour la Science, décembre 1995, p;44
- C. Bennett et Rolf Landauer, Les limites physiques du calcul, Pour la science, Septembre 1995, p. 18.
- Mark Reed et James Tour, Les ordinateurs moléculaires, pour la science, Août 2000, p. 78.
- Sur les alternatives au silicium, on pourra consulter le numéro de mars-avril de Technology Review, accessible sur le web http://www.techreview.com/past.htm (donne aussi de nombreux liens).
Légendes des figures
1G 100M 10M
1M 100K
10K 1K
1G 256M
Reseau de portes
64M 16M
4M
80486
80386
68020 64K 80286
Pentium IV
100 μ Pentium pro
et mémoire
Pentium Pro MPU seul
10 μ 1μ
0,1 μ
1M 256K
Pentium Reseau de portes
68000 4K 16K 8086
1K 8080 8085
4004 = Microprocesseurs et logique
= Memoires (DRAM)
70 74 78 82 86 90 94 98 02 06
Année
Figure 1 : Courbe de progression des circuits intégrés, microprocesseurs (unités centrales d'ordinateurs) ou mémoires dynamiques à accès aléatoire (DRAM).
Nombre de transistors par puce
Largeur de trait
Energie des
electrons
1 atome
2 atomes
10 atomes
N atomes
v3N places
(a)
E3
v3 places
E2
v2 places
E1
v1 places
(b)
metal
isolant
semiconducteur
bande de conduction
bande interdite
Bandes d’energies permises états d’electrons possibles
Figure 2 : (a) Schéma de la formation de bandes d'énergie dans les solides à partir des niveaux d'énergie des atomes séparés. Un niveau atomique comportant v places pour des électrons donnera vN places pour N atomes.(b) Remplissage des places disponibles dans les bandes d'énergie dans les solides par les électrons disponibles, par énergies croissantes. Suivant les cas, les derniers électrons sont dans une bande non-pleine, ou pleine. Dans ce dernier cas, il n'y a pas de conductivité électrique, puisque les électrons ne peuvent pas prendre de vitesse ce qui leur confèrerait une énergie cinétique, et la nécessité d'occuper une place d'énergie immédiatement supérieure, ce qui n'est pas possible. On a un isolant. Dans le premier cas, comme quand les bandes se recouvrent (cas des bandes issues des niveaux 1 et 2 en (a)), il peut y avoir conduction électrique, métallique. Un semi-conducteur est un isolant à faible bande interdite : comme les derniers niveaux occupés sont proches énergétiquement des premiers niveaux vides, des électrons peuvent être excités thermiquement de la « bande de
bande de valence
Etats occupés par les electrons
valence » vers la « bande de conduction », permettant ainsi une certaine conduction électrique (cf. infra fig.3).
(a) Isolant
(d) Semiconducteur non dopé Electrons et trous
Thermiques IV

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales / Confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google