|
|
|
|
 |
|
Comment fonctionne un accélérateur de particules? |
|
|
|
|
|
LES ACCÉLÉRATEURS DE PARTICULES
Comment fonctionne un accélérateur de particules?
© CEA
En utilisant le champ électrique et le champ magnétique, les particules dans un accélérateur sont tour à tour produites, accélérées, focalisées et guidées vers les endroits requis.
Publié le 6 janvier 2016
LES "MISSIONS" D'UN ACCÉLÉRATEUR
DE PARTICULES
Accélérer c'est augmenter la vitesse. Dans un accélérateur de particules, un faisceau de particules électriquement chargées, par exemple des électrons (charge électrique négative) ou bien des ions (charge électrique positive ou négative), à une énergie donnée, est accéléré. L’énergie correspond ici à une énergie cinétique, c’est-à-dire l’énergie liée à la vitesse. L'unité utilisée est l'électronvolt (eV), qui est l'énergie donnée à un électron accéléré à partir de sa position de repos par une tension de 1Volt.
Dans un accélérateur de particules, accélérer ne suffit pas. Il faut aussi que le nombre de particules à l’endroit d’utilisation soit suffisant et que la taille et la divergence du faisceau ne soient pas trop grandes. Ce qui n'est pas une tâche aisée étant donné que les charges électriques de même signe se repoussent entre elles, et se perdent sur les parois, pouvant activer ou détériorer les équipements utilisés pour transporter le faisceau.
Dans un accélérateur on ne fait donc pas qu'accélérer. On doit aussi produire les particules, les guider vers les endroits voulus et les focaliser convenablement (c’est-à-dire optimiser la taille et la divergence du faisceau) et les accélérer.
LES ÉTAPES DU FONCTIONNEMENT
D’UN ACCÉLÉRATEUR DE PARTICULES
Production de particules chargées
L’une des premières étapes est la production de particules chargées. Il s'agit de séparer les électrons des noyaux et de donner une première accélération à l'une des deux espèces chargées voulue. La séparation des charges se fait en général par chauffage, soit avec un courant électrique à travers un métal ou un fort champ électrique, soit avec une onde électromagnétique à travers un gaz. On applique alors une tension électrique pour attirer les charges à l'extérieur de la source.
Guidage des particules
Un dipôle, aussi appelé aimant de courbure, est un élément magnétique de guidage dont le rôle est de dévier la trajectoire des électrons. Il y a 36 dipôles dans le booster et 32 dans l’anneau de stockage (ici : un dipôle du booster) de SOLEIL. Dans l’anneau de stockage ce sont également des sources de rayonnement synchrotron, puisque les électrons produisent ce rayonnement quand leur trajectoire n’est pas rectiligne et uniforme. © Synchrotron SOLEIL – Christophe Kermarrec
Il faut ensuite courber la trajectoire des particules, soit parce qu'on est dans un accélérateur circulaire, soit parce qu'il faut amener les particules à l'endroit de la collision ou de la cible à irradier. On emploie pour cela un champ magnétique qui exerce une force perpendiculaire à la direction de déplacement des particules chargées. Les particules chargées sont alors obligées de s'enrouler autour de l'axe du champ magnétique.
On peut utiliser des aimants permanents mais dans la très grande majorité des cas, ce sont des électro-aimants appelés "dipôles" qui sont mis en œuvre. Le champ magnétique est créé par deux bobines dans lesquelles circule un courant électrique très intense pouvant atteindre plusieurs centaines d’Ampères. Les champs utilisés sont de l'ordre de 10 000 Gauss (1 Tesla) pour les dipôles à température ambiante et 10 à 20 fois plus pour les dipôles supraconducteurs (température cryogénique). Pour mémoire, le champ magnétique terrestre est de 0,5 Gauss.
Focalisation des particules
Pour exercer une force perpendiculaire à la direction de déplacement des particules, c'est le champ magnétique qui est employé, notamment à l’aide d’électro-aimants. Deux configurations sont possibles :
* Solénoïde. C'est une longue bobine électrique créant un champ magnétique axial autour duquel les particules chargées sont obligées de s'enrouler et sont donc par la même occasion focalisées car elles doivent rester proches de l'axe.
*
* Quadrupôle. La configuration du champ magnétique est générée par quatre bobines électriques. Les particules qui passent à travers sont focalisées dans un plan (horizontal par exemple) et défocalisées dans l'autre (vertical par exemple). Une succession de quadrupôles (de focalisations-défocalisations) permet de régler efficacement la taille et la divergence du faisceau de particules en horizontal et vertical. Le champ magnétique exerçant une force perpendiculaire à la trajectoire de la particule chargée, il ne permet pas de changer la vitesse de celle-ci.
Accélération des particules
Pour accélérer les particules, on doit obligatoirement utiliser un champ électrique qui exerce sur les particules une force parallèle au champ. Si on oriente le champ parallèle au déplacement des particules, sa force sera alors accélératrice. Si on oriente le champ perpendiculairement, il sera focalisant ou défocalisant. Contrairement au champ magnétique donc, un champ électrique est capable de fournir de l'énergie à des particules chargées.
Dans les premiers accélérateurs, c'est un champ électrostatique créé entre des surfaces conductrices chargées qui est utilisé. Or cela ne permet pas d'obtenir des champs très forts car on est limité par les problèmes de claquages (tels les éclairs d'orage).
Maintenant, de façon classique, ce sont des cavités résonantes qui sont utilisées, où une onde électromagnétique y est piégée. C'est le même principe que les caisses de résonance des instruments de musique pour les ondes sonores. Ici c'est une composante électrique qui doit être positionnée au niveau du passage du faisceau de particules.
Les cavités accélératrices à température ambiante peuvent fournir un champ électrique de plusieurs megaV/m et les cavités supraconductrices (température cryogénique) atteignent des champs 10 fois plus élevés.
Accélération et focalisation (presque) simultanées
Dans le cas d’un faisceau intense à basse énergie, typiquement à la sortie de la source de particules chargées, les forces répulsives entre particules de même charge électrique sont encore très fortes. On ne peut pas accélérer et focaliser séparément, car pendant le temps d'accélération, les particules peuvent déjà se disperser. On doit alors utiliser un dispositif appelé RFQ, Quadrupôle RadioFréquence qui permet d'accélérer et de focaliser successivement sur des longueurs très courtes de quelques cm. C'est une cavité résonante longue de 3 à 10 m, munie de 4 pôles finement sculptés en 3D sous la forme d'une ondulation. La période de cette ondulation est progressivement de plus en plus longue car les particules accélérées vont de plus en plus rapidement. L'onde électromagnétique qui y est piégée aura ainsi une composante électrique successivement parallèle et perpendiculaire au déplacement du faisceau sur une longueur de quelques cm, permettant d'accélérer et focaliser les particules chargées presque simultanément.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
LES TROUS NOIRS ET LA FORME DE L'ESPACE |
|
|
|
|
|
LES TROUS NOIRS ET LA FORME DE L'ESPACE
La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.
Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet
Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.
Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.
Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !
Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.
Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.
Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !
La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.
Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.
Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).
Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.
Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.
Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.
Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.
VIDEO CANAL U LIEN |
|
|
|
|
 |
|
MARCONI |
|
|
|
|
|
Guglielmo Marconi
Physicien et inventeur italien (Bologne 1874-Rome 1937).
Inventeur de la radiotélégraphie, il est à l'origine d'une révolution technique qui a ouvert une ère nouvelle pour les télécommunications.
ÉTUDIANT DILETTANTE, MAIS INGÉNIEUR VISIONNAIRE
Fils d'un propriétaire terrien aisé et d'une Irlandaise, Guglielmo Marconi effectue des études assez chaotiques, en Italie et en Angleterre. Dès sa jeunesse, il se fait remarquer par son habileté manuelle et son attirance pour la technique. Le physicien Augusto Righi (1850-1920), voisin et ami de ses parents, l'autorise à suivre ses cours à l'université de Bologne et va lui communiquer son intérêt pour l'électricité. Marconi assiste à ses expériences de transmission et de réception d'ondes hertziennes, avant de les reproduire lui-même avec succès, en 1895, dans la propriété familiale, en augmentant graduellement la portée des signaux, de quelques mètres à plus de 2 km. Convaincu de l'intérêt des ondes radio pour les communications à distance, mais n'ayant pu obtenir d'appuis financiers en Italie, il part, en 1896, poursuivre ses expériences à Londres, où, grâce aux relations de sa mère, il peut en faire une démonstration devant le chef du service télégraphique des Postes et des représentants de l'armée. Avec ses appareils, Marconi parvient à transmettre des signaux en morse entre deux immeubles distants de 300 m. La Royal Navy accepte d'engager une campagne d'essais et Marconi dépose le 2 juin 1896 le premier brevet au monde pour un système de télégraphie électrique au moyen d'ondes hertziennes. Mettant à profit plusieurs inventions et découvertes antérieures, il utilise comme émetteur une bobine d'induction (bobine de Ruhmkorff), dans le circuit primaire de laquelle se trouve un manipulateur Morse, et comme récepteur un radioconducteur de Branly.
Marconi perfectionne ses appareils avec pour objectif premier d'accroître progressivement la portée des transmissions : le 18 mai 1897, il réussit une liaison entre deux points distants de 9 miles (14,4 km), au-dessus du canal de Bristol. Après avoir créé sa propre société, la Wireless Telegraph & Signal Company, il retourne en Italie, où son invention suscite cette fois un intérêt officiel. À l'invitation du ministre de la Marine, il fait une démonstration à Rome. Puis, il installe dans le port de La Spezia une station d'émission, dont les signaux sont reçus par un cuirassé distante de 16 km, démontrant ainsi la possibilité de communiquer désormais par radio avec des navires en mer. Lors du naufrage du Titanic (à bord duquel il aurait dû se trouver, s'il n'avait décidé d'avancer son départ), dans la nuit du 14 au 15 avril 1912, les SOS envoyés du paquebot par radio hâteront l'arrivée sur les lieux d'un navire grâce auquel quelque 700 passagers seront sauvés. Pour la presse, la radiotélégraphie ouvre aussi une ère nouvelle : en 1898, Marconi télégraphie les résultats d'une régate au Daily Express de Dublin, à bord d'un remorqueur qui suit la course.
LE PIONNIER DES LIAISONS RADIO À GRANDE DISTANCE
Le 27 mars 1899, Marconi réalise la première communication transmanche, entre Douvres et Wimereux, près de Boulogne-sur-Mer, avec envoi d'un télégramme historique à Branly. Deux ans plus tard, il établit une liaison entre la Corse et le continent. En décembre 1901, il réussit la première liaison transatlantique sans fil. En 1902, il observe que la portée des transmissions augmente durant la nuit. Il expérimente un détecteur magnétique de son invention qui rend possible la réception du son. En 1904, il découvre la propriété directive des antennes horizontales et commence à utiliser la valve de Fleming. Celle-ci lui permet de créer dix ans plus tard le premier service de radiotéléphonie en Italie. En 1916, il montre la supériorité des ondes courtes, dont il s'attache à développer l'emploi. En 1918, il peut ainsi envoyer le premier message radio de l'Angleterre vers l'Australie.
Alors que commence l'épopée de la radio, Marconi est devenu un riche industriel comblé d'honneurs, membre d'un grand nombre d'académies et d'instituts scientifiques. Lauréat, en 1909, avec l'Allemand Karl Ferdinand Braun, du prix Nobel de physique, pour sa contribution au développement des communications par radio, il est élu sénateur en 1914, anobli en 1929 et accède, en 1930, à la présidence de l'Académie royale d'Italie. Lorsqu'il meurt, le 20 juillet 1937, toutes les stations de radio du monde lui rendent hommage en observant deux minutes de silence.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
LES LASERS |
|
|
|
|
|
LES LASERS
Depuis l'invention du premier laser en 1960, la diversité des lasers en couleurs, taille ou puissance n'a fait que croître. Les plus petits lasers sont si minuscules qu'on ne peut les voir qu'au microscope, les plus gros consomment autant d'électricité qu'une ville moyenne. Tous les lasers ont la faculté d'émettre des rayons d'une lumière inconnue dans la nature, qui forment de minces pinceaux d'une couleur pure, et que l'on peut concentrer sur un petit foyer. Ils exploitent la possibilité, prévue par Einstein, de multiplier les photons, qui sont les particules formant la lumière, dans un matériau bien choisi. Les caractéristiques des lasers, fort différentes de celles des lampes ordinaires, leur ont ouvert des utilisations très variées. En délivrant sa puissance de façon localisée, l'outil laser est capable de percer, découper et souder avec vitesse et précision. Il est aussi utilisé en médecine où il remplace les bistouris les plus précis et cautérise les coupures. Ce sont des lasers circulant dans des fibres optiques, fins cheveux de verres dont le réseau couvre maintenant le globe terrestre, qui transportent maintenant les conversations téléphoniques et les données sur Internet. Le laser intervient aussi dans les analyses les plus fines, en physique, en chimie ou en biologie, où il permet soit de manipuler les atomes ou les molécules individuellement, soit de véritablement déclencher et photographier des réactions chimiques ou biologiques. Il identifie les molécules qui composent l'air et beaucoup de grandes villes s'équipent de lasers spéciaux pour détecter la pollution à distance. Les sciences et techniques d'aujourd'hui vivent à l'heure du laser. Beaucoup pensent que le XXIe sera celui de l'optique, et ceci, grâce au laser.
Texte de la 216e conférence de l’Université de tous les savoirs donnée le 3 août 2000.
Les lasers
par Élisabeth Giacobino
Inventé il y a quarante ans, le laser reste un instrument un peu mystérieux, voire mythique, dont la notoriété dans le grand public doit beaucoup à la guerre des étoiles. Le combat au sabre laser ou le laser rayon de la mort sont beaucoup mieux connus que d’autres utilisations, bien réelles celles-là, qui ont changé notre vie. Quand vous décrochez votre téléphone pour appeler au-delà de votre voisinage immédiat, il y a de fortes chances que votre conversation soit transmise par un laser, car les câbles téléphoniques sont maintenant en grande partie remplacés par des fibres optiques où circule la lumière laser. Sans les télécommunications par laser, capables de transmettre de très hauts débits d’information, l’expansion de l’Internet n’aurait pas été possible.
Depuis que le premier laser, un laser rouge à rubis, a fonctionné en 1960, la diversité des lasers en couleur, taille et puissance n’a fait que croître. Les plus petits lasers sont si minuscules qu’on ne peut les voir qu’au microscope, les plus gros consomment autant d’électricité qu’une ville moyenne, et nécessitent de véritables immeubles pour les abriter (Fig. 1). Leurs longueurs d’onde dépassent largement les couleurs du spectre visible pour s’étendre des rayons X à l’infrarouge lointain.
Les lasers ont en commun la faculté d’émettre des rayons très parallèles, d’une couleur pure. D’où vient cette lumière extraordinaire, inconnue dans la nature et si différente de la lumière classique émise par une lampe ?
L’émission stimulée, principe de base du laser
Comme dans une lampe ou dans un tube fluorescent, ce sont des atomes ou des molécules qui produisent la lumière. Quand les atomes sont chauffés, excités par un courant électrique ou quand ils absorbent de la lumière, leurs électrons gagnent de l’énergie. Mais ils ne peuvent stocker l’énergie que de manière très spécifique. Ainsi que l’a montré Niels Bohr en 1913, les atomes sont sur des niveaux d’énergie bien précis, dits quantifiés, entre lesquels ils peuvent transiter. Ce faisant, l’atome absorbe ou émet une particule de lumière ou photon, dont l’existence tout d’abord postulée par Max Planck en 1900, a été affirmée par Einstein en 1905 (Fig. 2). De même que les niveaux d’énergie de l’atome, l’énergie du photon échangé, et donc sa longueur d’onde et sa couleur, sont déterminées par le type d’atome ou de molécule concerné.
Dans les lampes habituelles, on fournit de l’énergie aux atomes avec un courant électrique, c’est à dire qu’on met un certain nombre de leurs électrons dans les états supérieurs ou « excités ». Ils en redescendent rapidement et retombent vers l’état de plus basse énergie en émettant de la lumière de manière spontanée et désordonnée, dans toutes les directions et sur plusieurs longueurs d’onde.
Mais outre cette émission spontanée, il existe un autre processus, découvert par Einstein en 1917, appelé émission stimulée. C’est lui qui est à la base du fonctionnement du laser. Laser est d’ailleurs un acronyme pour « Light Amplification by Stimulated Emission of Radiation » (amplification de lumière par émission stimulée de rayonnement). La lumière peut forcer l’atome à redescendre de son état excité en cédant son énergie : un photon frappe l’atome et deux photons en ressortent. L’intérêt de ce processus est que la lumière émise est exactement identique à la lumière incidente, elle va dans la même direction, et les deux ondes sont exactement en accord de phase. L’émission stimulée produit ainsi une multiplication de photons identiques et une amplification cohérente de l’onde.
L’idée du laser a été proposée en 1958 par deux physiciens américains, C. H. Townes et A. L. Schawlow, et à peu près dans le même temps par les soviétiques V.A. Fabrikant, A.M. Prokhorov et N.G. Basov. Townes, Basov et Prokhorov ont d’ailleurs eu le prix Nobel en 1964 pour cette invention. Schawlow l’a eu beaucoup plus tard, en 1981. Townes avait déjà inventé, quelques années auparavant, le « maser » qui est un laser fonctionnant en micro-ondes sur les mêmes idées. Mais on peut remarquer que tous les principes étaient là dans les années 1920. Est-ce à dire que le laser aurait pu être inventé bien avant ?
Le principal problème à résoudre était que l’émission stimulée est en compétition avec les autres voies d’interaction de la lumière avec les atomes. L’une d’elle est l’émission spontanée, déjà mentionnée plus haut, l’autre est l’absorption, par laquelle un photon arrivant sur un atome placé dans un certain niveau d’énergie disparaît tandis que l’atome passe dans un niveau d’énergie supérieure. Pour que l’absorption, comme d’ailleurs l’émission stimulée, se produise, il faut que l’énergie du photon corresponde exactement à l’énergie dont l’atome a besoin pour effectuer la transition entre les deux niveaux d’énergie. Les deux processus sont aussi probables l’un que l’autre, et celui qui domine dépend de la répartition des atomes entre les deux niveaux d’énergie concerné par la transition. Considérons, comme sur la Figure 1, un ensemble de photons arrivant sur un groupe d’atomes. Si les atomes situés dans le niveau inférieur de la transition sont majoritaires, il se produit plus d’absorptions que d’émissions stimulées et le nombre de photons diminue. Au contraire, si les atomes du niveau supérieur sont majoritaires, c’est l’émission stimulée qui domine, et il ressort plus de photons qu’il n’y en avait au départ (Fig. 3). Quand le nombre de photons est assez grand, l’émission stimulée devient beaucoup plus fréquente que l’émission spontanée.
En général, les atomes se trouvent dans les niveaux d’énergie les plus bas et la population dans les différents niveaux diminue au fur et à mesure que l’on monte. Pour faire fonctionner un laser, il faut mettre les molécules ou les atomes dans des conditions complètement anormales, où cette répartition est renversée. La population d’un certain niveau doit être plus grande que celle d’un des niveaux inférieurs : on parle d’inversion de population. L’émission stimulée peut alors l’emporter sur l’absorption.
Cette situation est difficile à réaliser et les scientifiques se basés sur des études de spectroscopie qui avaient été faites dans de nombreux matériaux, aussi bien gaz, liquides que solides pour déterminer ceux qui présentaient les caractéristiques les plus favorables. Dans certains lasers, on utilise un courant électrique pour porter un majorité d’atomes dans un état excité et les préparer pour l’émission stimulée, dans d’autres, c’est une source auxiliaire de lumière (une lampe, ou un autre laser) qui « pompe » les atomes vers le niveau supérieur. C’est le physicien français Alfred Kastler qui a le premier proposé l’idée du pompage optique, pour lequel il a reçu le prix Nobel de Physique en 1966.
Si l’amplification sur un passage dans le matériau en question n’est pas très forte, on peut la renforcer en refaisant passer l’onde dans le milieu avec un miroir, et même plusieurs fois avec deux miroirs, un à chaque extrémité. A chaque passage l’onde lumineuse accumule un certain gain qui dépend du nombre d’atomes portés dans l’état supérieur par le pompage. On pourrait penser que dans ces conditions l’onde est amplifiée indéfiniment. De fait, il n’en est rien. A chaque passage, l’onde subit aussi des pertes, pertes inévitables dues à l’absorption résiduelle du milieu et des autres éléments qui constituent le laser et surtout pertes à travers les miroirs pour constituer le faisceau laser utilisable à l’extérieur. L’onde grandit jusqu'à ce que le gain équilibre les pertes et le régime laser s’établit de manière stable dans la cavité formée par les deux miroirs. L’intensité du faisceau laser qui sort de cette cavité dépend à la fois du gain disponible dans le milieu matériel et de la transparence des miroirs. Le faisceau est d’autant plus parallèle et directif qu’il aura parcouru un grand trajet entre les deux miroirs de la cavité.
Des lasers de toutes sortes
Après la publication de l’article où Townes et Schawlow exposaient leur idée, une compétition féroce s’engage dans le monde entier pour mettre en évidence expérimentalement cet effet nouveau. Suivant de près le laser à rubis, mis au point par T. Maiman en juillet 1960, deux autres lasers fonctionnent cette année-là également aux Etats-Unis. L’un d’eux est le laser à hélium-néon, dont le faisceau rouge a longtemps été utilisé pour le pointage et l’alignement. Il est maintenant détrôné par le laser à semi-conducteur, qui a fonctionné pour la première fois en 1962. Ce sont des lasers à semi-conducteur qui sont utilisé dans les réseaux de télécommunications optiques. Au début des années 1960, une floraison de nouveaux lasers voit le jour, comme le laser à néodyme, infrarouge, très utilisé à l’heure actuelle pour produire des faisceaux de haute puissance, le laser à argon ionisé vert qui sert aux ophtalmologistes à traite les décollements de la rétine, ou le laser à gaz carbonique, infrarouge, instrument de base dans les découpes et les traitements de surface en métallurgie.
Après les nombreux allers-retours qu’il fait entre ses deux miroirs avant de sortir, le faisceau d’un laser est très parallèle et peut être focalisé sur une surface très petite, ce qui permet de concentrer une très grande puissance lumineuse. Comme elle est due à la multiplication de photons identiques, la lumière laser est une onde pratiquement monochromatique, d’une couleur très pure. Il existe aussi un autre mode de fonctionnement, dans lequel toute l’énergie du laser est condensée sur des séries d’impulsions extrêmement brèves. Le record du monde se situe actuellement à quelques femtosecondes, soit quelques millionièmes de milliardièmes de seconde. Pendant ce temps très court se comprime toute la puissance du laser, qui peut alors atteindre plus de 100 térawatts, ou 100 000 milliards de watts, soit la puissance que fournissent 100 000 centrales électriques. On conçoit que cette impulsion ne peut pas durer longtemps ! De fait si une telle impulsion dure 10 femtosecondes, elle ne contient qu’une énergie modeste, 1 joule, ou 1/4 calorie.
Des applications très variées
Ce sont les qualités extraordinaires de la lumière laser qui sont exploitées dans les diverses applications, aussi bien dans la vie courante que dans les domaines de haute technologie et pour la recherche. Le faisceau très parallèle émis par les lasers est utilisé aussi bien pour la lecture des disques compacts que pour le pointage et les relevés topographiques et pour le guidage des engins ou des missiles. Lorsque de plus le laser émet des impulsions brèves, il est aisé de mesurer la distance qui le sépare d’un objet éloigné : il suffit que ce dernier soit tant soit peu réfléchissant. On mesure le temps d’aller-retour d’une impulsion entre le laser et l’objet, impulsion qui se propage à la vitesse de la lumière, 300 000 kilomètres par seconde. Certaines automobiles seront bientôt porteuses d’un petit laser qui permettra de connaître la distance de la voiture précédente et de la maintenir constante. Un « profilomètre » laser en cours de développement permettra aux aveugles d’explorer les obstacles dans leur environnement bien plus efficacement qu’une canne blanche. Encore plus ambitieuse est la mesure de la distance de la Terre à la Lune : plusieurs observatoires, comme celui de la Côte d’Azur à Grasse possèdent un laser dirigé vers la Lune. Il se réfléchit à la surface de la Lune sur des réflecteurs placés là par les missions Apollo, et revient, certes très affaibli, mais encore détectable sur Terre (Fig. 4). C’est ainsi que l’on sait que la Lune s’éloigne de la Terre de 3,8 centimètres par an ! La recherche des ondes gravitationnelles prédites par Einstein en 1918, mais jamais observées directement, utilise aussi un laser. Une onde gravitationnelle passant sur Terre modifie très légèrement les longueurs. Un laser permet de comparer avec une précision incroyable la longueur de deux bras d’un appareil appelé interféromètre où le laser circule. On espère détecter une variation de longueur bien inférieure au rayon d’un noyau d’atome sur une distance de plusieurs kilomètres.
Les télécommunications optiques bénéficient aussi de cette possibilité qu’ont les lasers de former des faisceaux très fins et modulables en impulsions très brèves. Les câbles en cuivre ont été remplacés en grande partie par des câbles optiques dont le réseau s’étend aussi bien sous les océans que sur les continents. Dans ces câbles, des fibres optiques, fins cheveux de verre, guident les faisceaux lasers de l’émetteur au récepteur. Sur ces lasers sont inscrits en code numérique aussi bien les conversations téléphoniques que les données pour l’Internet. Les câbles transocéaniques les plus récents atteignent des capacités de transmission fabuleuses, équivalentes à plusieurs millions de communications téléphoniques. De nouveaux câbles assortis de lasers et de systèmes optiques de plus en plus performants vont permettre à la « toile » mondiale de continuer à se développer à un rythme toujours plus effréné.
Une fois focalisé, le faisceau laser concentre une grande énergie. C’est ce qu’utilisent les imprimantes lasers avec des puissances relativement modestes. Les capacités de découpe et de perçage des lasers de grandes énergie comme le laser à gaz carbonique, sont largement exploitées en mécanique. Les lasers ont aussi utilisés couramment pour nettoyer les monuments historiques. Le laser permet d’enlever très exactement la couche de pollution qui s’est accumulée sur la pierre sans endommager cette dernière. En chirurgie le laser fait merveille en particulier en ophtalmologie où il remplace les bistouris les plus précis et en dermatologie où il permet des traitements esthétiques ou curatifs de nombreuses affections : verrues, tatouages ou rides disparaissent grâce au laser.
A la frontière extrême des lasers de puissance se situe le projet français de laser « Mégajoule » et son équivalent américain NIF (pour National Ignition Facility), dans lequel 240 faisceaux lasers seront focalisés pendant 16 nanosecondes avec une puissance totale de 500 Térawatts sur une cible de quelques millimètres carrés. La température de la matière située au point focal est portée à plusieurs millions de degrés. L’objectif principal est de produire la fusion thermonucléaire par laser, mais ces lasers sont aussi susceptibles de contribuer à la recherche sur la matière dans les conditions extrêmes qui règnent dans les étoiles.
Le laser est devenu un instrument de choix pour nombre de recherches fondamentales. En physique, la réponse optique des atomes lorsqu’on les éclaire par un laser est souvent une signature irremplaçable de leurs propriétés et permet de détecter et d’identifier des traces infimes de produits divers. En chimie et en biologie, on assiste à la naissance d’un nouvelle discipline : la femtochimie laser. Si les réactions chimiques d’ensemble prennent parfois plusieurs secondes ou minutes, au niveau des atomes, tout se passe à l’échelle de la femtoseconde. Pour sonder ce domaine, on envoie une impulsion laser ultra-brève qui est capable de déclencher à volonté des réactions de décomposition ou de recombinaison de molécules. D’autres impulsions envoyées quelques femtosecondes plus tard permettent de suivre l’évolution du système du système et de faire de véritables photographies en temps réel de la réaction chimique.
Exploitant la connaissance, accumulée par les chercheurs, des longueurs d’onde que peuvent absorber les molécules, la détection de la pollution atmosphérique par laser est appelée à se développer largement. La méthode LIDAR (pour « light detection and ranging », détection et mesure de distance par la lumière) utilise un laser de la couleur adéquate pour révéler la présence dans l’air des molécules indésirables, comme les oxydes d’azote ou l’ozone. Le laser envoie des impulsions vers la zone polluée. Une faible partie de celles-ci est diffusée en sens inverse, et l’analyse de la lumière qui revient permet de déterminer la concentration en polluant. Le temps d’aller retour des impulsions donne quand à lui la distance et la dimension du nuage polluant (Fig. 5). En balayant le laser dans toutes les directions on peut ainsi réaliser une véritable carte à 3 dimensions de la composition atmosphérique. Des LIDAR sont déjà en fonctionnement ou en test dans plusieurs grandes villes françaises.
Le laser est issu de l’imagination de quelques chercheurs, qui voulaient avant tout mettre en évidence de nouveaux concepts scientifiques. Même si ses inventeurs avaient imaginé quelques unes des utilisations du laser, ils étaient loin de soupçonner les succès qu’il devait connaître. A l’époque, certains avaient même qualifié le laser de « solution à la recherche d’un problème ». Il aurait pu rester à ce stade. Si les sciences et les techniques vivent aujourd’hui à l’heure du laser, c’est aussi grâce au développement de techniques parallèles, comme les fibres à très faibles pertes pour les télécommunications. En revanche, des recherches purement orientées vers une application donnée n’auraient jamais donné ce résultat. Aujourd’hui, dans un monde dominé par la rentabilité à court terme, de telles inventions nous rappellent que la recherche de la connaissance peut aussi déboucher sur des développements technologiques extraordinaires.
VIDEO CANAL U LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante |
|
|
|
|
|
|