|
|
|
|
|
|
LES TROUS NOIRS ET LA FORME DE L'ESPACE |
|
|
|
|
|
LES TROUS NOIRS ET LA FORME DE L'ESPACE
La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.
Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet
Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.
Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.
Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !
Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.
Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.
Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !
La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.
Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.
Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).
Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.
Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.
Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.
Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.
VIDEO CANAL U LIEN |
|
|
|
|
|
|
MARCONI |
|
|
|
|
|
Guglielmo Marconi
Physicien et inventeur italien (Bologne 1874-Rome 1937).
Inventeur de la radiotélégraphie, il est à l'origine d'une révolution technique qui a ouvert une ère nouvelle pour les télécommunications.
ÉTUDIANT DILETTANTE, MAIS INGÉNIEUR VISIONNAIRE
Fils d'un propriétaire terrien aisé et d'une Irlandaise, Guglielmo Marconi effectue des études assez chaotiques, en Italie et en Angleterre. Dès sa jeunesse, il se fait remarquer par son habileté manuelle et son attirance pour la technique. Le physicien Augusto Righi (1850-1920), voisin et ami de ses parents, l'autorise à suivre ses cours à l'université de Bologne et va lui communiquer son intérêt pour l'électricité. Marconi assiste à ses expériences de transmission et de réception d'ondes hertziennes, avant de les reproduire lui-même avec succès, en 1895, dans la propriété familiale, en augmentant graduellement la portée des signaux, de quelques mètres à plus de 2 km. Convaincu de l'intérêt des ondes radio pour les communications à distance, mais n'ayant pu obtenir d'appuis financiers en Italie, il part, en 1896, poursuivre ses expériences à Londres, où, grâce aux relations de sa mère, il peut en faire une démonstration devant le chef du service télégraphique des Postes et des représentants de l'armée. Avec ses appareils, Marconi parvient à transmettre des signaux en morse entre deux immeubles distants de 300 m. La Royal Navy accepte d'engager une campagne d'essais et Marconi dépose le 2 juin 1896 le premier brevet au monde pour un système de télégraphie électrique au moyen d'ondes hertziennes. Mettant à profit plusieurs inventions et découvertes antérieures, il utilise comme émetteur une bobine d'induction (bobine de Ruhmkorff), dans le circuit primaire de laquelle se trouve un manipulateur Morse, et comme récepteur un radioconducteur de Branly.
Marconi perfectionne ses appareils avec pour objectif premier d'accroître progressivement la portée des transmissions : le 18 mai 1897, il réussit une liaison entre deux points distants de 9 miles (14,4 km), au-dessus du canal de Bristol. Après avoir créé sa propre société, la Wireless Telegraph & Signal Company, il retourne en Italie, où son invention suscite cette fois un intérêt officiel. À l'invitation du ministre de la Marine, il fait une démonstration à Rome. Puis, il installe dans le port de La Spezia une station d'émission, dont les signaux sont reçus par un cuirassé distante de 16 km, démontrant ainsi la possibilité de communiquer désormais par radio avec des navires en mer. Lors du naufrage du Titanic (à bord duquel il aurait dû se trouver, s'il n'avait décidé d'avancer son départ), dans la nuit du 14 au 15 avril 1912, les SOS envoyés du paquebot par radio hâteront l'arrivée sur les lieux d'un navire grâce auquel quelque 700 passagers seront sauvés. Pour la presse, la radiotélégraphie ouvre aussi une ère nouvelle : en 1898, Marconi télégraphie les résultats d'une régate au Daily Express de Dublin, à bord d'un remorqueur qui suit la course.
LE PIONNIER DES LIAISONS RADIO À GRANDE DISTANCE
Le 27 mars 1899, Marconi réalise la première communication transmanche, entre Douvres et Wimereux, près de Boulogne-sur-Mer, avec envoi d'un télégramme historique à Branly. Deux ans plus tard, il établit une liaison entre la Corse et le continent. En décembre 1901, il réussit la première liaison transatlantique sans fil. En 1902, il observe que la portée des transmissions augmente durant la nuit. Il expérimente un détecteur magnétique de son invention qui rend possible la réception du son. En 1904, il découvre la propriété directive des antennes horizontales et commence à utiliser la valve de Fleming. Celle-ci lui permet de créer dix ans plus tard le premier service de radiotéléphonie en Italie. En 1916, il montre la supériorité des ondes courtes, dont il s'attache à développer l'emploi. En 1918, il peut ainsi envoyer le premier message radio de l'Angleterre vers l'Australie.
Alors que commence l'épopée de la radio, Marconi est devenu un riche industriel comblé d'honneurs, membre d'un grand nombre d'académies et d'instituts scientifiques. Lauréat, en 1909, avec l'Allemand Karl Ferdinand Braun, du prix Nobel de physique, pour sa contribution au développement des communications par radio, il est élu sénateur en 1914, anobli en 1929 et accède, en 1930, à la présidence de l'Académie royale d'Italie. Lorsqu'il meurt, le 20 juillet 1937, toutes les stations de radio du monde lui rendent hommage en observant deux minutes de silence.
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
LES LASERS |
|
|
|
|
|
LES LASERS
Depuis l'invention du premier laser en 1960, la diversité des lasers en couleurs, taille ou puissance n'a fait que croître. Les plus petits lasers sont si minuscules qu'on ne peut les voir qu'au microscope, les plus gros consomment autant d'électricité qu'une ville moyenne. Tous les lasers ont la faculté d'émettre des rayons d'une lumière inconnue dans la nature, qui forment de minces pinceaux d'une couleur pure, et que l'on peut concentrer sur un petit foyer. Ils exploitent la possibilité, prévue par Einstein, de multiplier les photons, qui sont les particules formant la lumière, dans un matériau bien choisi. Les caractéristiques des lasers, fort différentes de celles des lampes ordinaires, leur ont ouvert des utilisations très variées. En délivrant sa puissance de façon localisée, l'outil laser est capable de percer, découper et souder avec vitesse et précision. Il est aussi utilisé en médecine où il remplace les bistouris les plus précis et cautérise les coupures. Ce sont des lasers circulant dans des fibres optiques, fins cheveux de verres dont le réseau couvre maintenant le globe terrestre, qui transportent maintenant les conversations téléphoniques et les données sur Internet. Le laser intervient aussi dans les analyses les plus fines, en physique, en chimie ou en biologie, où il permet soit de manipuler les atomes ou les molécules individuellement, soit de véritablement déclencher et photographier des réactions chimiques ou biologiques. Il identifie les molécules qui composent l'air et beaucoup de grandes villes s'équipent de lasers spéciaux pour détecter la pollution à distance. Les sciences et techniques d'aujourd'hui vivent à l'heure du laser. Beaucoup pensent que le XXIe sera celui de l'optique, et ceci, grâce au laser.
Texte de la 216e conférence de l’Université de tous les savoirs donnée le 3 août 2000.
Les lasers
par Élisabeth Giacobino
Inventé il y a quarante ans, le laser reste un instrument un peu mystérieux, voire mythique, dont la notoriété dans le grand public doit beaucoup à la guerre des étoiles. Le combat au sabre laser ou le laser rayon de la mort sont beaucoup mieux connus que d’autres utilisations, bien réelles celles-là, qui ont changé notre vie. Quand vous décrochez votre téléphone pour appeler au-delà de votre voisinage immédiat, il y a de fortes chances que votre conversation soit transmise par un laser, car les câbles téléphoniques sont maintenant en grande partie remplacés par des fibres optiques où circule la lumière laser. Sans les télécommunications par laser, capables de transmettre de très hauts débits d’information, l’expansion de l’Internet n’aurait pas été possible.
Depuis que le premier laser, un laser rouge à rubis, a fonctionné en 1960, la diversité des lasers en couleur, taille et puissance n’a fait que croître. Les plus petits lasers sont si minuscules qu’on ne peut les voir qu’au microscope, les plus gros consomment autant d’électricité qu’une ville moyenne, et nécessitent de véritables immeubles pour les abriter (Fig. 1). Leurs longueurs d’onde dépassent largement les couleurs du spectre visible pour s’étendre des rayons X à l’infrarouge lointain.
Les lasers ont en commun la faculté d’émettre des rayons très parallèles, d’une couleur pure. D’où vient cette lumière extraordinaire, inconnue dans la nature et si différente de la lumière classique émise par une lampe ?
L’émission stimulée, principe de base du laser
Comme dans une lampe ou dans un tube fluorescent, ce sont des atomes ou des molécules qui produisent la lumière. Quand les atomes sont chauffés, excités par un courant électrique ou quand ils absorbent de la lumière, leurs électrons gagnent de l’énergie. Mais ils ne peuvent stocker l’énergie que de manière très spécifique. Ainsi que l’a montré Niels Bohr en 1913, les atomes sont sur des niveaux d’énergie bien précis, dits quantifiés, entre lesquels ils peuvent transiter. Ce faisant, l’atome absorbe ou émet une particule de lumière ou photon, dont l’existence tout d’abord postulée par Max Planck en 1900, a été affirmée par Einstein en 1905 (Fig. 2). De même que les niveaux d’énergie de l’atome, l’énergie du photon échangé, et donc sa longueur d’onde et sa couleur, sont déterminées par le type d’atome ou de molécule concerné.
Dans les lampes habituelles, on fournit de l’énergie aux atomes avec un courant électrique, c’est à dire qu’on met un certain nombre de leurs électrons dans les états supérieurs ou « excités ». Ils en redescendent rapidement et retombent vers l’état de plus basse énergie en émettant de la lumière de manière spontanée et désordonnée, dans toutes les directions et sur plusieurs longueurs d’onde.
Mais outre cette émission spontanée, il existe un autre processus, découvert par Einstein en 1917, appelé émission stimulée. C’est lui qui est à la base du fonctionnement du laser. Laser est d’ailleurs un acronyme pour « Light Amplification by Stimulated Emission of Radiation » (amplification de lumière par émission stimulée de rayonnement). La lumière peut forcer l’atome à redescendre de son état excité en cédant son énergie : un photon frappe l’atome et deux photons en ressortent. L’intérêt de ce processus est que la lumière émise est exactement identique à la lumière incidente, elle va dans la même direction, et les deux ondes sont exactement en accord de phase. L’émission stimulée produit ainsi une multiplication de photons identiques et une amplification cohérente de l’onde.
L’idée du laser a été proposée en 1958 par deux physiciens américains, C. H. Townes et A. L. Schawlow, et à peu près dans le même temps par les soviétiques V.A. Fabrikant, A.M. Prokhorov et N.G. Basov. Townes, Basov et Prokhorov ont d’ailleurs eu le prix Nobel en 1964 pour cette invention. Schawlow l’a eu beaucoup plus tard, en 1981. Townes avait déjà inventé, quelques années auparavant, le « maser » qui est un laser fonctionnant en micro-ondes sur les mêmes idées. Mais on peut remarquer que tous les principes étaient là dans les années 1920. Est-ce à dire que le laser aurait pu être inventé bien avant ?
Le principal problème à résoudre était que l’émission stimulée est en compétition avec les autres voies d’interaction de la lumière avec les atomes. L’une d’elle est l’émission spontanée, déjà mentionnée plus haut, l’autre est l’absorption, par laquelle un photon arrivant sur un atome placé dans un certain niveau d’énergie disparaît tandis que l’atome passe dans un niveau d’énergie supérieure. Pour que l’absorption, comme d’ailleurs l’émission stimulée, se produise, il faut que l’énergie du photon corresponde exactement à l’énergie dont l’atome a besoin pour effectuer la transition entre les deux niveaux d’énergie. Les deux processus sont aussi probables l’un que l’autre, et celui qui domine dépend de la répartition des atomes entre les deux niveaux d’énergie concerné par la transition. Considérons, comme sur la Figure 1, un ensemble de photons arrivant sur un groupe d’atomes. Si les atomes situés dans le niveau inférieur de la transition sont majoritaires, il se produit plus d’absorptions que d’émissions stimulées et le nombre de photons diminue. Au contraire, si les atomes du niveau supérieur sont majoritaires, c’est l’émission stimulée qui domine, et il ressort plus de photons qu’il n’y en avait au départ (Fig. 3). Quand le nombre de photons est assez grand, l’émission stimulée devient beaucoup plus fréquente que l’émission spontanée.
En général, les atomes se trouvent dans les niveaux d’énergie les plus bas et la population dans les différents niveaux diminue au fur et à mesure que l’on monte. Pour faire fonctionner un laser, il faut mettre les molécules ou les atomes dans des conditions complètement anormales, où cette répartition est renversée. La population d’un certain niveau doit être plus grande que celle d’un des niveaux inférieurs : on parle d’inversion de population. L’émission stimulée peut alors l’emporter sur l’absorption.
Cette situation est difficile à réaliser et les scientifiques se basés sur des études de spectroscopie qui avaient été faites dans de nombreux matériaux, aussi bien gaz, liquides que solides pour déterminer ceux qui présentaient les caractéristiques les plus favorables. Dans certains lasers, on utilise un courant électrique pour porter un majorité d’atomes dans un état excité et les préparer pour l’émission stimulée, dans d’autres, c’est une source auxiliaire de lumière (une lampe, ou un autre laser) qui « pompe » les atomes vers le niveau supérieur. C’est le physicien français Alfred Kastler qui a le premier proposé l’idée du pompage optique, pour lequel il a reçu le prix Nobel de Physique en 1966.
Si l’amplification sur un passage dans le matériau en question n’est pas très forte, on peut la renforcer en refaisant passer l’onde dans le milieu avec un miroir, et même plusieurs fois avec deux miroirs, un à chaque extrémité. A chaque passage l’onde lumineuse accumule un certain gain qui dépend du nombre d’atomes portés dans l’état supérieur par le pompage. On pourrait penser que dans ces conditions l’onde est amplifiée indéfiniment. De fait, il n’en est rien. A chaque passage, l’onde subit aussi des pertes, pertes inévitables dues à l’absorption résiduelle du milieu et des autres éléments qui constituent le laser et surtout pertes à travers les miroirs pour constituer le faisceau laser utilisable à l’extérieur. L’onde grandit jusqu'à ce que le gain équilibre les pertes et le régime laser s’établit de manière stable dans la cavité formée par les deux miroirs. L’intensité du faisceau laser qui sort de cette cavité dépend à la fois du gain disponible dans le milieu matériel et de la transparence des miroirs. Le faisceau est d’autant plus parallèle et directif qu’il aura parcouru un grand trajet entre les deux miroirs de la cavité.
Des lasers de toutes sortes
Après la publication de l’article où Townes et Schawlow exposaient leur idée, une compétition féroce s’engage dans le monde entier pour mettre en évidence expérimentalement cet effet nouveau. Suivant de près le laser à rubis, mis au point par T. Maiman en juillet 1960, deux autres lasers fonctionnent cette année-là également aux Etats-Unis. L’un d’eux est le laser à hélium-néon, dont le faisceau rouge a longtemps été utilisé pour le pointage et l’alignement. Il est maintenant détrôné par le laser à semi-conducteur, qui a fonctionné pour la première fois en 1962. Ce sont des lasers à semi-conducteur qui sont utilisé dans les réseaux de télécommunications optiques. Au début des années 1960, une floraison de nouveaux lasers voit le jour, comme le laser à néodyme, infrarouge, très utilisé à l’heure actuelle pour produire des faisceaux de haute puissance, le laser à argon ionisé vert qui sert aux ophtalmologistes à traite les décollements de la rétine, ou le laser à gaz carbonique, infrarouge, instrument de base dans les découpes et les traitements de surface en métallurgie.
Après les nombreux allers-retours qu’il fait entre ses deux miroirs avant de sortir, le faisceau d’un laser est très parallèle et peut être focalisé sur une surface très petite, ce qui permet de concentrer une très grande puissance lumineuse. Comme elle est due à la multiplication de photons identiques, la lumière laser est une onde pratiquement monochromatique, d’une couleur très pure. Il existe aussi un autre mode de fonctionnement, dans lequel toute l’énergie du laser est condensée sur des séries d’impulsions extrêmement brèves. Le record du monde se situe actuellement à quelques femtosecondes, soit quelques millionièmes de milliardièmes de seconde. Pendant ce temps très court se comprime toute la puissance du laser, qui peut alors atteindre plus de 100 térawatts, ou 100 000 milliards de watts, soit la puissance que fournissent 100 000 centrales électriques. On conçoit que cette impulsion ne peut pas durer longtemps ! De fait si une telle impulsion dure 10 femtosecondes, elle ne contient qu’une énergie modeste, 1 joule, ou 1/4 calorie.
Des applications très variées
Ce sont les qualités extraordinaires de la lumière laser qui sont exploitées dans les diverses applications, aussi bien dans la vie courante que dans les domaines de haute technologie et pour la recherche. Le faisceau très parallèle émis par les lasers est utilisé aussi bien pour la lecture des disques compacts que pour le pointage et les relevés topographiques et pour le guidage des engins ou des missiles. Lorsque de plus le laser émet des impulsions brèves, il est aisé de mesurer la distance qui le sépare d’un objet éloigné : il suffit que ce dernier soit tant soit peu réfléchissant. On mesure le temps d’aller-retour d’une impulsion entre le laser et l’objet, impulsion qui se propage à la vitesse de la lumière, 300 000 kilomètres par seconde. Certaines automobiles seront bientôt porteuses d’un petit laser qui permettra de connaître la distance de la voiture précédente et de la maintenir constante. Un « profilomètre » laser en cours de développement permettra aux aveugles d’explorer les obstacles dans leur environnement bien plus efficacement qu’une canne blanche. Encore plus ambitieuse est la mesure de la distance de la Terre à la Lune : plusieurs observatoires, comme celui de la Côte d’Azur à Grasse possèdent un laser dirigé vers la Lune. Il se réfléchit à la surface de la Lune sur des réflecteurs placés là par les missions Apollo, et revient, certes très affaibli, mais encore détectable sur Terre (Fig. 4). C’est ainsi que l’on sait que la Lune s’éloigne de la Terre de 3,8 centimètres par an ! La recherche des ondes gravitationnelles prédites par Einstein en 1918, mais jamais observées directement, utilise aussi un laser. Une onde gravitationnelle passant sur Terre modifie très légèrement les longueurs. Un laser permet de comparer avec une précision incroyable la longueur de deux bras d’un appareil appelé interféromètre où le laser circule. On espère détecter une variation de longueur bien inférieure au rayon d’un noyau d’atome sur une distance de plusieurs kilomètres.
Les télécommunications optiques bénéficient aussi de cette possibilité qu’ont les lasers de former des faisceaux très fins et modulables en impulsions très brèves. Les câbles en cuivre ont été remplacés en grande partie par des câbles optiques dont le réseau s’étend aussi bien sous les océans que sur les continents. Dans ces câbles, des fibres optiques, fins cheveux de verre, guident les faisceaux lasers de l’émetteur au récepteur. Sur ces lasers sont inscrits en code numérique aussi bien les conversations téléphoniques que les données pour l’Internet. Les câbles transocéaniques les plus récents atteignent des capacités de transmission fabuleuses, équivalentes à plusieurs millions de communications téléphoniques. De nouveaux câbles assortis de lasers et de systèmes optiques de plus en plus performants vont permettre à la « toile » mondiale de continuer à se développer à un rythme toujours plus effréné.
Une fois focalisé, le faisceau laser concentre une grande énergie. C’est ce qu’utilisent les imprimantes lasers avec des puissances relativement modestes. Les capacités de découpe et de perçage des lasers de grandes énergie comme le laser à gaz carbonique, sont largement exploitées en mécanique. Les lasers ont aussi utilisés couramment pour nettoyer les monuments historiques. Le laser permet d’enlever très exactement la couche de pollution qui s’est accumulée sur la pierre sans endommager cette dernière. En chirurgie le laser fait merveille en particulier en ophtalmologie où il remplace les bistouris les plus précis et en dermatologie où il permet des traitements esthétiques ou curatifs de nombreuses affections : verrues, tatouages ou rides disparaissent grâce au laser.
A la frontière extrême des lasers de puissance se situe le projet français de laser « Mégajoule » et son équivalent américain NIF (pour National Ignition Facility), dans lequel 240 faisceaux lasers seront focalisés pendant 16 nanosecondes avec une puissance totale de 500 Térawatts sur une cible de quelques millimètres carrés. La température de la matière située au point focal est portée à plusieurs millions de degrés. L’objectif principal est de produire la fusion thermonucléaire par laser, mais ces lasers sont aussi susceptibles de contribuer à la recherche sur la matière dans les conditions extrêmes qui règnent dans les étoiles.
Le laser est devenu un instrument de choix pour nombre de recherches fondamentales. En physique, la réponse optique des atomes lorsqu’on les éclaire par un laser est souvent une signature irremplaçable de leurs propriétés et permet de détecter et d’identifier des traces infimes de produits divers. En chimie et en biologie, on assiste à la naissance d’un nouvelle discipline : la femtochimie laser. Si les réactions chimiques d’ensemble prennent parfois plusieurs secondes ou minutes, au niveau des atomes, tout se passe à l’échelle de la femtoseconde. Pour sonder ce domaine, on envoie une impulsion laser ultra-brève qui est capable de déclencher à volonté des réactions de décomposition ou de recombinaison de molécules. D’autres impulsions envoyées quelques femtosecondes plus tard permettent de suivre l’évolution du système du système et de faire de véritables photographies en temps réel de la réaction chimique.
Exploitant la connaissance, accumulée par les chercheurs, des longueurs d’onde que peuvent absorber les molécules, la détection de la pollution atmosphérique par laser est appelée à se développer largement. La méthode LIDAR (pour « light detection and ranging », détection et mesure de distance par la lumière) utilise un laser de la couleur adéquate pour révéler la présence dans l’air des molécules indésirables, comme les oxydes d’azote ou l’ozone. Le laser envoie des impulsions vers la zone polluée. Une faible partie de celles-ci est diffusée en sens inverse, et l’analyse de la lumière qui revient permet de déterminer la concentration en polluant. Le temps d’aller retour des impulsions donne quand à lui la distance et la dimension du nuage polluant (Fig. 5). En balayant le laser dans toutes les directions on peut ainsi réaliser une véritable carte à 3 dimensions de la composition atmosphérique. Des LIDAR sont déjà en fonctionnement ou en test dans plusieurs grandes villes françaises.
Le laser est issu de l’imagination de quelques chercheurs, qui voulaient avant tout mettre en évidence de nouveaux concepts scientifiques. Même si ses inventeurs avaient imaginé quelques unes des utilisations du laser, ils étaient loin de soupçonner les succès qu’il devait connaître. A l’époque, certains avaient même qualifié le laser de « solution à la recherche d’un problème ». Il aurait pu rester à ce stade. Si les sciences et les techniques vivent aujourd’hui à l’heure du laser, c’est aussi grâce au développement de techniques parallèles, comme les fibres à très faibles pertes pour les télécommunications. En revanche, des recherches purement orientées vers une application donnée n’auraient jamais donné ce résultat. Aujourd’hui, dans un monde dominé par la rentabilité à court terme, de telles inventions nous rappellent que la recherche de la connaissance peut aussi déboucher sur des développements technologiques extraordinaires.
VIDEO CANAL U LIEN
|
|
|
|
|
|
|
TOUT L'UNIVERS DANS UN ATOME |
|
|
|
|
|
TOUT L'UNIVERS DANS UN ATOME
(Exposé en langue Anglaise.)
Dans cet exposé, je vais expliquer que l'univers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens d'exercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que l'on trouve à l'intérieur des atomes mais il est intimement relié à l'univers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.
Tout lunivers dans un atome
Gerardus t Hooft
Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens d’exercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.
Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.
La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.
Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.
Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.
La structure de l’atome
Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.
Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de l’atome.
Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.
Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.
Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.
Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.
Les outils pour étudier la structure de latome
Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.
La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.
Les forces dinteractions et les particules de Yang-Mills
Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?
Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.
Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.
VIDEO CANAL U LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante |
|
|
|
|
|
|