ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Communiqué de presse Élucidation du mystère de l’origine
des disques de gaz massifs autour des étoiles

 

 

 

 

 

 

 

Paris, le 22 novembre 2018

Communiqué de presse


Élucidation du mystère de l’origine
 des disques de gaz massifs autour des étoiles

Pourquoi des disques de gaz massifs subsistent-ils dans les systèmes planétaires pendant plusieurs dizaines de millions d’années, bien après que les planètes se soit formées ? Et ce, alors même que les modèles de formation planétaire prédisent le contraire. Une nouvelle étude menée par un astronome de l’Observatoire de Paris - PSL au Laboratoire d’études spatiales et d’instrumentation en astrophysique (Observatoire de Paris – PSL / CNRS / Sorbonne Université / Université Paris Diderot) vient de faire la lumière sur ce mystère. Elle parait dans la revue Monthly notices of the Royal Astronomical Society, le 22 novembre 2018.

Près de 4 000 exoplanètes ont déjà été découvertes. Pour répondre aux problématiques de quête de vie extraterrestre dans l’Univers, caractériser précisément les systèmes planétaires dans notre Galaxie représente un enjeu crucial, avant même d’imaginer pouvoir les observer directement. Une des voies pour y parvenir est l’étude des très jeunes systèmes planétaires en formation (la phase protoplanétaire), à travers l’analyse de leur teneur en gaz et en poussière, un milieu dans lequel orbitent les protoplanètes naissantes.
Avec l’avènement de la nouvelle génération d'observatoires dans le domaine du millimétrique (comme le radiotélescope ALMA), l’étude de systèmes planétaires plus matures et de leur composante gazeuse devient possible. Si ce stade d’évolution, qui suit la phase protoplanétaire, retient l’attention des astronomes, c’est que les planètes ont fini de se former. Là, les observations sont formelles : ces systèmes planétaires plus évolués, dont l’âge oscille entre 10 et 100 millions d'années, ont eux aussi des disques de gaz, alors même que les modèles de formation planétaire prédisaient le contraire.
Cette présence de gaz a intrigué les astronomes. Deux hypothèses ont longtemps été mises en avant :
- Soit, ces disques de gaz sont les restes de la phase protoplanétaire jeune ;
- Soit, ils ont une origine secondaire : ils sont créés plus tard et le gaz serait évaporé de planétésimaux, corps rocheux issus de la coalescence de grains de poussière en corps compacts, qui orbitent dans ces systèmes à l’instar de notre Système solaire, dans les ceintures d'astéroïdes ou de Kuiper.

La recherche de monoxyde de carbone (CO) est l’un des moyens pour les astronomes d’accéder à la composition des planétésimaux dans les systèmes planétaires évolués. La découverte de disques de CO massif est
en nombre croissant, avec une dizaine connue pour l’heure. La quantité de gaz présente et sa distribution suggèrent que ces disques ne sont pas les restes de la phase protoplanétaire jeune, mais sont dus à un dégazage plus tardif (origine secondaire).
Cependant, la molécule de CO étant fragile, même tardive, elle devrait être détruite sous l’effet du rayonnement UV continu qui provient de l'espace. Comment expliquer ce paradoxe ?

Un nouveau modèle : le bouclier
La nouvelle étude fournit une explication : le monoxyde de carbone peut se protéger lui-même. Le CO qui s'évapore des planétésimaux est initialement détruit par les photons UV (comme attendu). Après la destruction des molécules de CO, les fragments qui subsistent -- des atomes de carbone et d'oxygène -- créent leur propre bouclier de protection. Une fois le CO détruit en quantité, le bouclier devient assez puissant pour protéger le CO ; le disque de CO se met ainsi à grossir et à s’étaler.

Les auteurs de l’étude ont testé leur nouveau modèle en observant avec ALMA le système situé autour de l'étoile HD 131835. Le CO avait déjà été observé dans ce système. Ainsi pour tester leur théorie, ils ont analysé les atomes de carbone censés servir de bouclier au CO.

La théorie corroborée par des observations
Les observations corroborent la théorie: Premièrement, la masse d'atomes de carbone dans le système est effectivement assez grande pour servir de bouclier au CO. Et enfin, la quantité de CO observée est compatible avec l'hypothèse que le gaz a bien une 'origine secondaire' et que le gaz observé est donc bien relâché par les planétésimaux du système.
La publication fait aussi des prédictions quant à la quantité de carbone présente dans les autres systèmes où des disques massifs sont observés, ce qui pourra être testé dans le futur proche.

"C'est une découverte très importante qui résout un des grands mystères de la théorie de la formation planétaire. Grâce à notre travail, on comprend maintenant l'origine de ces disques de gaz massifs observés autour de systèmes planétaires matures. Ceci donne accès, pour la première fois, à la composition des exoplanétésimaux qui relâchent le gaz dans ces systèmes, que l'on comparera très bientôt avec la composition des planétésimaux de notre Système solaire », indique Quentin Kral, astronome de l'Observatoire de Paris et premier auteur de l'étude.

Référence :
Ce travail de recherche a fait l'objet d'un article intitulé « Imaging [CI] around HD 131835: reinterpreting young debris discs with protoplanetary disc levels of CO gas as shielded secondary discs » par Q. Kral, et.al. paraissant le 22 novembre 2018 dans la revue Monthly notices of the Royal Astronomical Society.

Observatoire de Paris - PSL • 61 avenue de l’Observatoire • 75014 Paris • France www.observatoiredeparis.psl.eu

 

  DOCUMENT         CNRS         LIEN  
 

 
 
 
 

ASTRES À la recherche du temps zéro

 

 

 

 

 

 

 

ASTRES À la recherche du temps zéro

Jean-Pierre Luminet dans mensuel 390
daté octobre 2005 -

Les modèles de Big Bang prévoient que plus on remonte dans le passé, plus l'Univers est chaud et dense, et ce, jusqu'à un moment singulier, très proche de l'origine, où la physique actuelle ne peut plus rien décrire. Mais l'origine elle-même a-t-elle une quelconque réalité ?
L'Univers est en expansion, nous suggèrent fortement les observations des galaxies et de leurs amas. Qu'elle soit accélérée ou non, il semble que cette expansion ne connaisse pas de fin. L'Univers serait donc éternel. Et si nous remontions le film de l'Univers à l'envers ? Le temps cosmique se prolonge-t-il, dans le passé, jusqu'à une valeur infinie, ou bien est-il borné à une valeur finie ? C'est l'une des plus grandes énigmes de l'astrophysique.

Selon la théorie de la relativité générale, la réponse dépend du contenu de l'Univers. Si ses propriétés sont celles de la matière ou du rayonnement que nous connaissons, alors les distances cosmiques diminuent inexorablement avec le temps passé. Il existe nécessairement un instant, un « temps zéro », où toutes les longueurs cosmiques ont une valeur nulle. Cet événement singulier aurait présidé à l'apparition de l'espace, du temps et de la matière. C'est ce qu'énoncent les modèles de Big Bang, définis comme ceux où l'expansion cosmique ne s'écoule que depuis une durée finie.

Ce « temps zéro » se situe à 13,7 milliards d'années dans le passé selon les calculs et les observations actuels, fondés sur l'analyse du rayonnement cosmologique fossile ou des supernovae lointaines. Cela exclut évidemment de considérer tout instant antérieur. Cela implique aussi qu'il ne peut exister aucun objet dont l'âge puisse dépasser 13,7 milliards d'années, et qu'aucune horloge n'a jamais pu mesurer une durée plus longue. Or les âges des étoiles, mesurés grâce aux isotopes radioactifs à longue durée de vie, véritables chronomètres naturels, se distribuent précisément entre 0 et 14 milliards d'années. À elle seule, cette observation constitue un argument remarquable en faveur des modèles de Big Bang. Ceux-ci sont en outre confirmés par beaucoup d'autres résultats : l'abondance observée des éléments légers, la découverte du rayonnement de fond cosmologique et de ses propriétés, l'évolution des galaxies... Aussi ces modèles sont-ils aujourd'hui quasi unanimement adoptés par les astrophysiciens. Conjugués aux observations accumulées tant par les grands télescopes que dans les accélérateurs de particules, ils permettent de retracer les principales étapes de l'histoire de l'Univers voir l'encadré « Petite chronologie de l'Univers », page 32.
Que le temps ait connu un début préoccupe le physicien. Car, dans le cadre de la relativité générale, cette limite temporelle se présente sous la forme d'une « singularité », un point vers lequel on tend sans jamais l'atteindre : l'Univers aurait été concentré dans un volume infiniment petit, infiniment dense, et de courbure infiniment grande. Cette singularité initiale marque une réelle interruption vers le passé des lignes d'Univers des galaxies, c'est-à-dire de leurs trajectoires d'espace-temps [fig. 1] . La singularité n'est pas réellement un événement : elle n'a pas pris place et n'a pas eu lieu. Par là même, elle échappe nécessairement au champ de nos théories !
Pour le mathématicien, la singularité constitue un bord temporel, situé à une durée passée finie. Difficile à admettre ! Pourtant, le problème est identique à celui de la finitude de l'espace, quiavait longtemps buté contre une telle question de limite, jusqu'à l'introduction des géométries non euclidiennes et de la topologie. Celles-ci ont permis de considérer un espace fini mais sans limites. Ce qui n'est pas contradictoire. Mais le bord temporel pose un problème d'une autre nature, tenant à la fois à son caractère fini - la finitude du temps correspond à l'arrêt brutal des lignes d'Univers - et à son caractère infini au vu des valeurs inconcevablement grandes de la densité et de la courbure.

Inévitable singularité cosmique
C'est la raison pour laquelle les cosmologistes ont cherché à se débarrasser de cette monstruosité et tenté de démontrer que le temps zéro n'a pas pu réellement se produire. Ainsi, en 1963, les Russes Isaac Markovich Khalatnikov et Evgenii Mikhailovich Lifshitz ont vainement suggéré que l'utilisation d'hypothèses simplificatrices injustifiées avait peut-être faussé les calculs [1] ; elle aurait fait apparaître, dans les solutions des équations de la relativité générale, une singularité qui n'existerait pas réellement.

Ce n'est pas le cas. Les singularités cosmologiques sont une conséquence inéluctable de la relativité générale, moyennant une hypothèse raisonnable portant sur la nature de la matière et de l'énergie qui emplit l'Univers. C'est ce qu'avait déjà esquissé, dès 1933, le Belge Georges Lemaître. Il anticipait ainsi les « théorèmes sur les singularités », redémontrés de façon plus générale en 1965 et qui rendront célèbres leurs auteurs, les astrophysiciens britanniques Stephen Hawking et Roger Penrose [2] : une singularité cosmique est inévitablement présente dans le passé de n'importe quel modèle d'Univers, pour peu qu'il satisfasse à la relativité générale et contienne autant de matière que ce qui est observé.
La seule solution pour se débarrasser des infinis gravitationnels est de sortir du cadre de la relativité générale classique. Cette voie semble raisonnable, car les physiciens considèrent que l'apparition d'une singularité, caractérisée par des grandeurs infinies, marque la limite de validité d'une théorie. Or la relativité générale n'est pas une théorie complète, faute d'incorporer les préceptes de la physique quantique qui décrit le monde microscopique. Il semble donc absolument téméraire, et quasi injustifié, d'extrapoler les résultats de la relativité générale jusqu'à des distances extrêmement petites, en particulier celles correspondant à une singularité. C'est le cas des distances inférieures à la longueur de Planck, soit 10-35 mètre. Cette échelle joue le rôle d'une sorte d'horizon microscopique. Sans savoir ce qui se passe exactement à ces dimensions, les physiciens estiment que la géométrie pourrait devenir elle-même sujette à des fluctuations quantiques, que la relativité ne permet pas de prendre en considération.

Géométrie floue
Or, selon les modèles de Big Bang, la reconstitution passée de l'évolution des longueurs dans l'Univers mène à une valeur aussi petite que 10-35 mètre. Cela se passe à un moment de l'histoire cosmique appelé « ère de Planck », qui correspond à 10-43 seconde après le temps zéro. Les valeurs de la température et de la densité étaient alors énormes, respectivement 1032 kelvins et 1094 grammes par centimètre cube. Dans des conditions si terribles, la relativité générale ne peut être appliquée, ne serait-ce que parce qu'elle est impuissante à prendre en compte les effets quantiques, alors prépondérants. Aborder cette période nécessite impérativement le soutien d'une théorie de la gravitation quantique, ou du moins d'une théorie qui unifie les quatre interactions fondamentales.

La physique actuelle ne permet donc de remonter l'histoire passée de l'Univers que jusqu'à l'ère de Planck, car les tentatives d'imaginer les états antérieurs débouchent sur un flou quantique. Et pourtant on voudrait en dire davantage sur l'ère de Planck. Cette limite sur laquelle bute la physique, frontière de nos connaissances, implique que le cadre habituel de la variété espace-temps, continue, à quatre dimensions, éclate complètement.

L'idée de la gravité quantique, émise par John Wheeler au début des années 1960 [3] , et de la nouvelle cosmologie qui en découlerait, est qu'au niveau microscopique la géométrie de l'Univers pourrait être floue, comparable à une sorte d'écume constamment agitée de petites fluctuations [fig. 2] . On pourrait la comparer à la surface d'un océan : vu d'avion, l'océan paraît lisse. D'une plus basse altitude, sa surface apparaît toujours continue, mais on commence à percevoir quelques mouvements qui l'agitent. Plongé dans l'océan, le nageur le voit tumultueux, discontinu même, puisque des vagues se brisent, projetant des gouttes d'eau qui s'élèvent et retombent. De la même façon, l'espace-temps paraît continu à l'échelle humaine, et aussi à celle des noyaux atomiques, mais son « écume » pourrait devenir perceptible à l'échelle de Planck. Certaines de ses gouttes pourraient se manifester à nous sous forme de particules élémentaires.
Jusqu'à présent, aucune théorie complètement cohérente et calculable de gravité ou de cosmologie quantique n'a été établie. Diverses descriptions préliminaires ont été tentées, comme la géométrodynamique quantique des Américains John Wheeler et Bryce de Witt en 1967 [4] . Cette théorie voudrait traiter la géométrie de l'espace-temps de la même manière que la physique quantique ordinaire traite la matière et l'énergie, c'est-à-dire en termes de grains ou « quanta » d'espace et de temps.


Une équation inutilisable
La première version de la géométrodynamique quantique, dite « canonique », est régie par une équation proposée en 1967 par Wheeler et de Witt. Cette équation est l'équivalent pour la gravitation de l'équation de Schrödinger pour la mécanique quantique, qui décrit la probabilité de présence d'une particule en termes d'une « fonction d'onde ». La différence est que, dans l'équation de Wheeler-de Witt, les variables ne sont plus la position et la vitesse d'une particule, mais la géométrie de l'espace et son contenu matériel ! Cette équation très complexe est inutilisable, en pratique, sous sa forme générale. La seule chance d'en trouver des solutions est de simplifier considérablement le problème. Par exemple, on peut se limiter à considérer, pour l'espace, une famille restreinte de géométries possibles, très simples, comme celles à courbure constante. Il faut encore, pour cela, spécifier des conditions aux limites pour l'Univers, en particulier ce que devient l'espace-temps à l'approche de la singularité. Ces conditions façonnent le comportement spatio-temporel de la fonction d'onde de l'Univers, à peu près de la même façon que la trajectoire d'une particule en mécanique classique est spécifiée par sa position et sa vitesse initiales. Dans le cas de la cosmologie, cela soulève des questions fondamentales qui sont loin d'être résolues.

Diverses suggestions ont été proposées, notamment par « l'école russe » dirigée par Andreï Linde et Alex Vilenkin au début des années 1980 [5] , [6] et par « l'école anglo-saxonne », notamment par Jim Hartle et Stephen Hawking. En termes simples, le modèle quantique de Hartle et Hawking [7] n'envisage que des géométries spatio-temporelles sans frontière ni bord, comme l'est la surface d'une sphère, mais avec deux dimensions supplémentaires. Selon ces modèles, l'Univers serait fini non seulement dans l'espace son volume total est fini mais aussi dans le temps. La problématique singularité initiale disparaît alors. Plus exactement, elle se transforme en une simple singularité des coordonnées, comme le pôle Nord d'une sphère. Aucune violation des lois de la physique n'y apparaît. L'Univers n'aurait plus aucune frontière, ni spatiale ni temporelle. Il n'aurait pas eu de commencement et n'aura jamais de fin. Cette nouvelle « éternité du temps » n'est toutefois retrouvée qu'au prix de l'abandon du temps cosmique réel mesuré par les horloges ou par l'expansion des galaxies au profit d'un temps imaginaire au sens mathématique du terme. Il resterait à proposer une interprétation satisfaisante de tout ceci, ce qui est loin d'être le cas.

Une « mousse de mini-Univers »
La suggestion d'Andreï Linde est très différente. Elle suppose des conditions initiales chaotiques. Qualitativement, la solution se présente sous la forme d'un gigantesque Univers éternel et autoreproducteur, que l'on compare parfois à une « mousse de mini-Univers ». Chacune des « bulles » de cette mousse aurait ses propres caractéristiques : constantes physiques, nombre de dimensions spatiales, dynamique..., ce qui permet de la considérer, de manière abusive, comme un « autre Univers ». La totalité de notre Univers observable à distinguer de l'Univers dans sa totalité serait constituée d'une infime partie de l'une de ces bulles, partie qui aurait été démesurément gonflée par un processus ultra-efficace d'expansion, baptisé « inflation ». Chaque bulle individuelle - en particulier celle qui constituerait « notre Univers » - pourrait naître et mourir. Mais l'Univers « global » n'aurait ni commencement ni fin.
Bien évidemment, une telle idée ne sera sans doute jamais vérifiable, ni observable. On se situe ici aux frontières de l'approche scientifique... et sans doute déjà de l'autre côté.

D'autres approches de la gravité quantique existent, telles la théorie des supercordes, la théorie des boucles ou les géométries non commutatives. Certains modèles cosmologiques qui en découlent permettent d'éliminer la singularité initiale et d'envisager une ère « pré Big Bang » pour l'histoire de l'Univers [fig. 3] . Malgré tout, les diverses théories de cosmologie quantique soulèvent autant, sinon plus, de problèmes qu'elles n'en éclairent sur les débuts de l'Univers. Mais c'est ce qui fait leur richesse et leur intérêt. Résolvent-elles l'énigme du temps zéro ? La réponse est ambiguë : oui, selon certains modèles, non selon d'autres. L'incertitude résulte peut-être de la simplification exagérée imposée pour pouvoir résoudre les équations. Quoi qu'il en soit, les singularités devront disparaître dans le cadre de la nouvelle vision unifiée que cherchent à construire les physiciens.

EN DEUX MOTS Depuis l'avènement et les succès de la théorie du Big Bang, la question de l'origine du temps, ignorée tant qu'on pensait l'Univers éternel, est devenue incontournable. Les deux théories décrivant le monde physique, la relativité générale pour l'infiniment grand et la mécanique quantique pour l'univers microscopique, sont incapables de décrire cet instant où les caractéristiques de l'Univers prennent des valeurs soit nulles, soit infinies.
[1] E. M. Lifshitz et I. M. Khalatnikov, Advances in Physics, 12, 185, 1963.
[2] S. W. Hawking et R. Penrose, Physical Letters, 17, 246, 1965 ; Proceedings of the Royal Society of London, A 314, 529, 1970.
[3] J. A. Wheeler, Geometrodynamics, Academic Press, 1962.
[4] B. S. de Witt, Phys Rev. 160, 1113, 1968 ; J. A. Wheeler, in Battelle Rencontres, dir. C. M. de Witt et J. A. Wheeler Benjamin, New York, 1968.
[5] A. D. Linde, Physics Letters, 1298, 177, 1983.
[6] A. Borde et A. Vilenkin, Phys. Rev. Lett., 72, 3305, 1994.
[7] J. B. Hartle et S. W. Hawking, Phys. Rev., D28, 2960, 1983.


SAVOIR
POUR EN SAVOIR PLUS
J.-P. Luminet et M. Lachièze-Rey, De l'infini..., Dunod, 2005.
L. Z. Fang et R. Ruffini dir., Quantum Cosmology, World Scientific, 1987.
A. Linde, Inflation and Quantum Cosmology, Academic Press, 1990.
S.Hawking, Une brève histoire du temps, Flammarion, Coll. « Champs », 1999.

 

   DOCUMENT   larecherche.fr    LIEN

 
 
 
 

À la source des rayons cosmiques

 

 

 

 

 

 

 

À la source des rayons cosmiques

Antoine Letessier-Selvon dans mensuel 424
daté novembre 2008 -

On inaugure ce mois-ci l'observatoire Auger, le détecteur le plus vaste jamais conçu. Ses premières observations éclairent déjà l'une des grandes énigmes de l'astrophysique : l'origine des particules cosmiques de très haute énergie.
Ce sont les particules les plus puissantes de l'Univers : leur énergie extrême dépasse les 1020, soit des centaines de milliards de milliards, électronvolts * eV. En comparaison, les particules étudiées dans les plus grands accélérateurs, y compris celles attendues au tout nouveau LHC à Genève, sont dix millions de fois moins énergétiques. Pourtant, le mystère entourant la nature et l'origine des « rayons cosmiques de très haute énergie », c'est ainsi qu'on les nomme, constitue l'une des grandes énigmes en astrophysique. D'où viennent-ils ? Que sont-ils ? Des protons, des noyaux d'atomes lourds, des particules exotiques ? Comment atteignent-ils des énergies aussi extrêmes ? Autant de questions qui restent ouvertes.

Particules secondaires
C'est pour tenter d'y répondre que le plus vaste observatoire astronomique du monde, l'observatoire Pierre-Auger, a été déployé dans la Pampa argentine, par 35º de latitude sud et 65º de longitude ouest, au pied de la cordillère des Andes. Sa construction vient de s'achever. Au final, c'est un ensemble de 1 600 capteurs et 24 télescopes répartis sur 3 000 kilomètres carrés, soit un quart de l'Ile-de-France, que l'on inaugure ce mois-ci. Pas moins de 450 physiciens de 17 pays participent à ce défi tant scientifique que technologique.
C'est que les rayons cosmiques de très haute énergie sont très rares puisque à peine un par siècle et par kilomètre carré atteint la surface de la Terre. De plus on ne les détecte pas directement : arrivés au sommet de l'atmosphère, ils interagissent violemment avec celle-ci et produisent une cascade de milliards de particules. Et ce n'est qu'à travers cette cascade de particules secondaires qui bombardent le sol que l'on peut espérer découvrir la nature et la provenance du rayon cosmique qui l'a déclenchée, ainsi que la source de son énergie extrême.
Revenons un instant sur la découverte de ces mystérieux messagers qui traversent l'Univers. En 1912, à bord de son ballon à hydrogène et à 5 000 mètres d'altitude, l'Autrichien Victor Hess découvre qu'un flux de particules chargées venu de l'espace pénètre l'atmosphère terrestre. Ensuite, en 1938, grâce à des détecteurs installés dans les Alpes, le Français Pierre Auger enregistre l'arrivée de particules simultanément à différents endroits : c'est la première observation d'une cascade atmosphérique de particules secondaires, nées de la collision de la particule initiale avec les molécules de l'atmosphère. Il évalue à 1015 eV, l'énergie de l'événement. C'est à l'époque le rayon cosmique le plus puissant connu. Le seuil de 1020 eV est dépassé en 1962 : le premier rayon cosmique de très haute énergie est en effet détecté par les capteurs d'un réseau déployé au Nouveau Mexique [1] .
Mais plus leur énergie est élevée, plus les rayons cosmiques sont rares. Et ces nouvelles données ne dissipent guère le mystère de leur origine. De nombreuses hypothèses sont avancées, mais aucune n'est satisfaisante.
En revanche, en 1966, les rayons cosmiques font l'objet d'une prédiction théorique très intéressante. L'existence d'un fond diffus cosmologique, héritage du premier rayonnement émis par l'Univers 380 000 ans après le Big Bang, vient d'être prouvée un an plus tôt. L'Américain Kenneth Greisen d'un côté et les Russes Georgiy Zatsepin et Vadim Kuz'min, de l'autre, remarquent que les rayons cosmiques doivent forcément interagir avec les photons de ce fond diffus. Or une telle interaction devrait réduire considérablement leur énergie. Ainsi des rayons cosmiques voyageant sur des distances intergalactiques ne devraient jamais dépasser les 60 X 1018 eV. Un seuil connu aujourd'hui sous le nom de limite « GZK ». Si cette prédiction est juste, une particule qui atteint la Terre avec une énergie supérieure à 60 X 1018 eV proviendrait d'une région relativement proche, c'est-à-dire située à moins de 500 millions d'années-lumière. Quand cette prédiction a été énoncée, aucune expérience n'était capable de la tester de manière fiable, et cela jusqu'au début des années 1990. Au milieu de cette décennie, deux expériences, très différentes dans leur principe, Fly's Eye aux États-Unis et Agasa au Japon, y parvinrent enfin. Mais leurs résultats étaient contradictoires. D'un côté Fly's Eye n'avait enregistré que quelques événements au-delà de 100 X 1018 eV dont un, record, dépassant les 300 X 1018 eV, ce qui est cohérent avec la limite GZK, étant donné que les sources susceptibles d'accélérer des particules à un tel niveau dans notre voisinage sont très rares. De l'autre, selon l'expérience Agasa, le spectre des rayons cosmiques semblait se prolonger sans changement notable, y compris aux énergies les plus hautes. Cette contradiction a provoqué un intense débat.

3 000 kilomètres carrés
D'autant plus qu'un autre point de désaccord existait entre les deux expériences. Agasa observait plusieurs agrégats de deux ou trois rayons cosmiques de 40 X 1018 eV provenant de la même direction, alors que Fly's Eye ne voyait rien de tel. Mais elles s'accordaient au moins sur une chose : aucune source astrophysique au voisinage de notre galaxie n'était visible dans la direction d'arrivée des rayons. Avec seulement une grosse dizaine d'événements détectés au-delà de 100.1018 eV, les chances d'avancer sur ces questions restaient cependant très minces. Seule une forte augmentation des mesures, et donc un dispositif bien plus étendu pouvaient donner l'espoir de lever ces contradictions. Jim Cronin, Prix Nobel de physique, et Alan Watson, de l'université de Leeds, ont alors entrepris d'explorer les moyens d'y parvenir.
En 1992, au cours d'une réunion à Paris sur le campus de Jussieu, les deux chercheurs présentent leur projet, le futur observatoire Auger. Les grandes lignes y sont édifiées. L'année suivante le concept hybride, qui associe les deux techniques de détection utilisées par Fly's Eye et Agasa au sein du même capteur, est mis au point. Et, en 1995, un document de 250 pages précise les objectifs scientifiques et les choix techniques pour la construction. Il décrit un observatoire constitué de deux dispositifs expérimentaux : un réseau de 1 600 capteurs Cherenkov lire « Des cuves par milliers », ci-dessous, répartis sur un maillage de triangles de 1,5 kilomètre de côté, couvre un total de 3 000 kilomètres carrés. Ce déploiement est nécessaire pour maximiser les chances d'enregistrer les particules d'une même cascade réparties sur de très grandes surfaces et remonter ainsi jusqu'au rayon cosmique initial. Ce réseau fonctionne en permanence. Un ensemble de 24 télescopes à fluorescence lire « Lumière fluorescente » ci-contre, installés sur 4 sites du maillage triangulaire, dont les mesures sont plus précises, permet de mieux calibrer l'ensemble des mesures. De plus mesurer le même phénomène par deux instruments différents aide à mieux comprendre les éventuels biais expérimentaux. Tel est le projet sur le papier.
Restait à le mettre en oeuvre, et pour cela satisfaire des critères exigeants et parfois contradictoires : par exemple, couvrir la plus grande surface possible sans pour autant effrayer nos agences de financement ; trouver un site au ciel pur, en altitude, loin de toute pollution, et néanmoins facile d'accès et riche en infrastructures ; et bien sûr convaincre une communauté scientifique internationale aussi large que possible sur un projet très risqué [2] .
Cette même année 1995, Ken Gibbs, de l'université de Chicago, et moi-même sommes partis à la recherche du site idéal avec un cahier des charges très précis. En novembre, l'Argentine est choisie pour accueillir l'observatoire lors d'une réunion fondatrice au siège de l'Unesco à Paris. Et le document final est remis aux agences de financement fin 1996 : le prix à payer s'élève à 50 millions de dollars.

27 événements
Trois ans plus tard, en 1999, le financement en grande partie assuré, la construction commence. Et après quatre ans d'installation, de tests et de validation de nos prototypes, une centaine de cuves sont opérationnelles. L'observatoire enregistre ses premières données exploitables début 2004. Il nous a donc fallu un peu plus de dix ans pour passer de l'idée d'un détecteur grand comme un département à sa réalisation. Mais nos efforts sont vite récompensés. Dès juillet 2005, les analyses préliminaires des premières données, présentées à la Conférence internationale sur les rayons cosmiques de Pune en Inde, prouvent la pertinence de l'observatoire Auger, avec un rythme de détection trente fois plus élevé que les expériences précédentes. Et, en novembre 2007, alors que l'installation du réseau de surface n'est pas encore achevée, les données accumulées suffisent déjà à publier dans le magazine Science des résultats remarquables [3] .

L'observatoire a alors détecté 27 événements d'énergie supérieure à 60 1018 eV, c'est-à-dire dépassant la limite GZK. Ces données et les plusieurs milliers d'enregistrements de rayons cosmiques de moindre énergie, mais tout de même au-dessus de 3 X 1018 eV, ont conduit à des observations fondamentales. En premier lieu, les 27 événements ne sont pas répartis au hasard sur le ciel : pour 20 d'entre eux, il existe dans un rayon de 3 degrés autour de leur direction d'arrivée une galaxie active située à moins de 300 millions d'années-lumière de la Terre, ce qui, à l'échelle de l'Univers, correspond à notre proche banlieue. Une galaxie dite « active » possède un noyau central extrêmement brillant - on parle d'un noyau actif de galaxie. Or, ces objets sont les sources de lumière stables les plus puissantes de l'Univers et le siège de phénomènes mettant en jeu des énergies gigantesques.

Cette découverte a des conséquences. Tout d'abord, elle démontre que l'origine des rayons cosmiques les plus énergétiques, bien que proche, se situe hors de notre galaxie. Ensuite, elle conforte l'une des hypothèses avancées quant au mécanisme qui leur confère une telle énergie. Celle selon laquelle les rayons cosmiques correspondraient à des particules chargées et au repos, accélérées par les champs électriques et magnétiques colossaux entourant certains objets ou phénomènes astrophysiques comme les trous noirs avaleurs de galaxies, les jeunes étoiles à neutrons ou les collisions de galaxies. Dans ces environnements, les particules en question seraient vraisemblablement des protons ou des noyaux de fer. La plupart des rayons cosmiques de très haute énergie seraient donc issus de sources astrophysiques dites proches, probablement des galaxies actives, ou, tout au moins, des objets ayant une distribution similaire dans le ciel. Un rayon angulaire de 3 degrés sur le ciel est en effet très vaste - pour fixer les idées, le diamètre de la pleine lune mesure 0,5 degré. De nombreux objets peuvent s'y trouver, et la proximité des galaxies actives ne suffit pas à les désigner comme les sources certaines des rayons cosmiques.
EN DEUX MOTS D'où viennent les rayons cosmiques, les particules les plus énergétiques qui nous parviennent de l'Univers ? Un observatoire a été déployé depuis 1999 dans la Pampa argentine pour les détecter. À peine achevé, il a déjà enregistré 27 rayons cosmiques dont l'énergie dépasse 60 X 1018 eV. Et ces rayons ne sont pas répartis au hasard. Au voisinage de chacun d'entre se trouve une galaxie active.

Prédiction vérifiée
La mesure du flux de rayons cosmiques en fonction de l'énergie apporte aussi un nouvel éclairage. Elle montre une chute brusque au-delà de 60 X 1018 eV, qui coïncide avec la limite GZK. Ainsi, avant même l'inauguration officielle de l'observatoire, la première collection d'événements commence non seulement à lever le voile sur l'origine de ces fameuses particules, mais apporte la première observation indiscutable de la limite GZK.
Une nouvelle fenêtre sur l'Univers vient de s'ouvrir. À l'instar de la lumière en astronomie classique, les rayons cosmiques très énergétiques pourraient faire figure de nouveaux messagers pour une astronomie alternative. La construction d'un observatoire encore plus grand dans l'hémisphère Nord pour couvrir l'ensemble du ciel, et l'extension de l'observatoire Auger dans le sud pour multiplier les événements détectés devraient nous y aider dans les cinq prochaines années.
[1] J. Linsley, Phys. Rev. Lett., 10, 146, 1963.
[2] M. Boratav, « Des scientifiques dans la pampa », La Recherche, novembre 1999, p. 46.
[3] The Pierre Auger Collaboration, Science, 318, 938, 2007.
NOTES
* Un électronvolt est l'unité d'énergie. Elle équivaut à 1,6 X 10-19 joule, soit l'énergie d'un électron soumis à une différence de potentiel de 1 volt.

CAPTEURS : DES CUVES PAR MILLIERS
LES CAPTEURS CHERENKOV sont des cuves de plastique, de 1,2 mètre de haut et 3 mètres de diamètre, remplies d'eau ultrapure . Les particules de la cascade atmosphérique provoquée par les rayons cosmiques produisent au contact de l'eau un rayonnement lumineux, appelé rayonnement Cherenkov. Ce rayonnement, très faible, est détecté par un ensemble de 3 photomultiplicateurs, sorte de tube cathodique fonctionnant à l'envers, qui transforme la lumière en électricité. Le signal électrique est alors daté grâce à une horloge synchronisée sur les horloges atomiques des satellites du Global Positioning System GPS, au dix milliardième de seconde près et numérisé. Chaque seconde, des milliers de particules traversent les cuves et laissent un petit signal. Seuls les enregistrements pertinents, c'est-à-dire ceux qui comptabilisent le plus de particules, sont stockés localement. Et, pour les vingt qui semblent les plus intéressants, l'heure d'occurrence est envoyée par radio au système central, situé à plusieurs dizaines de kilomètres. Après analyse et comparaison avec les autres enregistrements effectués sur le réseau au même instant, le système central demandera éventuellement l'enregistrement complet stocké par les cuves. C'est cette centralisation qui permet de découvrir a posteriori d'éventuelles corrélations à très grandes distances sur le réseau, et donc de reconstituer les cascades de particules.

OBSERVATION : LUMIÈRE FLUORESCENTE
LES TÉLESCOPES À FLUORESCENCE sont des instruments optiques de très haute sensibilité . Ils permettraient de détecter, à plus de 40 kilomètres, une ampoule de quelques dizaines de watts traversant le ciel à la vitesse de la lumière. Lors du développement de la cascade de particules dans l'atmosphère, les atomes d'azote sont ionisés, et leur désexcitation produit une lumière de fluorescence que détectent nos télescopes. Naturellement, de tels instruments ne peuvent pas fonctionner en plein jour, ni même lorsque la Lune est visible. Alors que le réseau de surface fonctionne 24 heures sur 24 et 365 jours par an, les télescopes ne recueillent des données que 10 % du temps. Mais ils donnent un accès plus direct à l'énergie de la particule incidente et sont donc indispensables pour étalonner l'ensemble du dispositif.
SAVOIR
Le site de l'observatoire Auger.
www.auger.org

 

   DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

 

 

 

 

 

 

 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.

LES TROUS NOIRS ET LA FORME DE L'ESPACE


Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet
Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?

L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.

Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.

Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !

Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.

Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.

Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs

Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !

La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.

- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).

Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.

Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.
Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).

Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.

Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.
Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.
Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.
COMMENTAIRES

AJOUTER UN COMMENTAIRE LIRE LES COMMENTAIRES
Alain MOCCHETTI 14/02/2018 00H09
QU'EST-CE QU’UN VORTEX ESPACE - TEMPS ET UN TROU DE VER ?
Un Vortex Espace – Temps ou Porte Spatio-Temporelle est un 4ème type de VORTEX qui permet de voyager à la fois dans l’Espace et dans le Temps :
- Voyager dans l’Espace en reliant un Univers Multiple à un autre,
- Voyager dans l’Espace en reliant un Univers Parallèle à un autre,
- Voyager dans l’Espace en reliant 2 points au sein du même Univers Multiple ou du même Univers Parallèle.
Il permet de voyager également dans le Temps :
- Du Futur vers le Passé,
- Du Passé vers le Futur.
Certains Vortex qui permettent de voyager dans l’Espace Temps sont appelés TROU DE VER.
Définition d’un Trou de Ver :
Un trou de ver est, en physique, un objet hypothétique qui relierait deux feuillets distincts ou deux régions distinctes de l'espace-temps et se manifesterait, d'un côté, comme un trou noir et, de l'autre côté, comme un trou blanc. Un trou de ver formerait un raccourci à travers l'espace-temps. Pour le représenter plus simplement, on peut se représenter l'espace-temps non en quatre dimensions mais en deux dimensions, à la manière d'un tapis ou d'une feuille de papier. La surface de cette feuille serait pliée sur elle-même dans un espace à trois dimensions. L'utilisation du raccourci « trou de ver » permettrait un voyage du point A directement au point B en un temps considérablement réduit par rapport au temps qu'il faudrait pour parcourir la distance séparant ces deux points de manière linéaire, à la surface de la feuille.
Visuellement, il faut s'imaginer voyager non pas à la surface de la feuille de papier, mais à travers le trou de ver, la feuille étant repliée sur elle-même permet au point A de toucher directement le point B. La rencontre des deux points serait le trou de ver. L'utilisation d'un trou de ver permettrait le voyage d'un point de l'espace à un autre (déplacement dans l'espace), le voyage d'un point à l'autre du temps (déplacement dans le temps) et le voyage d'un point de l'espace-temps à un autre (déplacement à travers l'espace et en même temps à travers le temps). Les trous de ver sont des concepts purement théoriques : l'existence et la formation physique de tels objets dans l'Univers n'ont pas été vérifiées. Il ne faut pas les confondre avec les trous noirs, dont l'existence tend à être confirmée par de nombreuses observations, dont le champ gravitationnel est si intense qu’il empêche toute forme de matière de s'en échapper.

Alain Mocchetti
Ingénieur en Construction Mécanique & en Automatismes
Diplômé Bac + 5 Universitaire (1985)
UFR Sciences de Metz
alainmocchetti@sfr.fr
alainmocchetti@gmail.com
@AlainMocchetti

 

 VIDEO     canal U       LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales / Confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google