LA COSMOLOGIE MODERNE : LES NOUVEAUX OUTILS D'OBSERVATION DE L'UNIVERS
 

 

 

 

 

 

 

LA COSMOLOGIE MODERNE : LES NOUVEAUX OUTILS D'OBSERVATION DE L'UNIVERS

La nuit semble être noire. Il n'en est rien. L'univers baigne dans un rayonnement aux multiples origines. Dès le 17e siècle, le physicien Olberg montre tout le parti pouvant être tiré de la brillance du ciel. Si l'univers était uniforme et infini, la brillance du ciel due à la superposition de l'émission de toutes les sources qui le composent, devrait être infinie. Le fait qu'elle ne le soit pas, montre que l'univers n'est ni uniforme, ni infini. Il faut attendre le début du XXe siècle pour comprendre les implications profondes du paradoxe de Olberg. Grâce aux observatoires spatiaux, les astrophysiciens modernes élargissent leur champ d'investigation à tout le domaine du rayonnement électromagnétique. Les satellites américains permettent d'achever la mesure complète du spectre du rayonnement présent dans l'univers. Ces observatoires permettent également d'identifier les origines de ce rayonnement. Le recensement de l'univers est en passe d'être achevé. C'est en soi un résultat spectaculaire, qui marque la fin d'une recherche qui a commencé il y a plus de deux mille ans. Les résultats obtenus montrent que comme l'a supposé Olberg, l'univers n'est ni uniforme, ni infini, mais qu'en plus lui et ses constituants ont évolué très fortement depuis leur origine. La prochaine génération de télescopes, au sol, et dans l'espace va s'attaquer à la compréhension de cette évolution. Mais l'univers n'est pas fait que de rayonnement. Il contient aussi des particules. Depuis les années 1930 on sait que plus de 90% de cette matière échappe à la détection. Des recherches sont activement poursuivies par les astrophysiciens et les physiciens des particules pour élucider ce problème. Par contre des progrès spectaculaires ont été très récemment obtenus sur la répartition de cette matière dans l'univers, en utilisant la propriété de déflexion de la lumière par une masse gravitationnelle prédite par la relativité générale d'Einstein. L'univers lointain nous apparaît déformé car la lumière émise par les galaxies lointaines ne se propage pas en ligne droite. Son parcours s'infléchit en passant à proximité de masses importantes. Les astrophysiciens ont mis au point des techniques permettant de calculer ces déformations, et donc de calculer la distribution de la matière noire responsable de ces déformations. C'est un domaine en plein développement.

Texte de la 184ème conférence de l’Université de tous les savoirs donnée le 2 juillet 2000.
La cosmologie moderne : les nouveaux outils d’observations de l’Univers par Laurent Vigroux
La nuit semble être noire. Il n’en est rien. Avec les instruments d’observations modernes, la nuit est brillante. Mais le paradoxe est qu’elle ne soit ni noire, ni infiniment claire. Brillante certes, mais pourquoi si peu ? Dès le XVIIe siècle, le physicien Danois Olberg avait montré tout le parti que l’on peut tirer de la brillance du ciel. Si l’Univers était uniforme et infini, la brillance du ciel due à la superposition de l’émission de toutes les sources qui le composent devrait être infinie. Heureusement pour la vie sur Terre, il n’en est rien. Il a fallu attendre le milieu du vingtième siècle pour comprendre les implications profondes de ce paradoxe. Le cadre de cette compréhension a été fourni par Einstein avec sa théorie de la gravitation. Les observations de Hubble dans les années 1920-1930 ont montré que l’Univers était en expansion. On sait maintenant que les constituants de l’Univers ne sont pas immuables, ils évoluent dans le temps. On sait qu’ils ne sont pas répartis de manière uniforme dans l’espace, et on sait que l’Univers observable est fini. C’est pourquoi la nuit n’est que grise. Notre compréhension de la cosmologie a fait des progrès spectaculaires ces vingt dernières années. Cela tient aux progrès des observations, grâce surtout aux observatoires spatiaux, mais aussi aux progrès spectaculaires de la théorie et des simulations numériques. Quels sont ces progrès, c’est ce que nous allons passer en revue dans la suite de cette conférence.

Le rayonnement
La principale source d’information sur l’Univers et ses constituants provient de la lumière. Par lumière, on entend l’ensemble du spectre des ondes électromagnétiques, qui s’étend des rayons gamma et X, à haute énergie, jusqu’aux ondes micro-ondes et radios à basse énergie, en passant par la lumière visible, à laquelle nous sommes plus habitués. Le véhicule d’information de la lumière est une particule appelée photon, et, dans les théories de physique moderne, on peut décrire la propagation de la lumière aussi bien en termes d’ondes, que de photons. En général, à basse énergie, le nombre de photons reçus par un télescope moderne est très élevé, de l’ordre de plusieurs centaines de milliers par seconde, et on préfère décrire les phénomènes en termes d’ondes. A haute énergie, les photons sont plus rares, de l’ordre de quelques photons par seconde en rayons X, et de quelques photons par jour dans les gammas de très grande énergie, et on préfère décrire les phénomènes en terme de photons. Mais la physique sous-jacente reste la même. L’avantage principal de la lumière est qu’elle se propage en ligne droite sans être trop absorbée. Elle permet donc d’observer des sources très lointaines et de les localiser. Depuis des temps immémoriaux, la lumière a été le principal, sinon le seul, moyen d’observation du ciel. Les deux principales sources de lumière sont un rayonnement fossile lié aux premières étapes de l’évolution de l’Univers, et la somme des rayonnements émis par les constituants de l’Univers, étoiles, galaxies et amas de galaxies.
Le rayonnement fossile
Contrairement aux rêves des technocrates, les plus grandes découvertes sont le fruit d’actions non préméditées. Il en est ainsi de la découverte du rayonnement fossile. La guerre de
1
39-45 a eu de nombreux effets négatifs. Elle a néanmoins entraîné un progrès notable des techniques. Hiroshima a montré que ce n’était pas toujours pour le meilleur. Mais les progrès des techniques des radars ont été à l’origine des progrès spectaculaires de la radioastronomie après guerre. Le relais fut pris ensuite par le développement des télécommunications. C’est ainsi que deux ingénieurs de la Bell Telephone, Penzias et Wilson, en essayant de régler une antenne très sensible, ont buté sur un bruit de fond isotrope et continu. L’étude de ce bruit de fond a permis de l’identifier à un rayonnement prédit dans le cadre des théories d’expansion de l’Univers. Contrairement à ce que l’on affirme souvent, ce rayonnement n’est pas lié au big-bang. Il est produit bien après l’explosion initiale. Il existe dans n’importe quelle théorie d’expansion qui prédit que l’Univers est passé dans des phases suffisamment chaudes et denses pour que les atomes soient entièrement ionisés. Dans ces conditions, l’Univers est rempli de protons, de noyaux, d’électrons et de photons. Les photons interagissent avec les électrons. Ils sont en équilibre avec eux, et ne peuvent pas se propager sur de grandes distances. A cause de l’expansion de l’Univers, la matière se refroidit, jusqu’au moment où les atomes se forment. Les électrons se combinent avec les noyaux pour former des atomes. L’Univers devient alors transparent pour les photons, qui n’ont plus rien pour interagir. Le spectre d’énergie des photons est alors celui d’un corps noir à la température de l’Univers à l’époque de la recombinaison. Par la suite, la température de ce corps noir se refroidit du fait de l’expansion de l’Univers. Il est à l’heure actuelle voisin de 2,7°K, c’est à dire -270,3°C. C’est pour cela que l’on ne l’observe que dans le domaine des micro-ondes et des ondes radio. Le pic de l’émission se trouve vers 1,4 mm. Depuis la découverte initiale, il aura fallu trente ans pour que l’on puisse mesurer ce spectre d’émission de corps noir cosmologique avec une grande précision. Cela fut effectué au moyen du satellite américain COBE lancé en 1989. On peut maintenant affirmer avec certitude que cette émission est bien d’origine cosmologique.
Ce rayonnement est isotrope et uniforme avec une très grande précision. On peut néanmoins déceler des petites déviations, qui, traduites en termes de température, correspondraient à des fluctuations de quelques micro kelvin. C’est-à-dire des fluctuations de quelques parties par million. Ces fluctuations dans le spectre des photons correspondent à des fluctuations de densité des électrons à l’époque de la recombinaison. L’Univers était alors presque homogène, mais pas tout à fait. Ces fluctuations de densité ont par la suite donné naissance aux galaxies et aux amas de galaxies. Mesurer les fluctuations de température du corps noir cosmologique revient à déterminer les fluctuations de densité pratiquement à l’origine du monde. COBE fut le premier observatoire qui permit de prouver l’existence de ces fluctuations. Malheureusement, ce résultat est peu contraignant pour les modèles cosmologiques, car les échelles angulaires auxquelles COBE avait accès sont sans commune mesure avec la taille des galaxies et des amas que l’on observe aujourd’hui. COBE a prouvé que l’Univers n’était pas complètement homogène ; il n’a pas permis de déterminer dans quel type d’univers nous vivons. Pour progresser, il faut réaliser des instruments qui ont une résolution angulaire voisine de quelques minutes d’arc, bien mieux que les 7 degrés de COBE. BOOMERANG, un télescope américain italien, lancé en 1999 par un ballon dans un vol circum-antarctique de quinze jours, a réussi pour la première fois à fournir une carte des fluctuations à des échelles angulaires de l’ordre de la vingtaine de minutes d’arc. L’analyse de ces fluctuations a montré qu’elles impliquaient un univers de type plat. Rappelons qu’il y a trois types de géométries possibles dans les modèles d’univers compatibles avec la relativité générale d’Einstein. Ces univers sont définis par leur courbure, positive, négative ou nulle. Les résultats de BOOMERANG semblent montrer que nous sommes dans ce dernier cas, c’est-à-dire le modèle le plus simple, le plus banal. Tant
2
pis. Pour être tout à fait certain de ces résultats, il faudra attendre le satellite européen PLANCK Surveyor, qui sera lancé en 2007 par l’Agence Spatiale Européenne. Ce satellite aura une meilleure résolution angulaire que BOOMERANG et les instruments similaires qui sont en cours de réalisation dans divers pays, dont la France, et surtout, il effectuera une cartographie complète du ciel, ce que ne feront pas les autres projets. Vous voulez savoir dans quel univers vous vivez ? Attendez 2007 et vous aurez la réponse.

L’Univers et ses constituants
L’étude du corps noir cosmologique permet de voir quelle était la structure de l’Univers à ses débuts. Cela n’indique en rien comment se sont formés les objets, galaxies, ou amas de galaxies, que nous observons dans notre environnement proche. Heureusement, nous pouvons utiliser une loi physique bien connue pour remonter le temps : la vitesse finie de la lumière. Observer une galaxie située à un milliard d’années lumière, c’est l’observer telle qu’elle était il y a un milliard d’années. La pêche aux galaxies jeunes consiste à aller rechercher les plus lointaines. Malheureusement, une autre loi de la physique vient contrarier ce plan : la luminosité apparente d’un objet diminue comme le carré de la distance de cet objet ; c’est-à-dire très rapidement. Projetons une galaxie dix fois plus loin, elle nous apparaîtra cent fois plus faible. Pour donner un ordre de grandeur, une galaxie comme la nôtre située à 5 milliards d’années lumière, soit à la moitié de son âge actuel, nous apparaît cent fois moins brillante que le ciel d’une nuit noire. Autant dire que la recherche des galaxies jeunes nécessite de très grands télescopes, qui sont les seuls à avoir un pouvoir collecteur suffisant pour détecter les galaxies les plus lointaines. C’est pourquoi, cette recherche ne s’est avérée fructueuse qu’après la mise en service des grands télescopes de la classe 8-10 m de diamètre. Les premiers furent les télescopes Keck situé au sommet du Mauna Kea dans l’île d’Hawaii. L’Europe n’est pas en reste avec les quatre télescopes de 8 m situés dans le désert d’Atacama, et qui constituent le Very Large Telescope. En fait la recherche a commencé avec le Hubble Space Telescope, satellite de la NASA avec une forte participation de l’ESA. Le fait d’être dans un satellite, au-dessus de l’atmosphère terrestre, permet d’avoir des images beaucoup plus piquées qu’au sol. C’est un atout indispensable pour détecter les objets les plus faibles. La stratégie qui a été suivie ces dix dernières années a consisté à détecter des galaxies lointaines avec le Hubble Space Telescope, puis à les caractériser avec les télescopes géants au sol. Cette méthode s’est révélée payante, puisque entre 1996 et 1998, plusieurs groupes ont réussi à démontrer que les galaxies lointaines étaient différentes des galaxies locales. Si on retrouve bien le pendant des galaxies proches, on trouve aussi pléthore de galaxies plus petites, et qui ont des couleurs plus bleues que les galaxies locales. Cette couleur est due à la présence d’étoiles jeunes. Ces petites galaxies sont donc dans des phases intenses de formation d’étoiles, environ trois fois le taux observé dans les galaxies proches.
Chercher des galaxies jeunes en utilisant la lumière visible, est-ce la bonne approche ? Pour répondre à cette question, il faut savoir quels sont les mécanismes d’émission de lumière par les galaxies. La source principale d’énergie est la gravitation. C’est elle qui permet à la galaxie d’exister en tant qu’objet individuel. C’est elle aussi, qui permet aux étoiles de se former et d’atteindre en leur centre des densités et des températures suffisantes pour que les réactions nucléaires se déclenchent. La source principale de rayonnement d’une galaxie est due aux étoiles qui la peuplent. Une galaxie normale contient quelques centaines de milliards d’étoiles. L’énergie nucléaire dégagée en leur sein se transforme en rayonnement. Le soleil nous éclaire à l’énergie
3
nucléaire. Paradoxe amusant sur les énergies propres. Une galaxie n’est pas composée seulement d’étoiles. Elle est aussi remplie de gaz et de poussières. Ces poussières interstellaires sont des grains allant de quelques centaines d’atomes, jusqu’à des grains microscopiques de quelques microns de longueur. Ils se décomposent en deux grandes familles, des grains carbonés, et des silicates. Ces grains absorbent une grande partie du rayonnement des étoiles. Du coup, ils sont chauffés et émettent eux-mêmes de la lumière. Certes, c’est un chauffage modeste, puisque la température moyenne des grains interstellaires est voisine de 20°K, soit -250°C. Cela est néanmoins suffisant pour que cette émission soit mesurable dans l’infrarouge. Ce processus de transformation de l’énergie, absorption du rayonnement des étoiles, chauffage des poussières et ré-émission dans l’infrarouge peut être si efficace que dans des cas extrêmes, des galaxies rayonnent presque 100 % de leur énergie dans l’infrarouge. Cela fut une des grandes découvertes du satellite IRAS lancé en 1983 et réalisé en partenariat américain, anglais et hollandais. Ce satellite a été à l’origine d’une lignée de satellites dédiés à l’étude du ciel en infrarouge : ISO, européen lancé en 1995, SIRTF américain qui sera lancé en 2002 et FIRST, européen, qui sera lancé en 2007. Chacun d’eux représente un gain en termes de sensibilité, couverture en longueur d’onde et résolution spatiale. En combinant les observations d’ISO, et celles de COBE, on a pu montrer que les galaxies émettent globalement 3 fois plus d’énergie dans l’infrarouge que dans le visible et l’ultraviolet. ISO a montré que, lorsqu’elles avaient la moitié de leur âge actuel, les galaxies étaient beaucoup plus souvent de forts émetteurs infrarouges. Si seulement 3 % des galaxies actuelles émettent plus d’énergie dans l’infrarouge que dans le visible, elles étaient 30 % dans ce cas il y a 5 milliard d’années. Quelle est l’origine de ce phénomène ? Selon toute vraisemblance, il s’agit d’épisodes de formation d’étoiles intenses qui se sont déroulées dans le passé. Par l’étude des galaxies ultra lumineuses en infrarouge, découvertes par IRAS, on sait que ces galaxies sont en interaction avec d’autres galaxies et qu'elles subissent des flambées de formation d’étoiles très intenses, à la suite de ces interactions. Les observations dans le visible ont montré qu’il y avait, il y a quelque 5 milliards d’années, une population de petites galaxies qui n’ont pas leur équivalent de nos jours ; les observations en infrarouge montrent que les grandes galaxies de l’époque subissaient des flambées de formation d’étoiles liées à des interactions entre galaxies. La tentation est forte de réconcilier ces deux observations dans un scénario où les petites galaxies sont progressivement avalées par les grosses, entraînant ces épisodes de forte émission infrarouge. La vie des galaxies n’est pas plus tranquille que celle des êtres vivants. Les gros mangent les petits. Ce processus de fusion hiérarchique est prédit par les modèles cosmologiques. La rapidité avec laquelle il se déroule dépend fortement des paramètres du modèle. On peut donc par l’étude des galaxies lointaines contraindre les modèles et la valeur de leurs paramètres. SIRTF, et surtout FIRST permettront d’affiner cette vision, et surtout de pouvoir retracer dans le temps cette évolution. ISO n’a pu que décrire ce qui s’est passé lors des cinq derniers milliards d’années, FIRST permettra de remonter presque jusqu’au début de l’histoire des galaxies.
ISO, SIRTF et FIRST permettent de détecter ces galaxies lointaines ; ils permettent d’en mesurer le flux en fonction de leur longueur d’onde ; leur faible résolution angulaire ne leur permet pas d’en réaliser de véritables images. Pour ces observatoires, les galaxies sont des points. Pour en réaliser des images, il faut utiliser un autre principe. Même dans l’espace, la résolution angulaire d’un télescope est limitée par un phénomène appelé diffraction. Il est impossible de résoudre deux sources qui ont séparées par des angles plus petit qu’un angle limite égal au diamètre du télescope divisé par la longueur d’onde de l’observation. Pour un télescope de 2 m en orbite, le pouvoir séparateur est limité dans le visible à 0.1 seconde d’arc, soit 1/36000 de
4
degré. Cela peut paraître peu, mais c’est déjà trop pour réaliser des véritables images d’objets qui ne font que quelques secondes d’arc de diamètre, comme les galaxies qui nous intéressent. Le diamètre des télescopes en orbite est limité par les capacités de lancement. Même si les USA et l’Europe envisagent de lancer vers 2010 un télescope de 8 m de diamètre en orbite, le New Generation Space Telescope, cela restera encore très loin de ce qu’il faut pour pouvoir faire des images de ces galaxies. Sur terre, à ce phénomène de diffraction se rajoute une déformation des images due à la turbulence atmosphérique ; les images ont des résolutions de l’ordre de la seconde d’arc, les bonnes nuits. La seule solution pour s’affranchir, soit de la diffraction, soit de la turbulence atmosphérique, c’est d’utiliser un autre principe d’imagerie : les interférences. Comme on l’apprend dans les classes de physique, si l’on combine la lumière captée par deux télescopes, on obtient un système de franges noires et brillantes, qui dépend de la phase respective des ondes lumineuses qui arrivent sur les deux télescopes. En analysant le système de frange, on peut calculer le déphasage des deux ondes, et donc en déduire leur direction d’origine. L’avantage de cette méthode est que l’interfrange entre les franges brillantes et sombres dépend du rapport entre la distance entre les deux télescopes et la longueur d’onde de l’observation. En combinant deux télescopes distants de 100 m, on peut obtenir le même pouvoir séparateur qu’avec un télescope monolithique de 100 m de diamètre, et ce, quelque soit le diamètre des télescopes de l’interféromètre. Ce principe est utilisé depuis de nombreuses années en radioastronomie. Il commence à être utilisé dans le visible. Le Very Large Telescope européen aura un mode interféromètrique combinant la lumière reçue par les quatre télescopes qui le composent. Mais l’instrument privilégié pour l’étude des galaxies lointaines sera ALMA. L’Atacama Large Millimeter Array sera un réseau de 64 antennes de 12 m de diamètre chacune, qui sera installé de manière conjointe par les américains et les européens dans le désert de l’Atacam à 5000 m d’altitude, au Chili. Il fonctionnera dans l’infrarouge lointain et le submillimétrique. Sa mise en service est prévue vers 2010. Il permettra d’obtenir des images avec une résolution angulaire meilleure qu'un centième de seconde d’arc. Enfin, nous pourrons réellement voir à quoi ressemble une galaxie jeune.

La matière
L’Univers n’est pas constitué que de rayonnement, il est aussi matériel. Les étoiles, les galaxies ont été découvertes il y a longtemps. Mais cela ne fait pas le compte. Dès 1935, l’astronome Zwycky, en utilisant le télescope du mont Palomar, avait montré qu’il devait y avoir une quantité de matière importante qui n’avait pas encore été découverte. Il était arrivé à cette conclusion en mesurant les vitesses des galaxies dans les amas de galaxies. Depuis Newton, on sait qu’il existe une relation entre l’accélération des corps et la masse gravitationnelle. Si on augmentait la masse du soleil, la terre tournerait plus vite autour du soleil. Inversement, si on connaît la distance de la terre au soleil et la vitesse de rotation de la terre, on peut en déduire la masse du soleil. Il en est de même avec les galaxies dans un amas. La mesure de la vitesse des galaxies dans un amas permet de calculer la masse de l’amas. Comme on connaît la masse des galaxies, de par leur luminosité, il est facile de comparer les deux estimations. Problème : la masse estimée par la dynamique est dix fois plus grande que celle identifiée dans les galaxies. On a trouvé par la suite que les galaxies tournaient également trop vite pour leur masse identifiée dans les étoiles. Il existe donc une composante de matière cachée, qui représente presque 90 % de la masse de l’Univers. Bien que les étoiles et les galaxies soient des objets brillants et
5
remarquables, elles ne représentent qu’une infime partie de l’Univers. Qu’est ce que cette masse cachée ?
Depuis une cinquantaine d’années, les astrophysiciens l’ont cherché sous toutes les formes possibles. D’abord de la matière entre les étoiles ; on a trouvé un milieu interstellaire composé de gaz et de poussières, mais il ne représente qu’un dixième de la masse des galaxies. On a postulé un milieu gazeux dans les amas de galaxies, entre les galaxies. On l’a trouvé. Il s’agit d’un gaz très peu dense, un noyau par litre, et très chaud, quelques dizaines de millions de degrés. Ce milieu a été découvert dans les années 70 grâce à son émission dans les rayons X. Mais là encore, cela ne suffit pas, bien que ce gaz représente une masse supérieure d’un facteur 2 à la masse présente dans les galaxies. On l’a cherché sous la forme d’étoiles isolées de très faible masse, des gros Jupiter en somme. Ces étoiles sont trop petites pour que des réactions nucléaires s’y déclenchent. Elles restent donc sombres, d’où leur nom de naines brunes. On en a trouvé, mais pas assez. Les recherches se poursuivent. Les physiciens des particules se sont mis de la partie, en cherchant des particules inconnues. Bien que les théories dites supersymétriques qui tentent de concilier la gravitation et la mécanique quantique, prédisent l’existence de nouvelles particules, il n’est pas évident de chercher des particules dont on ignore tout. Pour l’instant, les recherches sont vaines. La nature de cette matière noire reste la grande énigme de la cosmologie.
Mais la matière noire devient de moins en moins noire. On arrive par des moyens détournés à en réaliser des images. Le gaz des amas est un outil privilégié d’analyse. Ce gaz est maintenu dans l’amas par l’attraction gravitationnelle exercée par la matière noire. Si l’on connaît la répartition de ce gaz, on peut en déduire la répartition de la matière en résolvant les équations de la dynamique. Cette méthode avait été mise au point depuis quelques années, mais on manquait d’une information essentielle : le profil de température du gaz en fonction de la distance à l’amas. Le gaz est en effet en équilibre entre sa pression interne, liée à sa température, et l’attraction gravitationnelle. Sans profil de température, on ne peut pas résoudre les équations de l’équilibre. C’est maintenant chose faite grâce à l’observatoire en rayon X européen XMM- Newton. Ce satellite, lancé à la fin de 1999, vient de permettre pour la première fois de déterminer de manière précise le profil de température du gaz dans un amas. Cela a permis d’en déduire le profil de densité de la matière noire. De là, on peut calculer quelques grandeurs typiques de cette matière noire comme sa température, sa pression interne, ou sa compressibilité. Heureusement pour les théoriciens, ces résultats ne sont en accord avec aucune des théories qui avaient été développées jusque-là. Il leur reste du travail pour encore quelques années. Plus directement, la matière noire fournit elle même les outils pour l’observer. Dans la gravitation générale d’Einstein, la lumière ne se propage pas en vrai ligne droite. Elle se propage le long de lignes qui sont déformées au passage d’une masse gravitationnelle. Cette prédiction a été vérifiée de manière éclatante au début du siècle en observant comment la position d’une étoile sur le ciel semblait changer, au fur et à mesure que les rayons lumineux entre elle et nous passaient près du soleil. De la même manière, si nous observons une galaxie située derrière un amas de galaxies, l’image de cette galaxie nous apparaîtra déformée à cause de son passage dans le champ gravitationnel de l’amas. La matière noire déforme les images de l’Univers lointain. Cet effet de lentille gravitationnelle est connu depuis longtemps. Mais ce n’est que depuis quelques années que nous disposons d’instrument d’imagerie suffisamment sensible et fiable pour pouvoir l’utiliser de manière systématique pour étudier la distribution de la matière noire dans les amas. L’image des galaxies déformées par un effet de lentille gravitationnelle se présente sous la forme d’un arc. Le premier arc gravitationnel a été trouvé grâce à des observations menées sur le télescope Canada-France-Hawaii en 1985. Depuis, en particulier grâce au télescope spatial
6
Hubble, on en a trouvé dans presque tous les amas observés. De la forme de l’arc, on peut en déduire la perturbation des rayons lumineux, et donc la distribution de la matière noire. La problématique de l’observation est renversée. D’habitude, on a une source, un télescope et on étudie l’image. Dans ce cas-là, on dispose d’une source, d’une image, et on calcule le télescope qui a produit cette image. Le télescope à matière noire est le plus gros instrument dont nous disposions ; chaque amas de galaxie représente un télescope de plusieurs centaines de millions d’années lumières de diamètre et de plusieurs dizaines de milliers de milliards de masses solaires de masse ! Heureusement que la nature nous l’offre. Le télescope à matière noire a déjà permis de faire des cartes de la matière noire dans les amas. Très récemment, encore, grâce à des observations effectuées avec le télescope Canada-France-Hawaii, il a été possible d’étendre cette méthode à des échelles dépassant la taille des amas classiques. Ce sera le domaine privilégié de recherches de MEGACAM, la prochaine grande caméra d’imagerie qui sera installée sur le télescope CFH à la fin 2001.

Insérer ici les trois figures

Un univers plat, des galaxies qui se forment par fusion hiérarchique, de la matière noire qui sert de télescope, les progrès accomplis ces dernières années ont profondément bouleversé notre connaissance de l’Univers et de ses constituants. En combinant les observations à toutes les longueurs d’onde, grâce aux observatoires spatiaux, nous avons pratiquement identifié toutes les sources qui sont à l’origine de la brillance du ciel. Le recensement de l’Univers est maintenant pratiquement achevé. C’est en soi un résultat spectaculaire. L’aboutissement de recherches commencées il y a plus de deux milles ans. Mais l’aventure continue. Il nous faut maintenant comprendre la physique de ces objets, leurs interactions et leur évolution. Il faut préciser le type d’univers dans lequel nous vivons. La génération actuelle des grands télescopes au sol, et la prochaine génération d’observatoires spatiaux permettra d’atteindre tout ou partie de ces objectifs. La grande inconnue reste la nature de la matière noire. Toutes les recherches ont été vaines. Dans quelles directions chercher maintenant ? Des pistes existent. Seront-elles fructueuses ? Bien malin qui peut le prédire. On ne peut qu’espérer que la solution sera trouvée un jour. Ce sera probablement par une découverte fortuite comme l’a été la découverte du rayonnement fossile.

 

 VIDEO       CANAL  U         LIEN
 

 
 
 
  COSMOLOGIE
 




 

 

 

 

 

cosmologie

La cosmologie : faits et hypothèses
Quelques hypothèses fondamentales, les principes de la cosmologie, simplifient notablement l'établissement de modèles cosmologiques. Le principe d'uniformité stipule que les lois de la physique établies sur la Terre s'appliquent à l'ensemble de l'Univers observable. Le principe cosmologique suppose l'Univers homogène et isotrope, à l'exception d'irrégularités locales. Malgré la découverte de très grandes structures cosmiques (superamas, voire hyperamas de galaxies, séparés par de grands vides), on considère que la validité de ce principe n'est pas remise en cause : à des échelles supérieures au milliard d'années-lumière, l'Univers peut être considéré comme homogène. Le principe d'équivalence admet qu'à tout corps on ne peut affecter qu'une masse positive ou nulle qui rend compte de l'ensemble de ses propriétés dynamiques. Le principe de Mach énonce que l'inertie de tout corps est déterminée par la distribution de l'ensemble des masses présentes dans l'Univers. La géométrie de l'Univers est donc déterminée par la répartition des masses qu'il renferme. Enfin, selon le principe anthropique, qui n'est admis que par certains cosmologues, l'existence même de l'homme impose a posteriori certaines contraintes à la structure de l'Univers : nous voyons l'Univers tel qu'il est parce que, s'il était différent, nous ne serions pas là pour l'observer.

Les modèles cosmologiques

Le cadre théorique sur lequel s'appuie la cosmologie moderne est la théorie de la relativité générale, formulée en 1916 par Albert Einstein (1879-1955). Selon cette théorie, la gravitation – la force prépondérante à grande échelle – modifie la géométrie spatio-temporelle de l'Univers. Cette théorie et les principes exposés précédemment sont à la base des modèles cosmologiques élaborés en 1922 par le mathématicien russe Aleksandr Friedmann (1888-1925) et toujours utilisés aujourd'hui. Les solutions les plus simples des équations qui régissent ces modèles sont incompatibles avec un Univers statique : elles exigent que l'Univers soit en évolution, soit qu'il s'étende, soit qu'il se contracte au cours du temps. Sa géométrie et son évolution sont entièrement déterminées par les valeurs instantanées de deux paramètres : l'un qui exprime la vitesse avec laquelle varie une dimension caractéristique de l'Univers, l'autre qui traduit les variations de cette vitesse au cours du temps. Un facteur clé est la densité moyenne de l'Univers. Si celle-ci excède une certaine valeur, ou densité critique, l'Univers a une courbure positive : on dit qu'il est sphérique, ou fermé. Son histoire est marquée par une phase d'expansion irrémédiablement suivie d'une phase de contraction. Au contraire, si sa densité est inférieure à la densité critique, il a une courbure négative : on dit qu'il est hyperbolique, ou ouvert. Son expansion est perpétuelle, toujours accélérée. Dans le cas limite où sa densité est égale à la densité critique, l'Univers est plat, ou euclidien. Son expansion est perpétuelle, comme dans le cas précédent, mais son rythme ne cesse de se ralentir pour tendre vers la stabilité.

Du big bang à nos jours

Les faits d'observation et les principes théoriques exposés ci-dessus conduisent la plupart des astrophysiciens à admettre que l'Univers tel qu'on l'observe aujourd'hui est issu d'une longue évolution qui s'est amorcée brutalement, il y a 13,8 milliards d'années, à partir d'une phase très chaude et très dense, et qu'il ne cesse depuis de se dilater et de se refroidir.


On présente habituellement le big bang comme une gigantesque explosion. Il faut toutefois garder à l'esprit qu'une explosion se produit dans un espace préexistant, à partir d'un point central, tandis que, dans le cas du big bang, tous les points de l'Univers sont équivalents, aucun n'occupant une position privilégiée.

Les premières minutes
Pour reconstituer l'histoire des premiers instants de l'Univers, on s'appuie sur ce que l'on sait, grâce à la physique des particules, de la structure de la matière à des températures et à des pressions colossales. L'Univers primordial était une « soupe » de particules et d'antiparticules animées de mouvements désordonnés à des vitesses proches de celle de la lumière. Au gré d'incessantes collisions, certaines particules s'annihilèrent tandis que d'autres apparurent. Cette population fut d'abord dominée par des objets quantiques : les quarks et les antiquarks. Un millionième de seconde après le big bang, la température étant descendue à 1013 degrés, apparurent, grâce à l'association de triplets de quarks, les premières particules lourdes, protons et neutrons. Puis des particules légères, les leptons (électrons, neutrinos), proliférèrent et occupèrent le devant de la scène. Une seconde après le big bang, la température s'étant abaissée à 10 milliards de degrés, protons et neutrons commencèrent à se combiner. Dans les minutes suivantes, l'Univers connut une intense activité nucléaire, conduisant à la formation de noyaux atomiques légers : hydrogène et hélium en particulier. Cette étape (nucléosynthèse primordiale) dura moins d'un quart d'heure : c'est à elle, notamment, que l'Univers doit de renfermer 24 % environ d'hélium (en masse). En effet, la production d'hélium au sein des étoiles ne permet pas de rendre compte d'une telle abondance ni de sa quasi-uniformité quelles que soient les régions cosmiques étudiées.

La période tranquille
À ces premières minutes exceptionnellement mouvementées succéda une longue période tranquille durant laquelle l'Univers continua à se dilater et à se refroidir. Environ 300 000 ans après le big bang, sa température s'étant abaissée au-dessous de 3 000 K, la matière se découpla du rayonnement et celui-ci put enfin se propager librement : l'Univers cessa d'être opaque. Le rayonnement thermique à 2,7 K du fond de ciel (détecté depuis 1965, dans toutes les directions, par les techniques de la radioastronomie) ne serait autre que ce rayonnement fossile, vestige de la fournaise initiale, qui nous parvient considérablement refroidi par suite de l'expansion de l'Univers. Quelques centaines de millions d'années plus tard, les premières galaxies commencèrent à se former, à partir de petites fluctuations locales de la quantité de matière présente, sous l'effet combiné de l'expansion cosmique et de la gravitation. Mais le mécanisme exact de cette formation reste encore mystérieux.

Les polémiques autour du big bang
Adoptée par une large majorité de spécialistes, la théorie du big bang connaît cependant quelques farouches adversaires. Ceux-ci récusent l'idée d'une singularité initiale et considèrent comme fragiles et discutables les arguments observationnels avancés en sa faveur. Ils contestent notamment l'interprétation des décalages spectraux des galaxies vers le rouge par un mouvement de récession de ces objets lié à l'expansion de l'Univers. En effet, l'Américain Halton Arp a pu mettre en évidence de nombreux spécimens de galaxies qui semblent reliés par des ponts de matière et qui présentent cependant des décalages spectraux vers le rouge très différents. De même, pour les adversaires du big bang, les quasars ne seraient pas les astres les plus lointains, mais des objets éjectés par des galaxies proches. Plusieurs théoriciens, parmi lesquels le Britannique Fred Hoyle (1915-2001), se sont efforcés de bâtir de nouveaux modèles cosmologiques, mais aucun d'entre eux n'est parvenu jusqu'ici à concurrencer sérieusement le « modèle standard » du big bang, qui reste le plus simple sur le plan théorique et celui qui s'accorde le mieux avec les observations.

 

  DOCUMENT   larousse.fr    LIEN

 

 

 
 
 
  LE SOLEIL
 


 

 

 

 

 

LE  SOLEIL

       

Le Soleil est l'une des quelque 100 milliards d'étoiles de la Galaxie. Il présente la double caractéristique d'être une étoile extrêmement proche (Proxima du Centaure, l'étoile la plus proche du Système solaire, est 270 000 fois plus lointaine) et du type le plus courant. Son étude constitue de ce fait un moyen d'information permettant d'accéder aux processus fondamentaux d'évolution des étoiles et de vérifier certaines hypothèses et méthodologies utilisées en astrophysique stellaire. L'essentiel de ce que l'on sait du Soleil vient de l'étude de son rayonnement ; toutefois, depuis les années 1970, l'héliosismologie (ou sismologie solaire), qui étudie les modes d'oscillation du Soleil, favorise la connaissance de sa structure interne. Par ailleurs, les observations spatiales viennent désormais utilement compléter celles faites au sol, en autorisant l'étude du Soleil dans des domaines du spectre correspondant à des rayonnements arrêtés par l'atmosphère terrestre : rayonnements γ, X et ultraviolet.

Historique des principales découvertes sur le Soleil
Lorsqu'il découvre, en 1611, la rotation du Soleil en se fondant sur le mouvement des taches solaires, Galilée inaugure les études modernes du Soleil. La première estimation correcte de la taille de celui-ci et de sa distance par rapport à la Terre fut effectuée en France, par l'Académie des sciences, en 1684, grâce aux données obtenues par triangulation à partir de la mesure de la distance de Mars. En effet, cette mesure, faite en 1672 lorsque la planète s'approcha au maximum de la Terre, permit de connaître par une simple application de la troisième loi de Kepler la distance Terre Soleil. La découverte des raies sombres du spectre solaire par Joseph von Fraunhofer, en 1814, et son interprétation physique par Gustav Robert Kirchhoff, en 1859, inaugurèrent l'ère de l'astrophysique solaire, au cours de laquelle l'étude effective de l'état physique et de la composition chimique de la matière solaire devint possible.


Le champ magnétique intense des taches solaires fut découvert par George Ellery Hale en 1908. Le rôle des réactions nucléaires dans la production de l'énergie solaire fut démontré par Jean Perrin en 1919 et ces réactions furent explicitées par Hans Bethe en 1939. Les connaissances sur le Soleil évoluent et ne restent pas figées : le vent solaire ne fut découvert qu'en 1962, et ce n'est que sept ans plus tard que sa source fut identifiée avec les trous coronaux.
Le Soleil, une étoile naine
Le Soleil, comparé aux plus grandes étoiles connues, dont les diamètres sont 1 000 fois supérieurs au sien et dont les masses peuvent atteindre près d'une centaine de fois sa masse, est une étoile tout à fait moyenne, mais c'est un astre de taille respectable par rapport aux minuscules étoiles rouges. Il est donc répertorié dans la classe des étoiles naines. Son spectre, sa température de surface et sa couleur amènent à le classer plus précisément comme une naine G2 V, suivant la classification en usage (G désignant le type spectral, et V la classe de luminosité). La décomposition spectrale de son rayonnement a son maximum à environ 500 nm de longueur d'onde, ce qui lui vaut sa couleur jaune caractéristique.
La structure du Soleil

De son cœur jusqu'à sa couronne et à son vent solaire – qui s'étend jusqu'à la Terre et au-delà – le Soleil comporte plusieurs zones ayant chacune des caractéristiques physiques.

Le cœur du Soleil
Le poids des couches extérieures du Soleil comprime le gaz de la région centrale, le cœur, pour lui donner une densité qui est environ 160 fois celle de l'eau. La température atteinte est d'environ 15 millions de degrés. Partout à l'intérieur du Soleil, des atomes entrent constamment en collision avec assez d'énergie pour ioniser le gaz, qu'on appelle alors un plasma.

La zone radiative du Soleil
Dans le premier tiers du Soleil, les collisions entre particules sont si violentes qu'elles provoquent des réactions nucléaires, qui libèrent une énergie colossale et donnent au Soleil son éclat habituel. Cette série de réactions provoque la fusion thermonucléaire de l'hydrogène et sa transformation en hélium, suivant plusieurs séquences, dont la principale, qui fournit plus de 90 % de l'énergie totale, est appelée « chaîne proton proton », car elle met en œuvre quatre noyaux d'hydrogène, ou protons (le noyau d'hydrogène étant composé d'un seul proton), pour former un noyau d'hélium. Cette réaction proton proton peut alimenter le Soleil en énergie pendant environ 10 milliards d'années (l'âge du Soleil étant estimé à environ 5 milliards d'années, il lui reste donc encore un temps équivalent à vivre). Les rayons gamma émis par les réactions nucléaires voyagent vers l'extérieur et sont sans cesse absorbés et réémis : c'est la zone radiative. Un photon parcourt en moyenne 1 cm avant d'être capturé ; les absorptions et émissions successives diminuent l'énergie des photons, qui passent à l'état de rayons X, puis ultraviolets, avant de devenir visibles au niveau de la photosphère.

La zone convective du Soleil
Vers 0,8 rayon solaire, comme le poids des couches de gaz extérieures diminue, la densité et la température requises pour maintenir cette couche en équilibre hydrostatique diminuent également rapidement. À une distance du centre du Soleil égale à 0,6 rayon solaire, la température est d'environ 1 million de degrés ; aussi, l'hydrogène et l'hélium ne sont plus complètement ionisés, et les atomes neutres absorbent donc les radiations qui proviennent des zones incandescentes du cœur. Dans cette région, le chauffage et l'expansion des gaz qui s'ensuit permet à ces derniers de se déplacer vers le haut à cause de leur densité plus faible, et la chaleur atteint les couches supérieures. Ainsi, le transport de l'énergie s'effectue par un vaste brassage de matière qui monte, se refroidit, puis redescend : c'est la convection, qui constitue un moyen puissant pour évacuer la chaleur vers l'extérieur.


Le plasma solaire de la zone de convection est à peu près aussi bon conducteur qu'un fil de cuivre à température ambiante. Aussi, lorsqu'un volume important d'une matière de ce type traverse un champ magnétique, comme ici dans le Soleil, il induit un courant électrique considérable, qui déforme le champ primitif au point de l'entraîner dans son mouvement. L'influence mutuelle des champs magnétiques et des plasmas en mouvement est connue sous le terme de magnétohydrodynamique (MHD). La MHD permet d'étudier comment la rotation différentielle modifie les lignes de champ magnétique polaires, les déforme et les amène parallèlement à l'équateur au cours du cycle d'activité du Soleil.
La convection continue à être efficace jusqu'à ce que soient atteintes les couches où la densité est si faible que l'énergie rayonnée par les gaz ascendants peut s'échapper directement dans l'espace. Cette couche est la surface visible du Soleil, la photosphère.
La photosphère

L'observation de la photosphère montre un grand nombre de cellules convectives, les granules, dont la taille est d'environ 1 millier de kilomètres. Ces granules « vivent » environ un quart d'heure ; elles sont formées par des gaz ascendants chauds, entourés par des gaz descendants plus froids, se déplaçant à environ 1 km/s.
Il semble que les mouvements convectifs des gaz solaires, en plus du transport de chaleur, aient des effets importants sur la rotation du Soleil, sur son magnétisme et sur la structure des couches situées au-dessus de la photosphère. La convection contribuerait à expliquer le fait que les gaz de la photosphère ne tournent pas de façon rigide : si la période de rotation est d'environ 25 jours à l'équateur, elle s'élève déjà à 1 mois à la latitude de 60°.
Aux abords de la photosphère, la densité du gaz diminue rapidement en altitude, d'un facteur 10 tous les 1 000 km environ. Cette diminution rapide explique le bord net du Soleil, même quand on le voit dans des télescopes, car la couche dans laquelle le gaz perd son opacité et devient transparent n'a que quelques centaines de kilomètres d'épaisseur (ce qui représente moins d'une seconde d'arc quand on l'observe depuis la Terre). Ainsi, la photosphère n'est pas une surface, mais une couche solaire d'environ 300 km d'épaisseur.


La chromosphère
Au-dessus de la photosphère, la température descend jusqu'à un minimum d'environ 4 500 K ; puis, assez curieusement, elle commence à remonter. Pendant quelques secondes, au début et à la fin d'une éclipse totale de Soleil, on peut observer un mince anneau de quelques milliers de kilomètres d'épaisseur autour du disque solaire ; cet anneau brille d'un éclat rosé intense, d'où son nom de chromosphère, c'est-à-dire « sphère de couleur ». Lorsqu'on l'examine au télescope avec un spectrographe à haute résolution, on peut voir que la plupart des émissions chromosphériques proviennent de jets très fins de gaz dirigés vers l'extérieur, les spicules, d'une température d'environ 15 000 K et d'une densité d'environ 1011 particules par centimètre cube. Un spicule a une durée de vie de 5 à 10 minutes ; sa hauteur est en général de 5 000 à 10 000 km, et son épaisseur environ dix fois plus faible. Les gaz se déplacent vers l'extérieur à des vitesses d'environ 25 km/s. Les spicules semblent se situer à la périphérie des cellules de supergranulation, semblables aux granules, mais qui s'étendent sur des diamètres de l'ordre de 30 000 km.
La couronne

Au cours d'une éclipse totale, ou à l'aide d'un coronographe, on peut observer l'atmosphère du Soleil, qui s'étend à une distance de plusieurs rayons solaires au-delà de la photosphère et émet une faible lueur, la couronne solaire, 1 million de fois moins brillante que le disque, dans sa partie la plus lumineuse. Cependant, malgré les températures observées dans la chromosphère, la densité de matière décroît si rapidement qu'aucune couronne ne devrait être visible même à proximité de la surface. L'explication de ce phénomène a été trouvée en 1940 lorsqu'on a pu prouver que dans le spectre du rayonnement de la couronne certaines raies non identifiées étaient causées par des corps fortement ionisés, comme le fer ionisé 13 fois, ce qui implique une température de l'ordre du million de degrés. Comme un gaz chaud a moins tendance à être comprimé par les couches supérieures qu'un gaz froid, la température élevée qui règne dans la couronne permet d'expliquer pourquoi cette dernière est si étendue.

Le mécanisme qui porte la couronne à une température aussi élevée est mal connu, et cette question est au centre de nombreuses recherches, notamment à partir de satellites artificiels. Ainsi, le gaz coronal à proximité du Soleil est visible à l'œil nu pendant les éclipses, car il diffuse la lumière photosphérique à partir des électrons du plasma de la couronne. En effet, ce plasma très chaud émet ses propres rayonnements, ultraviolet et X, lorsque des électrons, se déplaçant rapidement, entrent en collision avec des ions d'éléments plus lourds. Le chauffage de la couronne n'est donc pas une simple question de flux de chaleur en provenance de la photosphère plus froide, par conduction, convection ou radiation, car un tel flux irait à l'encontre de la seconde loi de la thermodynamique. Plus vraisemblablement, ce sont des ondes acoustiques ou d'autres formes d'ondes générées par les mouvements gazeux de la photosphère qui transportent l'énergie dans le milieu coronal et la dissipent en la transformant en chaleur, pour équilibrer les pertes subies par la couronne. Une autre explication peut être la dissipation de courants électriques dans le plasma coronal, très conducteur, de la même façon que l'effet Joule élève la température dans un matériau résistant.


La température et la pression des gaz de la couronne sont trop élevées pour que leur effet soit compensé par la gravité solaire. Des particules peuvent ainsi s'échapper dans l'espace, et participer à la formation du vent solaire. Celui-ci est constitué d'électrons (90 %), de neutrons, de quelques noyaux d'hélium et de traces d'éléments plus lourds. En 1983, quand la sonde américaine Pioneer 10 quittait le Système solaire connu, elle détectait encore la présence du vent solaire. Au niveau de l'orbite de la Terre, la vitesse d'expansion du vent solaire est de 300 à 700 km/s, avec une densité de 1 à 10 particules par centimètre cube ; ainsi, la perte de masse du Soleil, due au vent solaire, n'est que de 10−13 masses solaires par an. Néanmoins, le vent solaire a des effets observables sur les couches supérieures de l'atmosphère terrestre, notamment lors des aurores polaires.

Les anneaux de poussières
Le Soleil est entouré d'anneaux, ou de disques, de poussières interplanétaires. L'un de ces anneaux, situé dans le plan de l'orbite de Jupiter, est connu depuis longtemps : il est à l'origine de la « lumière zodiacale ».
En 1983, un autre anneau fut découvert dans la ceinture d'astéroïdes, entre Mars et Jupiter, par IRAS (Infrared Astronomy Satellite, ou satellite artificiel d'observation astronomique dans l'infrarouge). Une équipe d'astronomes japonais et indonésiens découvrit, également en 1983, un troisième anneau à seulement deux diamètres solaires de notre astre.

L'activité solaire
Le Soleil entretient un champ magnétique intense qui influence les structures physiques de la photosphère, de la chromosphère et de la couronne de manière complexe et variable selon les époques : c'est ce qu'on appelle l'activité solaire.

Taches solaires et facules
Les champs magnétiques émergent dans les couches visibles sous l'aspect de boucles toroïdales de flux magnétique. Leur effet le plus évident sur la photosphère est la formation des taches solaires sombres et des facules brillantes, qui caractérisent à ce niveau une région active. Lorsqu'ils sont intenses, ils perturbent la convection, et amoindrissent donc l'efficacité du processus dominant de transport de chaleur jusqu'à la photosphère, d'où la température « basse » et la relative obscurité des taches solaires.
Une région active se développe horizontalement lorsque le « tube magnétique » émerge de la photosphère, en forme de boucle, passant d'une taille de moins de 5 000 km jusqu'à plus de 100 000 km en une dizaine de jours. C'est au cours de cette période de croissance rapide que la probabilité pour que se produise une éruption solaire spectaculaire est la plus forte.

Éruption solaire
Une forte éruption est caractérisée par un rapide accroissement de la brillance, d'un facteur 5 à 10, en quelques minutes, sur une surface considérable de la région active, comme on peut l'observer dans la raie Hα de l'hydrogène émise par la chromosphère. Seules les éruptions très importantes peuvent être décelées en lumière blanche, à cause de la brillance de la photosphère. Les effets les plus violents et les plus spectaculaires de l'éruption ont lieu cependant dans la couronne. Là, les boucles magnétiques qui surmontent les taches et les facules peuvent accroître leur brillance dans les rayonnements X et ultraviolet d'un facteur 100 ou plus. Les particules chargées sont accélérées jusqu'aux vitesses relativistes, et une puissante émission sur des longueurs d'ondes centimétriques est généralement constatée.
Certaines éruptions produisent aussi de fortes explosions radio sur des longueurs d'ondes métriques, et d'importants volumes de plasma sont souvent projetés dans l'espace à des vitesses qui dépassent la vitesse d'échappement – qui est de l'ordre de 600 km/s – udu champ de gravité solaire au niveau de la photosphère. L'événement cataclysmique s'affaiblit lentement, en quelques heures, après avoir libéré une énergie allant jusqu'à 10215 J. Ce mécanisme a été récemment interprété comme un « court-circuit » géant entre des tubes de force du champ magnétique. Les taches solaires durent en général quelques semaines, les grandes, plus durables, pouvant survivre 2 ou 3 mois. Les facules continuent à signaler une région active pendant un peu plus longtemps. Finalement, il semble que les mouvements de convection désordonnés près de la photosphère démantèlent la boucle de flux magnétique et la dispersent en plus petits éléments sur toute la surface de cette dernière.
Loin des régions actives, des champs d'intensités comparables (de 0,1 à 0,2 tesla) sont mesurés, mais ils se restreignent à un réseau polygonal qui coïncide avec les bords des cellules de supergranulation dont il a été fait mention précédemment.

Boucles
Au-dessus de la photosphère, les champs magnétiques d'une région active peuvent être détectés par leur effet sur la répartition des températures et des densités dans la chromosphère et dans la couronne. Là encore, des structures proéminentes en forme de boucles, observées dans les rayonnements X et ultraviolets, montrent comment les lignes de champ s'étendent jusqu'à 100 000 km et davantage au-dessus d'une tache, et reviennent ensuite vers la photosphère, généralement dans le même centre d'activité.
Protubérances

Dans d'autres régions de la couronne, d'immenses feuillets de plasma condensé relativement froid (10 000 K, contre 1 à 3 millions dans la couronne), appelés protubérances, sont soutenus par les tubes de champ magnétique jusqu'à des hauteurs qui peuvent dépasser 200 000 km.

Trous coronaux
Dans certaines grandes zones, appelées trous coronaux, l'émission de la couronne est nettement plus faible, ce qui montre une baisse de la densité du plasma, dont la température est de 1 million de degrés au moins. Les observations radioastronomiques indiquent que dans ces régions les lignes de champ magnétiques s'étendent radialement vers l'extérieur et ne forment plus des structures closes, comme dans les boucles et les protubérances. Une partie de la couronne peut alors s'écouler dans l'espace interplanétaire, c'est le vent solaire. Ces trous sont plus fréquents aux pôles solaires, où les lignes magnétiques sont plus facilement ouvertes, mais peuvent descendre parfois jusqu'à l'équateur.
Les cycles d'activité solaire
L'activité solaire présente un cycle d'une période d'environ 22 ans. La propriété la plus facilement observable de ce cycle est la variation, tous les onze ans environ, du nombre de taches solaires. Le cycle de 22 ans semble avoir été assez régulier au cours du xixe s. et même au-delà, mais les témoignages historiques indiquent qu'entre 1640 et 1710 – ce qu'on appelle le minimum de Maunder – aundern appelle le minimum de Maundergnages
Les irrégularités, à long terme, de l'activité solaire peuvent avoir des retombées tangibles sur la Terre, car les flux de particules solaires chargées et le rayonnement ultraviolet sont directement liés au niveau d'activité manifesté par les régions actives, les éruptions et les trous coronaux. Des variations dans ces émissions peuvent affecter, on le sait, les couches supérieures de l'atmosphère et avoir des répercussions importantes sur le climat.
Les relations Soleil-Terre
Le Soleil émet en permanence dans l'espace un flux de particules chargées, le vent solaire. Celui-ci a pour effet de déformer la magnétosphère terrestre, qui est comprimée du côté du Soleil et étirée dans la direction opposée. Mais ce régime peut être brutalement perturbé en période d'activité solaire, quand le Soleil émet des bouffées de plasma plus énergétique : l'arrivée massive de ces particules dans l'environnement terrestre provoque alors la formation d'aurores polaires et d'orages magnétiques.
Par ailleurs, on sait que la Terre est soumise à des variations d'ensoleillement liées à sa rotation sur elle-même (alternance des jours et des nuits) et à sa translation autour du Soleil (cycle des saisons). Sur des intervalles de temps plus longs, on a pu établir que les variations de l'excentricité de son orbite et de l'inclinaison de son axe de rotation avaient également des répercussions climatiques (théorie de Milanković). Il est légitime de se demander si le Soleil lui-même et son rayonnement n'ont pas des fluctuations suffisantes pour avoir un impact sur le climat de la Terre. Les observations spatiales ont mis en évidence de légères fluctuations (0,2 %) de la constante solaire, c'est-à-dire du flux d'énergie solaire reçu au sommet de l'atmosphère, perpendiculairement par unité de temps et de surface, en fonction du cycle de l'activité solaire. Mais on n'a pu encore clairement établir de lien entre ces variations et celles de la température sur la Terre.
L'évolution du Soleil
Depuis 4,6 milliards d'années, le Soleil est alimenté en énergie par la fusion d'hydrogène en hélium. Dans 3,5 milliards d'années, il aura brûlé la quasi-totalité de l'hydrogène de son noyau. La production d'énergie nucléaire cessant, la matière se contractera, ce qui provoquera une augmentation interne de la température et de la pression. Les couches extérieures se dilateront et la température de la photosphère baissera : le Soleil deviendra une géante rouge. Son rayon pourra alors atteindre la moitié de la distance de la Terre au Soleil mais notre planète se sera alors éloignée à 250 millions de km de son étoile. En effet, le Soleil ayant perdu près de 40% de sa masse par suite de l'échappement du vent solaire, la Terre sera alors soumise à une plus faible attraction. Cet éloignement relatif ne compensera pas l'énorme accroissement de luminosité du Soleil. Dans le cœur de l'étoile, lorsque la température atteindra 100 millions de degrés, la fusion de l'hélium, produisant du carbone et de l'oxygène, se déclenchera et se propagera vers l'extérieur.
Quelques milliards d'années plus tard, l'hélium sera épuisé à son tour et, la production d'énergie nucléaire cessant, le Soleil se contractera à nouveau. Les réactions nucléaires reprendront alors dans deux zones : en surface, transformation de l'hydrogène en hélium, et à l'intérieur, de l'hélium en carbone et oxygène. Sous la pression intense du rayonnement, de la matière sera éjectée. Le rayon du Soleil se réduira à une dizaine de milliers de kilomètres. Dans le même temps, sa température de surface passera à une centaine de milliers de kelvins. Le Soleil finira ainsi son existence sous les traits d'une naine blanche dont le rayonnement faiblira peu à peu. Quant à la matière éjectée, elle se dispersera dans le milieu interstellaire où elle donnera naissance, ultérieurement, à de nouvelles étoiles.

RELIGION
Le culte du Soleil, assez répandu dans diverses sociétés anciennes, a eu un succès tout particulier en Égypte pharaonique, en tant que puissance fécondante. Rê représentait l'astre solaire, et Aton le disque solaire. Dans la ville sainte d'Héliopolis s'étaient élaborés mythes et systèmes théologiques et, dès la IVe dynastie, certains pharaons se sont qualifiés de fils de Rê. Aménophis IV organisa un nouveau culte solaire avec le syncrétisme Amon-Rê.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
  LA LUNE
 

 

 

 

 

 

 

lune
(latin luna)


CARACTÉRISTIQUES PHYSIQUES DE LA LUNE
diamètre moyen    3 476 km
Masse    73,4 · 1021 kg
Volume    22 · 199 km3
densité moyenne    3,34 (eau = 1)
albédo moyen    0,073
 
CARACTÉRISTIQUES ORBITALES DE LA LUNE
demi-grand axe de l'orbite      384 400 km
excentricité moyenne de l'orbite      0,0549
distance minimale au périgée      356 375 km
distance maximale à l'apogée      406 720 km
inclinaison moyenne de l'orbite sur l'écliptique      5,145 3°
inclinaison de l'équateur lunaire sur l'orbite      6°41’
période de révolution :
- sidérale (retour à la même position dans le ciel par rapport aux étoiles)
- synodique (retour à la même position par rapport au Soleil = lunaison)     27,321 660 9 j, soit 27 j 7 h 43 min 11,5 s


29,530 588 1 j, soit 29 j 12 h 44 min 2,8 s
période de rotation sidérale    identique à la période de révolution sidérale
Presque toutes les planètes du Système solaire possèdent des lunes, notamment les planètes géantes Jupiter et Saturne qui comptent plusieurs dizaines de satellites naturels, de formes et de tailles très variées.

Introduction

La Lune, seul satellite naturel de la Terre, est, après le Soleil, l'objet le plus lumineux de notre ciel. Cette qualité, jointe à ses éclipses, à son influence sur les marées et aux changements de forme de sa partie brillante (croissant, quartier, etc.), qui ponctuent le temps et servirent dans de nombreuses civilisations comme calendrier, explique l'intérêt précoce des hommes pour cet astre. Sa relative proximité en a fait le seul corps céleste dont la surface a pu être étudiée en détail depuis la Terre, puis le premier à avoir été exploré, récemment, par les hommes, qui ont pu y prélever des échantillons de roches.


Les caractéristiques physiques et astronomiques

Seul satellite naturel de la Terre, la Lune est, à plusieurs égards, un objet unique dans le Système solaire. D'un rayon de 1 738 km, elle est quatre fois plus petite et 81,3 fois moins massive que la Terre. Bien qu'il existe dans le Système solaire des satellites à la fois plus gros et plus massifs que la Lune, aucun, excepté Charon, le satellite de Pluton, n'a les mêmes proportions par rapport à sa planète. On peut considérer que le système Terre Lune constitue une véritable planète double.

La Lune décrit autour de la Terre une orbite elliptique. La distance moyenne séparant le centre de la Terre de celui de la Lune est de 384 400 km, soit à peu près 60 rayons terrestres (moins de 1 % de la distance de la Terre à Vénus ou à Mars, même au moment de leur plus grande proximité). La première évaluation correcte de cette distance remonte à l'Antiquité (période alexandrine), mais il fallut attendre le xviiie s. (La Caille et Lalande) pour obtenir une valeur réellement précise par la méthode trigonométrique, ou triangulation. La méthode des échos radar, depuis 1947, puis celle des échos laser réfléchis sur la Lune ont supplanté aujourd'hui la méthode trigonométrique du fait de leur précision largement supérieure. L'orbite de la Lune autour de la Terre est assez fortement elliptique (excentricité 1/18), aussi la distance de la Lune à la Terre varie-t-elle dans des limites notables : au cours de chaque mois, de 356 375 km au périgée à 406 711 km à l'apogée. Le globe lunaire apparaît dans le ciel comme un disque d'un peu plus de 0,5° de diamètre apparent.

Le plan de l'orbite lunaire est incliné d'un angle variant de 18,2° à 28,6° sur le plan de l'équateur terrestre, et d'un angle de 5° 8' sur le plan de l'écliptique (plan orbital de la Terre) ; la droite d'intersection du plan de l'orbite lunaire avec le plan de l'écliptique est appelée ligne des nœuds du fait qu'elle coupe la sphère céleste en deux points appelés nœud ascendant et nœud descendant. Les nœuds ont un mouvement rétrograde dont la période est 18,6 ans environ.

La durée de la révolution sidérale de la Lune, c'est-à-dire le temps qu'il faut à la Lune pour accomplir une révolution complète autour de la Terre et se retrouver ainsi, vue de la Terre, dans la même position par rapport aux étoiles, est de 27 jours 7 heures 43 minutes 11,5 s (= un mois sidéral). Mais, durant ce laps de temps, la Terre s'est elle-même déplacée sur son orbite autour du Soleil, la Lune ne se retrouve, pour l'observateur terrestre, dans la même direction par rapport au Soleil qu'après un peu plus de deux jours supplémentaires : la durée de la révolution synodique, ou lunaison, au cours de laquelle s'effectue un cycle complet des phases de notre satellite (c'est-à-dire la durée qui sépare deux pleines lunes successives est ainsi de 29 j 12 h 44 min 2,8 s en moyenne, (= un mois synodique).
Cette observation astronomique est très ancienne : ainsi, l'« observatoire préhistorique » de Stonehenge, en Angleterre, comporte deux cercles concentriques, l'un de trente trous et l'autre de vingt-neuf ; en transportant chaque jour une pierre d'un trou au suivant, on se retrouve au point de départ en 59 jours, soit deux mois synodiques à très peu de chose près !
Le déplacement de la Lune dans le ciel est moins facile à repérer que ses changements de forme à cause du mouvement apparent des étoiles, dû à la rotation de la Terre. En une nuit, la Lune semble se diriger vers l'ouest, à peu près comme les étoiles. Mais en l'observant à 24 heures d'intervalle, on constate que, par rapport aux étoiles voisines, elle s'est déplacée (de 26 diamètres environ) vers l'est, et non vers l'ouest. Sa vitesse moyenne sur son orbite est en effet de 1,023 km/s, ce qui correspond à une vitesse moyenne angulaire dans le ciel d'environ 33 minutes d'arc par heure, soit un peu plus que son diamètre apparent.


Ajoutons que des mesures effectuées par réflexion d'un rayon laser ont permis de déterminer que la Lune s'éloigne progressivement de la Terre d'environ 4 cm par an. D'après les lois de Kepler, cet éloignement induit une perte d'énergie du système Terre-Lune d'environ 3 . 1012 watts par an, essentiellement dans l'océan.

Les phases de la Lune

La Lune est un astre qui n'émet aucune lumière. Elle n'est visible pour nous que parce qu'elle est éclairée par le Soleil. Comme toute sphère éclairée par une source lumineuse lointaine, la Lune présente toujours une moitié brillante – celle tournée vers le Soleil – et une moitié sombre. C'est la partie éclairée de la Lune, visible pour nous à un moment donné, que nous voyons briller dans le ciel. La Lune suit ainsi quatre phases principales, appelées phases lunaires, en environ 4 semaines.

La nouvelle lune
Quand la Lune se trouve entre la Terre et le Soleil (c'est-à-dire à peu près dans la direction du Soleil pour un observateur terrestre : on dit que la Lune se trouve alors en conjonction avec le Soleil), elle tourne vers la Terre sa moitié sombre (non éclairée), et elle est alors invisible pour l'observateur terrestre : on appelle cette phase la nouvelle lune.
Le premier quartier de Lune
Au cours des jours suivants, la forme de la partie éclairée se rapproche progressivement d'un cercle complet et la Lune se lève et se couche avec un retard progressif. Suivant les mois, 6,5 jours ou 7,5 jours après la conjonction, le disque de la Lune se montre sous la forme d'un demi cercle, en partie visible pendant le jour ; c'est le premier quartier.
La pleine lune
Quinze jours environ après la nouvelle lune, la Terre se trouve à peu près entre le Soleil et la Lune ; c'est à minuit qu'elle passe au méridien, c'est-à-dire qu'elle atteint le point le plus élevé de sa course sur la sphère céleste, et elle présente alors entièrement sa moitié éclairée à l'observateur terrestre : c’est la pleine lune.

Le dernier quartier de Lune
Puis la forme circulaire de la partie éclairée du disque décroît progressivement pour se présenter, comme au début de son cycle, sous la forme d'un croissant de même dimension que le premier, mais orienté, pour l'observateur terrestre, en sens inverse. C'est le dernier quartier ; après quoi la Lune, continuant de progresser sur son orbite, entre de nouveau en conjonction avec le Soleil. La lunaison est terminée, et un nouveau cycle commence.
Le bord éclairé de la Lune est toujours situé vers le Soleil, c'est-à-dire vers l'ouest, tant que la Lune grossit, et vers l'est quand elle diminue (ainsi, vue de l'hémisphère Nord, lorsqu'elle « croît » elle affecte la forme d'un D, et celle d'un C lorsqu'elle « décroît », d'où le surnom de « menteuse » qu'on lui donne parfois). Lorsque le croissant de Lune est très fin (avant le premier quartier et après le dernier quartier), la partie obscure de la planète nous apparaît faiblement visible, la nuit. Cette faible lumière d'appoint, ou lumière cendrée, provient de la Terre : c'est de la lumière solaire réfléchie vers la Lune par notre atmosphère et ses nuages. La lumière cendrée est donc le « clair de Terre » sur la Lune.

Le relief lunaire

Les formations les plus caractéristiques du relief lunaire sont des dépressions circulaires ou polygonales, de dimensions variables : les cratères (ou cirques pour les plus vastes, bordés de remparts montagneux). Les plus grands dépassent 200 km de diamètre, mais les plus petits discernables de la Terre n'excèdent pas 1 km, et l'exploration spatiale en a révélé une multitude d'autres de dimensions moindres. Outre des cratères, on observe à la surface des « mers » lunaires (ou bassins) – dont certains comme Mare Imbrium (mer des Pluies) ou Mare Orientale (mer Orientale), ont plus de 1 000 km de diamètre –, des crevasses (ou rainures), des vallées, des falaises et des pitons rocheux isolés.
L'origine de ces structures résulte directement ou indirectement d'impacts de météorites. En effet, la surface de la Lune n'est pas protégée par une atmosphère, et les objets célestes, qui possèdent une énergie cinétique très importante, la percutent à une vitesse d'environ 2,4 km/s. Lors de l'impact, cette énergie est libérée sous forme d'énergie mécanique et thermique. Les petits et moyens cratères se sont ainsi formés, les roches sous-jacentes étant rejetées vers la périphérie ; dans le cas des plus grands, comme les bassins (dont 29, de plus de 300 km de diamètre, ont été dénombrés), la quantité de chaleur libérée par l'impact fut si importante que les roches constituant le fond du cratère ont fondu et se sont répandues comme des laves avant de recristalliser. Les mers circulaires sont les plus grandes structures morphologiques d'impact rencontrées sur la Lune ; le bassin creusé primitivement a été envahi des centaines de millions d'années plus tard par de la lave venue de l'intérieur du globe lunaire. Des cratères d'origine volcanique ont également été reconnus, mais ils sont peu nombreux.

Le sol lunaire

Le sol de la Lune apparaît jonché de pierres plus ou moins enfoncées dans une couche de poussière, constituée de fins débris rocheux réduits en poudre et épaisse, selon les endroits, de quelques millimètres à une quinzaine de centimètres. Sous le tapis de poussière s'étend une couche de roches brisées, le régolithe (ou régolite), dont l'épaisseur varie entre 2 et 20 m suivant les régions.
Les six missions Apollo qui comportèrent un atterrissage sur la Lune ont permis de récolter quelque 2 200 échantillons de roches lunaires, représentant une masse totale voisine de 400 kg. Il faut y ajouter quelques échantillons prélevés par carottage et rapportés sur la Terre par des engins automatiques soviétiques Luna.
Comme sur la Terre, l'oxygène est l'élément le plus abondant à la surface de la Lune. L'étude des roches lunaires a permis d'y découvrir 75 variétés de minéraux (silicates principalement), représentant seulement 33 espèces distinctes, contre environ 80 dans les météorites et plus de 2 000 sur la Terre.

La structure interne de la Lune

Les indications fournies par les sismomètres des vaisseaux Apollo ont permis d'établir le modèle suivant :
– une écorce multicouche épaisse de 60 km environ, pour l'hémisphère visible de la Terre, à 100 km pour l'hémisphère caché ;
– un manteau, épais d'environ 1 000 km ;
– un noyau, de quelque 700 km de rayon, contenant une assez grande quantité de fer. Ce noyau serait plus ou moins pâteux, la température au centre étant estimée voisine de 1 500 °C.

La température à la surface de la Lune
La quasi-absence d'atmosphère entraîne une amplitude thermique pouvant atteindre 100 °C en un point donné de la surface entre le jour et la nuit. Les températures extrêmes relevées atteignent + 117 °C au maximum le jour et − 171 °C au minimum la nuit.

L'origine et l'évolution de la Lune
La Lune s'est formée il y a 4,55 milliards d'années. Peu après, elle se liquéfia sur au moins 200 km de profondeur, et ses divers matériaux constitutifs se répartirent du centre vers la surface par ordre de densité croissante. À peine solidifiée, sa croûte superficielle se trouva bombardée par d'énormes météorites, abondantes à l'époque dans l'espace interplanétaire, qui y creusèrent de grands bassins et provoquèrent une fusion des roches. Cette ère cataclysmique s'acheva il y a 3,9 milliards d'années. La Lune connut ensuite, pendant 800 millions d'années, une grande activité interne. Celle-ci provoqua une seconde fusion en profondeur et la formation de laves basaltiques, qui remontèrent et s'épanchèrent à la surface, remplissant les bassins pour constituer le fond des mers tel qu'on l'observe aujourd'hui.
Depuis quelque 3 milliards d'années, l'activité interne s'est assoupie, les impacts de météorites à la surface sont devenus plus rares, et la Lune s'est lentement refroidie, devenant rigide jusqu'à une profondeur d'au moins 1 000 km.

La Lune est-elle un morceau de la Terre qui s'est détaché de notre planète, alors que celle-ci était encore fluide ? Constituait-elle initialement une planète indépendante qui fut capturée par la Terre, près de laquelle l'amenait son orbite ? Ou bien s'est-elle formée, par accrétion, à proximité de la Terre, les deux astres ayant, dès l'origine, constitué une planète double. Les résultats de l'analyse des roches lunaires rapportées lors des missions Apollo ont montré qu'aucune de ces trois hypothèses traditionnelles n'était satisfaisante. On admet à présent que la Lune s'est formée à la suite d'une collision tangentielle survenue entre la Terre et un autre corps du Système solaire, d'une masse au moins égale à celle de Mars, à la fin de l'époque de la formation des planètes, alors que la Terre présentait déjà une structure différenciée, avec un noyau ferreux entouré d'un manteau rocheux. Sous l'effet de la collision, des lambeaux du manteau terrestre auraient été projetés dans l'espace ; mais ils auraient perdu la plupart de leurs éléments volatils en raison du dégagement de chaleur. Ces fragments de matière se seraient ensuite dispersés en anneau autour de la Terre avant de se réagglomérer très rapidement pour donner naissance à la Lune.

L’exploration de la Lune
Les Soviétiques ont inauguré l'exploration de la Lune avec, entre autres, la série des sondes Luna. Ainsi, Luna 2, lancée le 12 septembre 1959, fut le premier engin à atteindre la Lune ; Luna 3 transmit les premières photos de la face cachée, également en 1959. En 1970, Luna 16 préleva et achemina vers la Terre des échantillons du sol lunaire.
1969

Mais les premiers à marcher sur la Lune furent les Américains. Six missions Apollo, d'Apollo 11 à Apollo 17, s'y succédèrent, sur les sept initialement prévues. La plus célèbre de ces missions reste la première, qui vit le débarquement sur le sol lunaire de Neil Armstrong, le 21 juillet 1969 suivi par son compagnon Edwin Aldrin.
Au cours des six missions effectuées, les astronautes se livrèrent à un certain nombre d'expériences scientifiques dites ALSEP (Apollo lunar surface experiments [« expériences Apollo sur le sol lunaire »]).
Les missions Apollo ont permis de ramener 388 kg de roches lunaires et d'installer des capteurs sismiques analysant les ondes produites par les impacts météoritiques, des capteurs mesurant les fluctuations des champs magnétiques, des détecteurs de particules alpha et de rayonnement gamma et ont élaboré une cartographie à haute résolution de la Lune.
Trois sondes Ranger ont transmis 17 267 images du sol lunaire ; les sondes Surveyor en ont fourni plus de 86 000, et des milliers de données radar et de mesures de température.

Lancée depuis la fusée Athena II, le 11 janvier 1998, la sonde américaine Lunar Prospector, après avoir été mise en orbite autour de la Lune, a détecté, en mars 1998, la présence d'eau sous forme de glace aux deux pôles de la Lune. Cette sonde avait également pour mission de dresser le premier atlas géochimique de notre satellite. Grâce à un spectromètre gamma, elle a pu ainsi localiser les gisements de métaux et minerais enfouis à plusieurs mètres de profondeur, tandis qu'un spectromètre alpha lui permettait de détecter les différents gaz présents. L'analyse de ces relevés devrait ainsi permettre de confirmer une éventuelle activité tectonique de la Lune. Dans une deuxième phase de sa mission, entamée en février 1999, Lunar Prospector, dont l'orbite avait été abaissée à une dizaine de kilomètres du sol lunaire, après avoir scruté le cratère Aitken, à l'intérieur duquel la présence d'eau sous forme de plaques de glace avait été précédemment détectée, a été chargée d'établir une cartographie des astéroïdes enfoncés dans le sol lunaire. L'étude de ces « mascons » (concentrations de masse se traduisant localement par une augmentation du champ gravitationnel de la Lune) devrait permettre d'affiner la modélisation de l'intérieur de notre satellite.

De nouvelles données concernant la surface lunaire (minéralogie, composition chimique, etc.) ont été fournies par la sonde européenne Smart 1, après sa mise en orbite autour de la Lune en 2005, ainsi que par la sonde japonaise Selene (Kaguya), qui décrit depuis octobre 2007 une orbite survolant les pôles lunaires, et la sonde chinoise Chang'e, placée en orbite autour de la Lune en novembre 2007. On attend beaucoup aussi de la sonde indienne Chandrayaan 1, lancée le 22 octobre 2008, qui doit étudier la Lune en orbite pendant deux ans, à 100 km d'altitude seulement, et larguer un impacteur sur le sol lunaire. Par ailleurs, en janvier 2004, le président des États-Unis George W. Bush a annoncé la reprise des missions humaines américaines sur la Lune à partir de 2015.

Fin 2013, le module contenant le premier véhicule d'exploration lunaire téléguidé chinois, baptisé « Lapin de jade », s'est posé sur la Lune. C'est la troisième nation à réussir un alunissage en douceur après les États-Unis et l'URSS. Cette mission, qui fait partie d'un ambitieux programme spatial, est chargée d'effectuer des analyses scientifiques, notamment géologiques.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales / Confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google