LA TRIBOLOGIE
 

 

 

 

 

 

 

LA TRIBOLOGIE


La tribologie est la science des frottements. Un 'frottement' intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est en fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., on pourrait multiplier les exemples connus de tous. La plupart de ces phénomènes peuvent se comprendre sur la base des lois du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant), à partir de la notion de coefficient de frottement. Pourtant l'évidence apparente de ce 'vieux problème' cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, etc. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes sous-jacents, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans. Dans cet exposé, j'aborderai quelques manifestations du frottement sur différents exemples illustrant la complexité du phénomène. Je discuterai ensuite des causes du frottement, des premières interprétations de Amontons, Coulomb et d'autres au 18ème siècle en terme de rugosité de la surface, jusqu'aux travaux les plus modernes sur la nano-tribologie des contacts. Je décrirai en particulier les outils d'investigation modernes, tels que le microscope à force atomique, la machine de force de surfaces, les simulations numériques à l'échelle moléculaire, qui permettent désormais d'accéder aux fondements intimes du frottement aux échelles moléculaires avec des manifestations parfois étonnantes. Le développement de ces techniques d'investigation performantes ouvre désormais de nouvelles perspectives dans la compréhension et l'optimisation du frottement.

Texte de la 597 e conférence de l'Université de tous les savoirs prononcée le 19 juillet 2005
Par Lydéric Bocquet: « Approche physique du frottement »
La tribologie est la science des frottements. Un « frottement » intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est de fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement de craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., etc. On pourrait multiplier les exemples connus de tous. Le frottement est ainsi intimement associé à la perception de notre environnement immédiat. Au cours de l'histoire humaine, les efforts pour s'en affranchir ont d'ailleurs été un facteur de progrès considérable, depuis l'invention de la roue plus de 3000 ans avant Jésus-Christ, jusqu'aux développements technologiques les plus récents dans la recherche de nouveaux matériaux (par exemple les composites céramiques pour la réalisation de prothèses artificielles). L'augmentation des performances techniques passe souvent par le développement de matériaux spécifiques qui permettent de diminuer les efforts de frottement : on limite ainsi l'usure, tout en réduisant la consommation énergétique, et en limitant le vieillissement des pièces. Dans d'autres domaines, l'effort est inversement plutôt concentré sur une augmentation du frottement, par exemple dans les dispositifs de freinage, ou les composites constituants les freins.
Les sciences du frottement sont donc intimement liées au développement technologique, tournées vers l'application. Pourtant c'est un domaine qui continue de soulever de nombreuses questions au niveau le plus fondamental. L'origine même du frottement reste largement incomprise et suscite de nombreuses études au niveau mondial, avec des découvertes récentes très prometteuses.
Des lois simples pour des phénomènes complexes -
La plupart des phénomènes associés au frottement peuvent se comprendre sur la base des lois phénoménologiques du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant). Ces lois empiriques font intervenir une quantité clef : le coefficient de frottement, coefficient sans dimension que l'on note en général m. Plaçons un objet sur une surface plane : par exemple un kilo de sucre sur une table. Pour déplacer cet objet, de poids P (la masse multipliée par la constante de gravité, g=9.8 m/s2), il faut exercer une force FT parallèlement à la surface de la table. Mais l'expérience montre que cet objet ne se déplacera pas tant que la force FT est inférieure à une force minimale. De plus Amontons et Coulomb ont montré que cette force minimale est directement proportionnelle à la force normale, donc ici au poids : autrement dit, l'objet ne se déplace pas tant que
|FT |S |P|,
mS définissant le « coefficient de frottement statique ». D'autre part, si l'objet se déplace maintenant à vitesse constante sur la surface, l'expérience montre dans ce cas que la force de frottement tangentielle subie par l'objet est également proportionnelle à la force normale et (quasiment) indépendante de la vitesse :
|FT | = mD |P|,
mD définissant le « coefficient de frottement dynamique ». De façon générale on mesure que mD est plus petit que mS. De plus, Amontons et Coulomb, mais également Léonard de Vinci, ont mis en évidence que ces coefficients mS et mD ne dépendent pas de l'aire de contact de l'objet frottant (voir figure 3) : que l'on pose le kilo de sucre bien à plat ou sur la tranche, la force de frottement est la même, ce qui est assez peu conforme à l'intuition ! Nous reviendrons plus loin sur ce « mystère des surfaces », qui n'a été élucidé qu'assez récemment.
Un autre fait étonnant concerne la valeur typique de ces coefficients de frottement, qui s'écarte assez peu de m~0.3, pour des surfaces très différentes les unes des autres. La technologie permet toutefois de concevoir des surfaces avec des coefficients de frottement soit bien plus petits (m~0.001) soit plus grand (m > 1).
Le stick-slip, du violon aux tremblements de terre -
Ces lois simples permettent de rationaliser beaucoup des phénomènes observés pour les objets frottants. Nous nous attardons en particulier sur l'une des manifestations les plus marquantes du frottement, le stick-slip. Cette expression anglophone traduit parfaitement le phénomène, le stick-slip caractérisant un mouvement saccadé. Ce type de mouvement est observé lorsque l'on tire sur un objet frottant par l'intermédiaire d'un ressort : par exemple un paquet de sucre tiré par un élastique. Le mouvement de l'objet qui en résulte n'est en général pas uniforme mais saccadé : avec des périodes où l'objet résiste et ne bouge pas (« stick ») ; puis des périodes plus courtes où le seuil de résistance est dépassé et l'objet glisse sur une distance importante (« slip »). Les lois de Amontons-Coulomb permettent d'en comprendre les mécanismes élémentaires, et montrent que l'origine du « stick-slip » dans ce système mécanique simple {objet-ressort} est liée à l'inégalité des coefficients de frottement soulignée précédemment mD S. Les deux phases du mouvement reflètent ainsi deux états distincts du système : la phase statique (« stick ») est sous contrôle du frottement statique entre l'objet et la surface, tandis que la phase de glissement (« slip ») correspond au mouvement presque libre de l'objet sous l'action du ressort.
Cette dynamique saccadée se retrouve de façon générique dans des phénomènes pourtant très différents : du grincement des portes aux tremblements de terre, en passant par la mise en vibration d'une corde de violoncelle sous le frottement d'un archer. Même si ils se produisent à des échelles spatiales très différentes, ces phénomènes sont tous associés à une dynamique intrinsèque de type « stick-slip », associant les deux éléments mécaniques clefs : un corps frottant et un « ressort ». Dans le cas des instruments à cordes frottés, ces deux éléments sont aisés à identifier : le frottement se déroule à l'interface entre les crins de l'archer et la corde de l'instrument (via la colophane, résine qui augmente le frottement), tandis que la corde joue le rôle du « ressort ». Le mouvement continu de l'archer provoque une suite de petits déplacements de la corde, telle une multitude de pizzicati, qui produit in fine ce son velouté caractéristique des cordes frottées. Dans le cas des tremblements de terre, le frottement a lieu à l'interface entre plaques continentales qui jouent donc à la fois le rôle d'objet frottant (à leurs interfaces) et de ressort (dans leur globalité). Le déplacement des plaques continentales les unes par rapport aux autres pendant la phase stick conduit à l'accumulation de contraintes gigantesques à l'interface entre plaques. Le relâchement brutal de ces contraintes lorsque le seuil de résistance est atteint libère une énergie considérable et destructrice pendant la phase slip. Ici encore, le caractère saccadé du phénomène conduit à la production de vibrations, sous la forme d'ondes sismiques qui sont enregistrées par les sismographes. Si les mécanismes de base sont simples, la prédiction des tremblements de terre s'avère extrêmement complexe et continue à susciter des recherches poussées.
De l'origine des lois de Amontons-Coulomb -
Les lois du frottement énoncées précédemment sont très simples dans leur formulation, qui ne nécessite que l'introduction de coefficients sans dimension (mS et mD). Pourtant l'évidence apparente de ces lois cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, et cette liste n'est pas exhaustive. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes mis en jeu, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans.
Les premières tentatives d'explication des lois du frottement ont été proposées par Belidor et Coulomb au 18ème siècle, qui ont associé l'existence du frottement à la rugosité des surfaces. L'idée originale se base sur l'emboîtement des rugosités de surface qui conduit à l'existence d'un coefficient de frottement (voir Figure 1). Une schématisation simple de cette idée est représentée sur la figure 1 (droite), avec deux surfaces présentant des rugosités en dents de scie. Si l'on applique une force normale N sur la surface supérieure et une force horizontale T, un bilan des forces horizontales permet de montrer que l'équilibre des forces est rompu lorsque la force tangentielle est supérieure à une valeur de rupture : Tmax=mS |N|, définissant ainsi un coefficient de frottement statique mS=tan(a). L'angle a est ici la pente de la rugosité par rapport à l'horizontale. Aussi simpliste qu'il soit, cet argument permet de lier le frottement (statique) aux caractéristiques de la rugosité. De plus les valeurs expérimentales typiques des coefficients de frottement statique, de l'ordre de 0.3, correspondent à des pentes de la rugosité de surface de l'ordre de 15-20 degrés, ce qui est tout à fait compatible avec les caractéristiques typiques que l'on peut mesurer pour les rugosités de surfaces.
Cet argument repose cependant sur une hypothèse implicite : l'emboîtement parfait entre les rugosités des deux surfaces, tel que cela est illustré de façon schématique sur la figure 1, et sur la figure 2 (gauche) pour une surface schématique à l'échelle « atomique ». On parle dans ce cas de surfaces commensurables. Ca n'est bien sûr pas le cas en général dans la nature : même à l'échelle atomique, deux surfaces idéales, telles que celles qui sont représentés à l'échelle atomique sur la figure 2, présentent des légères différences de distance interatomique. Une légère disparité suffit à rendre très irrégulière la répartition des points de contact entre les deux surfaces (voir figure 2 droite), contrairement au cas commensurable (figure 2 gauche). On parle alors de surfaces incommensurables. On peut montrer par un raisonnement similaire à celui mené précédemment que la répartition irrégulière des contacts entre surfaces incommensurables conduit à l'annulation des
Figure 2 : Contact schématique entre deux surfaces (les disques esquissant les atomes de chaque surface en contact. (gauche) Deux surfaces commensurables en contact. Les points de contact entre surfaces (étoiles) sont répartis régulièrement. (droite) Deux surfaces incommensurables en contact. Les contacts entre surfaces (étoiles) se répartissent de façon irrégulière.

forces de frottement tangentielles : la force de frottement statique est identiquement nulle entre surfaces incommensurables !
Autrement dit, on aboutit à la conclusion que le frottement entre deux surfaces commensurables est non-nul, tandis qu'il s'annule exactement si ces deux surfaces sont incommensurables.
Ce résultat très étonnant a été confirmé pour la première fois dans des expériences très récentes par le groupe de M. Hirano et collaborateurs au japon [Hirano1997], puis confirmé par d'autre groupes de recherche, notamment pour des surfaces de graphite [Dienwiebel 2004].
Ce phénomène est désormais connu sous le nom de « supra friction » et a ouvert une voie de recherche très prometteuse pour le développement de surfaces avec des frottements très faibles, le graal des tribologues.
Cependant, la suprafriction est pour l'instant observée dans des conditions drastiques, assez éloignées des conditions de la vie réelle. Ces mesures sont notamment réalisées en plaçant ces surfaces dans une enceinte où un vide très poussé est réalisé. On supprime ainsi tout contaminant présent dans l'atmosphère (poussière, molécule organique, ...) qui, comme on va le voir, supprimerait cet état de suprafriction et conduirait à une force de frottement non-nulle. Il reste donc encore du chemin à parcourir pour obtenir des surfaces « supra-frottantes » dans des conditions d'utilisations technologiques, où il est difficile de supprimer la présence de polluants.
Le « troisième corps »- le grain de sable dans les rouages
La remarque précédente pointe le rôle joué dans le frottement par les contaminants et plus généralement les corps intersticiels. Ce rôle a été reconnu assez récemment dans l'histoire de la tribologie. Pourtant les corps intersticiels constituent un ingrédient incontournable du frottement. En effet, les surfaces laissées à l'air libre se polluent très rapidement sous l'effet de poussières, molécules organiques, de l'humidité, etc. présentes dans l'air. De plus le contact frottant entre deux surfaces génère lui-même des débris d'usure, grains de matière de tailles variées qui vont se retrouver dans les interstices à l'interface entre les deux surfaces. Une illustration simple est la trace laissée par une craie sur un tableau, ou d'un pneu lors du freinage.
Or la présence de contaminants modifie profondément le frottement, et notamment le scénario discuté précédemment en ce qui concerne la commensurabilité des surfaces frottantes. Des travaux récents utilisant des simulations numériques de ces processus à l'échelle moléculaire ont montré que la présence de quelques contaminants dans l'interstice entre les deux surfaces suffit à rétablir systématiquement un coefficient de frottement non-nul, même dans le cas où les deux surfaces sont incommensurables [Robbins]. Les contaminants mobiles viennent se placer dans les interstices laissés libres entre les surfaces et contribuent à rétablir une « commensurabilité effective » des surfaces, sous la forme d'un emboîtement partiel. Le coefficient de frottement prend alors une valeur non nulle, même pour des surfaces incommensurables. Les contaminants viennent jouer le rôle du « grain de sable » dans les rouages.
A cause de ces corps intersticiels, le contact entre deux surfaces dans des conditions de la vie quotidienne a donc assez peu à voir avec l'idée d'une assemblée d'atomes telle qu'elle est représentée sur la figure 2. Le « frottement idéal » qui y est représenté n'existe que dans des conditions très particulières. Ce résultat donne donc une perspective différente concernant l'origine du frottement entre surfaces, en pointant la contribution essentielle des impuretés.
Pour prendre en compte ces impuretés, les tribologues ont introduit la notion de « 3ème corps », qui regroupe l'ensemble des corps situés entre les deux surfaces en contacts (les deux premiers corps). Un problème de frottement doit donc en principe prendre en compte ces trois corps et les échanges (de matière, chaleur, etc.) qui peuvent exister entre eux. On voit ici poindre la complexité du problème de frottement. Les lois de Coulomb et l'origine même du frottement prennent leur origine non pas dans un seul phénomène bien identifié à l'échelle atomique, mais résulte d'un ensemble de phénomènes couplés.
Le mystère des surfaces -

Figure 3 : dessins de Léonard de Vinci, illustrant ses expériences démontrant l'indépendance du coefficient de frottement vis-à-vis de l'aire de contact entre le corps frottant et la surface (tiré de [Dowson]).

Cette complexité sous-jacente se retrouve dans une autre manifestation des lois de Amontons-Coulomb : l'indépendance des coefficients de frottement vis-à-vis de l'aire de contact. Léonard de Vinci avait déja observé ce phénomène, comme le montre l'une de ses planches (figure 3). Quelque soit la surface de contact de l'objet frottant, la force de frottement est identique. Ce résultat très contre-intuitif a défié l'imagination des scientifiques plusieurs siècles avant que Bowden et Tabor au Cavendish à Cambridge n'en proposent une explication dans les années 1950.
La clef de ce phénomène est une nouvelle fois la rugosité de surface. Comme on le montre schématiquement sur la figure 4, à cause de la rugosité, les zones de contact réel entre les surfaces sont bien plus petites que l'aire de contact apparente entre les surfaces, telle qu'elle nous apparait de visu.

Aréelle
Figure 4 : Illustration de deux surfaces rugueuses en contact. L'aire de contact réelle (Aréelle) entre les surfaces est bien plus petite que l'aire apparente (Aapp).
Aapp

Cette distinction entre surface réelle et surface apparente a été démontré par visualisation optique directe de la surface de contact, notamment par Dieterich et Kilgore et plus récemment par Ronsin et Baumberger. Cette observation donne une image de zones de contact réel très clairsemées, avec une taille typique pour chaque zone de l'ordre du micron. Ainsi l'aire de contact réelle entre deux objets macroscopiques ne représente typiquement que 0.1 % de l'aire de contact totale : Aréelle /Aapp~0.001.
Une conséquence immédiate est que la force normale (FN) à laquelle on soumet l'objet ne se répartit que sur les aspérités en contact et non sur l'ensemble de la surface de l'objet. En conséquence la pression au sein de ces contacts, c'est-à-dire la force par unité de surface, Pcontact=FN/Aréelle , est bien plus grande que celle que l'on attendrait a priori si la force FN se répartissait sur l'ensemble de la surface, Papp=FN/Aapp. Or aux très grandes pressions, un matériau devient en général plastique, c'est à dire qu'il s'écrase sans que sa pression ne varie. La valeur de la pression à laquelle se déroule ce phénomène est appelée dureté du matériau, que l'on notera H. La pression au sein des contacts étant fixée à H, on en déduit alors que l'aire réelle du contact est directement proportionnelle à la force appliquée : Aréelle = FN/H. Autrement dit, plus la force appliquée est grande, plus le contact réel est grand, ce qui est finalement assez intuitif.
Ce mécanisme permet de retrouver les lois de Coulomb. En effet, l'aire frottante étant l'aire réelle, on s'attend à ce que la force de frottement tangentielle soit proportionnelle à cette aire : Ffrottement = g Aréelle. Le coefficient de proportionalité g a les dimensions d'une force par unité de surface (donc d'une pression). On note plus généralement ce coefficient sY, « contrainte de cisaillement ». En utilisant l'expression précédente pour l'aire de contact réelle, Aréelle = FN/H, on aboutit à une force de frottement qui prend la forme d'une loi de Amontons-Coulomb : Ffrottement = m FN, avec m=sY/H qui est bien une caractéristique du matériau à la surface.
Cette explication de Bowden et Tabor au phénomène de frottement permet donc de comprendre la proportionalité de la force de frottement vis-à-vis de la force normale, mais également l'indépendance du coefficient de frottement vis-à-vis de la surface apparente de contact.
Cette explication repose cependant sur l'hypothèse de déformation plastique des aspérités, qui, si elle est pertinente pour des métaux, pose question pour d'autres matériaux (comme par exemple les élastomères). De fait, Greenwood et Williamson ont montré dans les années 1960 que le point clef du raisonnement précédent, c'est à dire la proportionalité entre aire de contact réelle et force normale FN, est maintenu même dans le cadre d'aspérités qui se déforment élastiquement, par un effet de moyenne statistique sur l'ensemble des aspérités en contact.
Une autre hypothèse implicite du raisonnement précédent est que la contrainte de cisaillement que nous avons introduit, sY, est une caractéristique des matériaux, indépendante des conditions du frottement, notamment de la vitesse. Ce point mérite de s'y attarder un peu plus longuement. La contrainte de cisaillement sY est associée aux propriétés mécaniques du contact à l'interface entre aspérités de tailles micrométriques. Des expériences récentes ont pu sonder indirectement les propriétés mécaniques de ces jonctions [Bureau]. Ces expériences suggèrent qu'à la jonction entre deux aspérités en contact, le matériaux se comporte comme un milieu « vitreux » et que la contrainte seuil est intimement associée à ces propriétés vitreuses. Qu'est-ce qu'on appelle un « milieux vitreux » ? Ce sont des milieux dont la structure microscopique est désordonnée (comme un liquide), mais figée (comme un solide). Leur propriétés sont intermédiaires entre celles d'un liquide et celles d'un solide : entre autres, ils ne coulent pas au repos (comme des solides), mais au delà d'une contrainte minimale appliquée, ils s'écoulent (comme des liquides). De tels matériaux sont omniprésents dans notre vie quotidienne : verre, mousses alimentaires, émulsions (mayonnaise), gels, milieux granulaires, etc. Ce sont justement ces propriétés mi-liquide, mi-solide qui constituent leur intérêt industriel (et notamment agro-alimentaire). Au delà des intérêts industriels évidents, ces milieux vitreux font actuellement l'objet d'une recherche fondamentale très intense, avec des progrès récents dans la compréhension des mécanismes élémentaires associés à leur façon très particulière de couler.
La question du frottement se trouve précisement liée à la compréhension des processus d'écoulement de tels milieux, pourtant à une tout autre échelle spatiale. Comprendre l'origine de la contrainte de cisaillement à l'échelle (quasi-nanométrique) des jonctions entre aspérités en contact rejoint ainsi la compréhension des propriétés d'écoulement de la mayonnaise ! Au delà de l'anecdote, cette compréhension soulève dans les deux cas des problèmes fondamentaux très délicats.
La lubrification -
Jusqu'à présent, nous avons concentré notre discussion sur le frottement dit « sec », qui correspond à la situation où les deux surfaces frottantes sont en contact direct. Mais du point de vue technologique et pratique, cette situation est à proscrire si l'on veut un frottement faible. Cela apparaît comme une évidence pratique qu'il faut lubrifier les pièces mécaniques et « mettre de l'huile dans les rouages ». Un moteur à explosion qui « tourne » sans huile va chauffer, jusqu'à subir des dommages définitifs. La diminution du frottement par l'ajout de lubrifiants est connu depuis des milliers d'années, comme le démontre ce bas-relief égyptien représenté sur la figure 5, datant de 1880 avant Jésus-Christ (document tiré de [Dowson]). Parmi les centaines d'hommes occupés à déplacer le traîneau sur lequel repose la statue, un personnage a un rôle bien particulier puisqu'on le voit verser du liquide devant le traîneau déplacé afin de lubrifier le contact entre le traîneau et le sol.

Figure 5 : Bas-relief égyptien montrant une statue tirée par 170 hommes. Le personnage encerclé verse du liquide pour lubrifier le frottement entre le support de la statue et le sol (tiré de [Dowson]).

Un autre exemple est la lubrification des articulations du corps humain. Par exemple, au niveau du genou, ce rôle du lubrifiant est tenu par le liquide synovial, liquide rendu très visqueux par la présence de molécules organiques très longues (l'acide hyaluronique). A l'inverse certaines pathologies, comme l'arthrose, sont associées à la baisse du pouvoir lubrifiant de ce liquide, notamment par la baisse de la viscosité.
Il apparaît donc naturel d'utiliser des liquides très visqueux comme lubrifiants (huiles, ou graisses). Ainsi, l'eau, liquide très peu visqueux, est en général un très mauvais lubrifiant. On peut s'en convaincre par une expérience très simple : des mains mouillées par de l'eau et frottées l'une contre l'autre maintiennent un fort frottement lors du mouvement, tandis que quelques gouttes d'huile suffisent à rendre les mains complètement glissantes. Si ce phénomène paraît intuitivement évident, il est toutefois étonnant de réaliser que c'est le liquide le moins fluide qui conduit au frottement le plus réduit.
Attardons-nous sur le rôle du lubrifiant dans le frottement. L'action du lubrifiant est double : d'une part le frottement entre les deux objets se réalise via un liquide et non plus directement sous la forme d'un frottement « sec » entre solides, ce qui conduit à un frottement fluide beaucoup plus faible ; et d'autre part, et c'est le point crucial, il permet d'éviter le contact solide direct. Autrement dit, l'un des rôles du lubrifiant est de maintenir la présence d'un film liquide entre les deux parois solides, empêchant ainsi les aspérités solides d'entrer en contact direct.
C'est justement là où va intervenir la viscosité. Un liquide visqueux coule « difficilement ». Lorsque l'on va presser les deux surfaces l'une contre l'autre (par exemple les mains dans l'exemple précédent), le liquide le plus visqueux sera le plus difficile à déplacer. Il se maintiendra donc sous la forme d'un film liquide entre les deux surfaces et c'est ce film liquide maintenu qui assurera le frottement fluide, donc la lubrification. A l'inverse, l'eau, fluide peu visqueux, va disparaître du contact lorsque les deux surfaces seront pressées l'une contre l'autre : un contact solide direct sera rétabli et l'on retrouve ainsi un frottement « sec » avec un coefficient de frottement élevé.
D'autres propriétés du lubrifiant vont également jouer un rôle dans ce mécanisme, notamment la « mouillabilité », c'est à dire l'affinité du liquide vis-à-vis de la surface, qui va influer sur la capacité du lubrifiant à recouvrir la surface et ses anfractuosités.
Le lubrifiant doit donc assurer des fonctions relativement antagonistes : l'une est d'être suffisamment fluide pour assurer un faible frottement, l'autre d'être suffisamment visqueux pour éviter le contact direct. Une huile de type moteur est donc un mélange complexe, contenant des dizaines d'additifs dont l'assemblage permet au final d'atteindre ces deux objectifs de façon optimale.
Conclusions :
Dans ce texte, nous avons présenté quelques points intervenant dans le problème du frottement entre solide. En aucun cas, il ne s'agit ici d'un panorama exhaustif et nous n'avons pas parlé ici de nombre de phénomènes également présent dans les problèmes de frottement, comme la physico-chimie des surfaces, la thermique, le vieillissement, l'usure, l'abrasion, etc...qui auraient tout aussi bien nécessités une discussion approfondie.
La tribologie est ainsi une science par essence pluridisciplinaire. Le phénomène de frottement résulte non pas d'un mécanisme unique, mais d'une multitude de phénomènes complexe et souvent couplés, qui aboutissent in fine aux lois pourtant simples d'Amontons-Coulomb.
C'est également vrai dans l'approche scientifique de ces problèmes. La science des frottements associe ingénieurs et scientifiques, recherche appliquée et fondamentale. Ces deux approches sont par nature couplées. Ainsi, si les questions soulevées sont anciennes, c'est un domaine dans lequel les derniers développements fondamentaux ont permis de mettre en évidence des phénomènes complètement inattendus, laissant augurer de progrès technologiques important dans un avenir proche.
Références :
[Bowden-Tabor] F.P. Bowden and D. Tabor, « The friction and lubrication of solids » (Clarendon Press, London, 1950).
[Bureau] L. Bureau, T. Baumberger, C. Caroli, « Jamming creep at a frictional interface », Physical Review E, 64, 031502 (2001).
[Dowson] D. Dowson « History of Tribology » (Longman, New York, 1979).
[Dienwiebel] M. Dienwiebel et al., « Superlubricity of Graphite », Physical Review Letters, 92, (2004).
[Hirano1997] M. Hirano, K. Shinjo, R. Kaneko and Y. Murata, « Observation of superlubricity by scanning tunneling microscopy », Physical Review Letters, 78, pp.1448-1451 (1997)
[Robbins] G. He, M. Müser, M. Robbins « Adsorbed Layer and the origin of static friction », Science 284 1650-1652 (1999).

 

 VIDEO       CANAL  U         LIEN

 
 
 
  LASER
 

 

 

 

 

 

 

CLAUDE COHEN-TANNOUDJI « Le laser ouvre de nouveaux champs de recherche »


La mise au point du laser, en 1960, a transformé l'étude de la lumière. Claude Cohen-Tannoudji, acteur majeur de ces cinquante années de recherche, livre son regard sur une histoire qui continue à s'écrire.
LA RECHERCHE : Comment un chercheur envisage-t-il l'étude de la lumière ?

CLAUDE COHEN-TANNOUDJI : La lumière ne peut s'étudier que par son interaction avec la matière. L'étude expérimentale de la lumière a débuté au XVIIe siècle. Descartes et Newton furent les premiers à réellement développer des modèles satisfaisants de la lumière. Il s'agissait de modèles corpusculaires. Newton pensait ainsi que la lumière était un jet de corpuscules et qu'il existait des corpuscules différents selon la couleur de la lumière. Ils étaient, selon lui, responsables de la sensation lumineuse.

C'est une conception ondulatoire de la lumière qui a rapidement eu la faveur des scientifiques ?
C.C.-T. En effet ; peu après, il y a eu toute une série de mises en évidence de propriétés ondulatoires à la suite des travaux de Huygens, de Fresnel et de Young. L'apogée fut la formulation des équations de Maxwell dans la seconde moitié du XIXe siècle, qui englobaient dans un même schéma cohérent l'électricité, le magnétisme et la propagation des ondes électro-magnétiques. Et il y a enfin eu les expériences de Hertz qui ont permis de montrer que les ondes électro-magnétiques lumineuses et radio avaient la même nature et ne différaient que par la fréquence.
Après cette compétition entre les modèles corpusculaire et ondulatoire, il semblait que la théorie ondulatoire allait triompher définitivement. Elle expliquait les phénomènes d'interférence, de diffraction, avec une grande précision. Elle donnait une explication cohérente d'une série d'observations. L'électromagnétisme était l'une des premières grandes synthèses de la physique.

Mais, à la fin du XIXe siècle, elle va être remise en question...
C.C.-T. Oui, il y avait alors deux petits « nuages » qui obscurcissaient ce tableau. Le premier était un constat d'échec. Les scientifiques pensaient qu'un milieu était nécessaire pour permettre la propagation d'une onde : un milieu appelé « éther » pour la lumière, comme l'air pour une onde sonore. Or toutes les tentatives de mettre en évidence un mouvement de la Terre par rapport à l'éther avaient échoué, remettant en question l'existence de ce milieu hypothétique.
Le second « nuage » était l'analyse du spectre du « corps noir » : en appliquant à la lumière les lois de la physique statistique* et en calculant la répartition en fréquences du rayonnement émis par un corps à une température T, on trouvait quelque chose d'aberrant. Aux hautes fréquences, l'intensité du rayonnement émis à la fréquence v décroissait trop lentement quand v tendait vers l'infini et l'on prévoyait un résultat infini pour l'énergie lumineuse totale rayonnée !

C'est pour expliquer ces résultats curieux que Planck a l'idée d'introduire les quanta ?
C.C.-T. Planck propose une nouvelle théorie selon laquelle il obtient le bon spectre en modélisant les atomes émetteurs comme un ensemble d'oscillateurs matériels interagissant avec le rayonnement. Dans cette théorie, il fait appel à un artifice mathématique classique : il remplace une distribution continue par une distribution discrète. Cela permet de simplifier le calcul, à la fin duquel on fait tendre vers zéro les « pas » du calcul pour rétablir la distribution continue. Seulement, il n'obtient les bons résultats qu'en s'affranchissant de cette dernière étape et en conservant jusqu'au bout une quantification discrète des échanges d'énergie entre les oscillateurs et le rayonnement. Planck n'est pas satisfait de ce résultat, car la démarche lui semble artificielle ! Mais c'est ainsi qu'il introduit la constante qui porte son nom et que l'on écrit h, du mot allemand Hilfsgrösse voulant dire « grandeur auxiliaire ». Cependant, personne n'imagine encore que la lumière est constituée de grains : ce sont seulement les échanges d'énergie entre la matière et le rayonnement qui se font de façon quantifiée.

Quand apparaît le concept de photon ?
C.C.-T. Dans l'un des trois articles fondamentaux d'Einstein - vraisemblablement le plus révolutionnaire -, en 1905. Il calcule l'entropie* du rayonnement et conclut que tout se passe comme si le rayonnement était constitué de corpuscules d'énergie quantifiée. La quantification n'est donc plus envisagée pour les seuls échanges d'énergie, mais pour le rayonnement lui-même.

Quelle est la réaction de la communauté scientifique des physiciens ?
C.C.-T. Scepticisme général : personne n'y croit. Quand Planck présente Einstein à l'Académie de Prusse en 1913, il parle d'un scientifique remarquable, qui a apporté des contributions fondamentales dans de nombreux domaines, mais qui a commis quelques erreurs de jeunesse comme l'idée de ce quantum lumineux - qu'on appellera photon par la suite -, pour lesquelles il faut lui pardonner.
On ne sait pas comment on peut réconcilier les quanta lumineux avec l'aspect ondulatoire. Ce n'est que petit à petit que les gens accepteront cette idée. Ainsi, après une dizaine d'années d'expérience, Robert A. Millikan dut admettre ne pas avoir réussi à mettre en défaut l'équation d'Einstein sur l'effet photo-électrique à laquelle il ne croyait pas.

Est-ce à cette époque que germe l'idée du laser ?
C.C.-T. Il faut remonter à 1917 et à l'article dans lequel Einstein essaie de retrouver la loi de Planck de façon simple en étudiant les échanges d'énergie dans des processus d'émission et d'absorption de photons par un atome à deux niveaux d'énergies différentes. Einstein introduit pour la première fois dans ce domaine l'idée de processus non déterministe : l'atome passe du niveau supérieur (d'énergie la plus élevée) au niveau inférieur (état fondamental supposé stable) avec une certaine probabilité par unité de temps d'émettre un photon de manière spontanée. Cette idée est révolutionnaire parce que toute la physique est déterministe à l'époque : si on connaît les conditions initiales, on pense que le système doit évoluer d'une manière bien définie. L'idée de probabilité de transition est nouvelle. Einstein considère dans son article que l'atome dans l'état fondamental peut absorber un photon avec une certaine probabilité de transition, puis retomber dans l'état fondamental par émission spontanée.
Einstein introduit aussi dans le même article l'idée d'émission stimulée : si un rayonnement incident arrive sur un atome dans l'état excité, il peut stimuler l'atome à revenir au niveau fondamental en émettant un photon identique au photon incident. En étudiant l'état d'équilibre atteint sous l'effet combiné des processus d'absorption, d'émission spontanée et stimulée, il retrouve en quelques lignes de calcul la loi de Planck, de façon beaucoup plus élégante qu'auparavant. Mais toutes ces idées nouvelles, qui paraissent alors vraiment académiques, vont rester en sommeil jusqu'au début des années 1950.

Que devient alors la polémique sur la nature ondulatoire ou corpusculaire de la lumière ?
C.C.-T. Einstein montre que dans l'interaction entre la matière et le rayonnement, il y a des phénomènes où la lumière apparaît de manière corpusculaire et des phénomènes où elle apparaît de manière ondulatoire, mais il ne propose pas de théorie précise. Louis de Broglie étend à la matière la notion de dualité onde-corpuscule, ouvrant la voie à de nombreux développements : l'équation de Schrödinger, la mécanique quantique, la liaison chimique, la théorie des solides... Peu à peu, le cadre pour une théorie complètement quantique de l'interaction entre la matière et le rayonnement se met en place. Et, à la fin des années 1920, l'Italien Enrico Fermi et le Britannique Paul Dirac proposent enfin une théorie satisfaisante englobant l'aspect corpusculaire et l'aspect ondulatoire, qui allait ouvrir la voie à l'élaboration de l'électrodynamique quantique.

Comment est née l'idée du laser ?
C.C.-T. Pendant la Seconde Guerre mondiale, de nombreux travaux avaient porté sur les micro-ondes et le radar en particulier ainsi que sur les jets atomiques et moléculaires. La connaissance des niveaux atomiques et moléculaires avait beaucoup progressé et on savait mieux réaliser des situations « hors d'équilibre », où les populations des divers niveaux d'énergie sont différentes de leurs valeurs d'équilibre. Le physicien américain Charles Townes connaissait tous ces développements : il avait notamment travaillé sur le radar pour l'armée et avait écrit un livre sur la spectroscopie micro-onde avec Arthur Leonard Schawlow. Il eut ainsi l'idée - tôt le matin en se promenant dans un parc, raconte-t-il - d'utiliser l'émission induite dans un milieu hors d'équilibre, où le niveau supérieur d'une transition atomique est plus peuplé que le niveau inférieur, pour amplifier un rayonnement traversant le milieu. Les photons nouveaux obtenus par émission induite, identiques aux incidents, sont en plus grand nombre que les photons disparaissant par absorption. En 1954, il obtient la première preuve d'oscillation maser (microwave amplification by stimulated emission of radiation).

Auparavant, le Français Alfred Kastler n'avait-il pas eu l'idée du « pompage optique » ?
C.C.-T. Kastler avait eu l'idée de manipuler les atomes par la lumière, de les mettre dans une situation hors équilibre, mais il n'avait jamais pensé à combiner cette possibilité avec l'émission stimulée pour amplifier un rayonnement. C'est pourquoi il n'aimait pas qu'on associe son nom au maser ou au laser. Townes, en revanche, voulait faire des sources de rayonnement avec des caractéristiques complètement différentes des sources classiques : directivité, puissance, monochromaticité, etc.

Comment est-on passé du maser au laser ?
C.C.-T. Naturellement. Cinq ans après avoir conçu le maser, Charles Townes et Arthur Leonard Schawlow - qui était son beau-frère - se sont demandé pourquoi ne pas mettre en oeuvre le processus d'amplification dans le domaine optique. Il leur fallait trouver comment faire des inversions de populations - obtenir davantage d'atomes dans le niveau supérieur d'une transition atomique que dans le niveau inférieur - dans cette gamme de longueur d'onde. C'est alors que Townes est venu un an ici, dans le laboratoire d'Alfred Kastler, en séjour sabbatique. Nous partagions le même bureau.

Vous-même n'étudiiez pas le laser ?
C.C.-T. Non, nous travaillions sur le pompage optique, nous ne pouvions pas tout faire. Et ce n'était pas du tout évident que l'amplification dans le domaine optique allait fonctionner. Finalement le premier laser (le « l » de light remplace le « m » de microwave) a été obtenu en 1960 par le physicien américain Theodore Maiman dans un cristal de rubis. Peu après, Ali Javan, alors au Massachusetts Institute of Technology, a présenté le premier laser à gaz. Toutes les voies pour faire des inversions de populations ont été explorées. Townes racontait même que Schawlow avait fabriqué un laser comestible avec des gélatines de molécules fluorescentes.

Comment ces découvertes ont-elles été perçues ?
C.C.-T. Tous ces travaux étaient considérés comme des recherches purement académiques. On parlait même de « solution en attente d'un problème » ! Je me souviens d'un congrès d'électronique quantique à Paris en 1963 où l'on disait que c'étaient de belles réalisations, mais en quelque sorte des curiosités de laboratoire. Cependant, le laser était pour nous une nouvelle source de lumière très intéressante, car elle avait des caractéristiques complètement différentes de celles des autres sources dont on disposait à l'époque. Des possibilités de faire des expériences nouvelles s'ouvraient à nous. Nous ne pensions pas encore aux applications pratiques. Quand les premiers lasers sont apparus, c'étaient des objets complexes, sophistiqués et difficiles à régler. Et puis, comme toujours, la technologie a fait des pas de géant, s'est simplifiée, des lasers ont été industrialisés et, dans les années 1970, on a pu en acheter comme on achetait un oscilloscope. Ce n'est qu'à ce moment-là qu'ils sont réellement devenus des nouveaux outils pour nos recherches.

Vous avez alors reformulé vos problèmes ?
C.C.-T. Le laser nous offrait la possibilité d'étendre dans le domaine optique toute une série de concepts qui avaient été développés auparavant dans l'étude de la « résonance magnétique », où l'onde interagissant avec l'atome pouvait être considérée comme une onde électromagnétique classique. On pouvait dès lors essayer de voir si le traitement quantique de l'interaction ne permettrait pas de mettre en évidence ses effets nouveaux.
Il y a eu aussi l'apparition de la spectroscopie laser. Jusqu'alors, les sources pour exciter un atome avaient une très grande largeur spectrale et une intensité très faible. Les sources laser avaient, elles, une largeur spectrale très faible, ce qui permettait de mesurer les fréquences des transitions atomiques avec une meilleure précision. L'intensité élevée des rayonnements délivrés par les sources laser mettait aussi en évidence une foison d'effets « non linéaires » nouveaux.
Il y a eu enfin beaucoup de travaux sur les statistiques de photons : on n'observait pas les mêmes corrélations temporelles entre les impulsions observées sur un détecteur selon que le faisceau lumineux envoyé sur lui provenait d'une source classique ou d'un laser. L'étude de ces phénomènes a donné naissance à l'optique quantique, où la lumière est décrite comme un champ quantique, discipline qui a été à l'honneur avec le prix Nobel de Roy Glauber, en 2005.
Quel était l'état d'esprit lors du déroulement de ces travaux ?

C.C.-T. La recherche fondamentale a réellement été régénérée par le laser. Des domaines complètement nouveaux se sont ouverts, comme l'optique non linéaire, qui permettait d'éclairer un milieu avec une onde laser et de récupérer des nouvelles ondes dont la fréquence était double ou triple. De façon plus générale, en partant d'une fréquence donnée, on pouvait en obtenir de nouvelles. Autre exemple : à la fin des années 1970, on entrevoyait la possibilité de changer la vitesse de l'atome et de contrôler sa position avec des lasers. C'est ce qui a débouché sur le refroidissement et le piégeage des atomes par laser.

Comment est née l'idée de se servir d'un laser pour refroidir les atomes ?
C.C.-T. Au début des années 1980, il y avait une vingtaine de personnes dans le monde, au maximum, qui travaillaient sur ces sujets et, essentiellement, sur un plan théorique. En ce qui me concerne, je faisais à cette époque un cours au Collège de France sur les forces radiatives qui s'étendait sur quatre ans et qui m'a permis d'approfondir le sujet. Et puis, au milieu des années 1980, le domaine a explosé. On s'est rendu compte que l'on pouvait refroidir des atomes à des températures très basses de manière relativement simple. Des perspectives nouvelles s'ouvraient pour la spectroscopie : les atomes froids se déplacent à des vitesses très faibles de sorte qu'on peut les observer pendant un temps plus long et espérer ainsi faire des mesures beaucoup plus précises - plus une mesure dure longtemps, plus elle est précise. Sont apparues ensuite les horloges atomiques à atomes froids et la condensation de Bose-Einstein* au milieu des années 1990. Il y a maintenant plusieurs laboratoires qui travaillent sur ces sujets.

Quels courants de recherche se sont imposés sur le long terme ?
C.C.-T. La recherche sur les atomes froids a été extrêmement féconde, avec des progrès spectaculaires en métrologie : on gagnait trois ou quatre ordres de grandeur sur la précision ! Un autre exemple de domaine de recherche nouveau concerne ce qu'on appelle les simulateurs quantiques. L'idée est de réaliser des systèmes modèles qui rappellent les systèmes de la matière condensée, mais qui sont bien plus simples à analyser, leurs paramètres étant modifiables beaucoup plus aisément. Par exemple, on sait maintenant, en utilisant des ondes laser stationnaires, piéger des atomes froids dans des réseaux de puits de potentiel répartis de manière périodique dans l'espace. Le mouvement des atomes dans cette structure rappelle celui des électrons dans le potentiel périodique créé par les ions d'un cristal. Et comment ne pas mentionner aussi l'information quantique, qui consiste à utiliser des systèmes quantiques pour transmettre l'information, la traiter, faire de la cryptographie quantique, etc. Tous ces domaines avancent parallèlement et rien de tout cela n'existerait sans le laser. Il ne faut pas pour autant négliger d'autres technologies qui ont évolué en parallèle. Ainsi, les détecteurs : ce n'est pas un hasard si le dernier prix Nobel de physique a été attribué pour le développement des caméras CCD*.

Le laser a-t-il permis de clore le chapitre de l'étude de l'interaction de la lumière avec la matière ?
C.C.-T. Disons que notre compréhension de la lumière et de ses interactions avec la matière a beaucoup progressé. Mais les progrès continus des lasers, du point de vue tant de la puissance que de la durée des impulsions, ouvrent des champs de recherche nouveaux. Par exemple, la réalisation d'impulsions laser femtoseconde* a permis d'avoir accès à la dynamique des noyaux au cours des réactions chimiques : c'est la femtochimie, couronnée par le prix Nobel d'Ahmed Zewail en 1999. Maintenant, on arrive à l'attoseconde, mille fois plus petite : c'est la dynamique des électrons qui devient accessible. En ce qui concerne la puissance, on atteint couramment aujourd'hui le domaine du térawatt* et même du petawatt* : de nombreux problèmes nouveaux se posent concernant le comportement de la matière dans des champs aussi élevés.
À la fin de sa vie, Einstein disait qu'il avait réfléchi cinquante ans sur la lumière et qu'il ne savait toujours pas ce qu'étaient les quanta lumineux ! Le monde quantique est bien mystérieux et nous réserve sans doute encore bien des surprises.

*LA PHYSIQUE STATISTIQUE décrit les systèmes qui comportent un grand nombre de particules à partir des propriétés de leurs constituants microscopiques.

*L'ENTROPIE est une mesure du désordre d'un système au niveau microscopique.

*LA CONDENSATION DE BOSE-EINSTEIN est l'apparition d'un état de la matière dans lequel les particules identiques et de spin entier occupent toutes le même état quantique, celui de plus basse énergie.

*UNE CAMÉRA CCD (charged coupled device) transforme un signal lumineux en signal électrique grâce à une matrice d'éléments semi-conducteurs.

*UNE FEMTOSECONDE est un millionième de milliardième de seconde, soit 10-15 seconde.

*UN TÉRAWATT est mille milliards de watts et UN PETAWATT est un million de milliards de watts.

 

DOCUMENT      larecherche        LIEN

 
 
 
  ÉLECTRON
 

 

 

 

 

 

 

électron
(anglais electron, de electric et anion)

Cet article fait partie du dossier consacré à la matière.
Particule fondamentale portant l'unité naturelle de charge électrique et appartenant à la classe des leptons.


Pour la physique, l'électron est l'objet théorique par excellence. C'est à son propos qu'ont été élaborées la plupart des théories importantes du xxe s., à commencer par la physique quantique. La physique atomique et moléculaire est essentiellement une physique des électrons. La chimie étudie la formation et la transformation des molécules, c'est-à-dire les transferts d'électrons d'un atome à un autre. La physique de l'état solide s'intéresse à la cohésion de la matière, assurée par les électrons. Plusieurs technologies ont spécifiquement l'électron pour matériau : électronique, informatique, applications médicales des faisceaux d'électrons, etc.
L'électron est l'un des plus importants constituants universels de la matière, dont toutes les propriétés macroscopiques sont, d'une façon ou d'une autre, liées à ses caractéristiques.
*         Fiche d'identité de l'électron
*         • masse : me = 9,1093897 × 10−31 kg ;
*         • charge électrique élémentaire : e = −1,60217733 × 10−19 C ;
*         • spin : ½ ;
*         • moment magnétique : 0,92740155 × 10−23 A·m2.
*         Son antiparticule est le positron : également appelé positon, il est de même masse que l’électron mais de charge opposée.
*
1. La découverte de l'électron

L'étude de l'électrolyse apporta la première preuve expérimentale de l'hypothèse l’existence de grains matériels composant le « fluide électrique ». Diverses mesures effectuées vers les années 1880 montrèrent que la quantité d'électricité nécessaire pour dissocier une mole de n'importe quel corps est un multiple entier d'une même quantité. Le mot « électron » fut inventé en 1891 par l’Irlandais George Stoney pour désigner d'abord la quantité élémentaire d'électricité, puis la particule porteuse de cette quantité elle-même.
Pour en savoir plus, voir l'article électricité.

L'étude des décharges électriques dans des gaz raréfiés (à basse pression) imposa définitivement l'existence de l'électron. Celles-ci s'accompagnent de l'émission de « rayons » (les rayons cathodiques) qui rendent fluorescent le verre de l'ampoule. Jean Perrin en 1895 puis Joseph John Thomson en 1897 réussirent à isoler ces rayons et à montrer, d'abord, qu'ils étaient porteurs d'une charge négative, puis qu'ils étaient effectivement constitués de particules matérielles chargées, dont Thomson mesura la vitesse et le rapport ee /me de leur charge e à leur masse me. Quant à la détermination de la charge élémentaire e elle-même, ce fut l'œuvre des vingt années qui suivirent ; en 1910, Robert Millikan, au terme d'une expérience particulièrement délicate, établit la valeur de e avec une précision extraordinaire pour l'époque.

2. L’électron, constituant fondamental de l’atome

L'idée d'une structure complexe de l'atome était tellement révolutionnaire au début du xxe s. que, pour l'imaginer, on fit appel à des « modèles classiques » de la physique. Une fois les caractères des ions positifs et de l'électron maîtrisés, la question de leur coexistence dans l'atome intrigua les physiciens.

2.1. Les premières tentatives de modélisation de l'atome
Comme il n'était pas possible d'observer la structure atomique, il fallait concevoir un « modèle » qui permît de comprendre des phénomènes physiques que l'on pensait être corrélés à une telle structure. Pour Hantaro Nagaoka (1904), le critère principal, emprunté aux phénomènes chimiques, devait expliquer la formation des molécules à partir des atomes. Il imaginait l'atome comme une structure stable, semblable à la planète Saturne : il plaçait les électrons sur les anneaux et assimilait la planète au noyau. Tout en acceptant que le critère de comparaison devait être fourni par la chimie, J. J. Thomson pensait, au contraire, que les électrons circulaient à l'intérieur d'une sphère dont la surface était chargée positivement.

Ce modèle n'était plus viable dès qu'on prenait en compte un autre phénomène : la diffusion des particules α, émises par désintégration radioactive du polonium, à travers une feuille de platine, qu'Ernest Rutherford avait observée, laissait penser que la charge atomique positive était concentrée en un point car quelques particules α étaient fortement déviées. Pour que les résultats expérimentaux soient compatibles avec le modèle planétaire, il fallait considérer que la charge positive était concentrée au centre de l'atome. Vers 1911, ce modèle semble satisfaire et la chimie et la physique, même s'il est toujours impossible de montrer sa compatibilité avec l'ensemble des lois de cette dernière. L'atome ressemble au Système solaire : le noyau positif est au centre, et les électrons se déplacent sur des orbites à l'extérieur du noyau. Cependant, les électrons, en tournant, doivent émettre de l'énergie. Selon un tel modèle, encore grossier, ils s'approcheraient du noyau jusqu'à être détruits par combinaison des charges positive et négative, rendant l'atome fortement instable. Après une dizaine d'années de recherches, malgré cette objection de fond, des certitudes étaient partagées par les chercheurs : la concentration de la masse et de la charge positive dans le noyau, les électrons étant situés à l'extérieur du noyau ; autre certitude : la stabilité du modèle supposé, dit de Rutherford. Mais, pour comprendre la structure de l'atome, il fallait une clé supplémentaire.

2.2. Structure atomique et spectroscopie

Ce fut la grande intuition du Danois Niels Bohr que de corréler, en 1913, la structure des atomes avec leurs spectres. Un spectre est l'enregistrement de l'énergie absorbée ou émise par les atomes. Bien que différents pour chaque élément, les spectres ont un aspect semblable : des lignes espacées différemment entre elles, correspondant aux valeurs d'énergie absorbée ou émise. Cette structure régulière se prête bien à la traduction en formules du type « la différence d'énergie entre deux lignes est égale à un multiple entier d'une même quantité ». Or une nouvelle conception s'affirmait en physique depuis le début du siècle : l'énergie est aussi concevable comme constituée de petits grains, unités appelées au début « quanta de lumière » (Einstein, 1905), et depuis 1924 « photons ».
L'énergie des spectres correspondait-elle également à des multiples entiers du quantum ? Pouvait-on corréler l'absorption ou l'émission d'énergie avec le déplacement des électrons à l'intérieur des atomes ? Y parvenir pouvait permettre d'évaluer l'énergie correspondant à un électron dans un atome. Le modèle de l'atome calqué sur la structure planétaire paraissait donc se préciser : les électrons évoluent, de manière stable, sur des orbites qui sont les seules positions possibles. Un électron peut passer d'une orbite à une autre par absorption ou émission d'énergie, cette énergie étant toujours un multiple entier du quantum.
Pour calculer les différentes orbites possibles, on fit appel aux théorèmes de la mécanique. On imagina ainsi des orbites elliptiques ; celles-ci pouvaient être inclinées différemment par rapport à un axe. Il était dès lors possible de distinguer les électrons en leur attribuant des paramètres : les deux premiers correspondaient aux deux axes de l'ellipse et le troisième, à l'inclinaison par rapport à l'axe perpendiculaire à la première orbite et passant par le noyau. Cette construction avait été rendue possible par la confrontation entre données spectroscopiques et déductions théoriques à partir des modèles mécaniques. Cette méthodologie allait pourtant achopper bientôt sur une difficulté majeure.

2.3. Le modèle quantique de l’électron

La diversité des éléments chimiques, dans le cadre du modèle des atomes planétaires, était expliquée par le fait que chaque élément est caractérisé par un nombre donné d'électrons (correspondant au numéro atomique), ceux-ci se disposant sur les orbites possibles du point de vue énergétique. Ainsi, chaque électron a d'abord été caractérisé par trois nombres entiers, dits nombres quantiques, obtenus par l'étude géométrique des orbites. On établissait aussi de cette manière l'interdépendance de ces nombres entre eux.
Le premier, le nombre quantique principal, généralement indiqué par n, est relié au niveau énergétique et indique l'axe principal de l'ellipse ; le deuxième, le nombre quantique azimutal, indiqué par l, peut assumer les valeurs 0 à (n − 1), et indique l'excentricité de l'orbite ; le troisième, le nombre quantique magnétique, indiqué par m, peut avoir les valeurs de −l à +l et représente l'inclinaison spatiale de l'orbite.
Or Wolfgang Pauli, à partir d'une analyse pointilleuse des données spectroscopiques, montra en 1924-1925 que la seule manière d'établir une correspondance entre l'ensemble des lignes observées pour un atome et les nombres quantiques était d'ajouter un quatrième nombre quantique (le spin s) en lui imposant uniquement deux valeurs : +1/2 ou −1/2. Certes, peu de temps après, George E. Uhlenbeck et Samuel A. Goudsmit réussirent à montrer, pour l'hydrogène, que ce nombre supplémentaire pouvait correspondre au moment cinétique propre de rotation de l'électron, appelé spin. Cette représentation mécanique constitue le dernier effort pour rester dans le cadre des anciens modèles. En effet, face à la multiplicité des modèles et en l'absence de critères physiques pour les départager, les physiciens furent convaincus que la structure des atomes allait devoir être repensée entièrement.

2.4. Le modèle ondulatoire de l’électron
Deux voies furent suivies en même temps : des chercheurs, abandonnant l'image trop réaliste du modèle planétaire, raisonnèrent sur les seules grandeurs observables et mesurables, d'origine mécanique comme la position et la quantité de mouvement ; d'autres mirent l'accent sur la nature ondulatoire de l'électron.

2.4.1. L’électron selon Louis de Broglie

En 1924, Louis de Broglie montrait que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire avec, comme relation fondamentale, la longueur d'onde λ = h /p, où h est la constante de Planck et p la quantité de mouvement de l'électron. On savait depuis les travaux de Hamilton, au milieu du xixe s., qu'un ensemble de corpuscules pouvait être représenté, mathématiquement, comme une onde. Cependant, s'agissait-il d'une pure possibilité mathématique ou d'une réelle capacité de l'électron à produire des phénomènes typiques de la théorie ondulatoire ? L'un de ceux-ci, le plus caractéristique même, correspond aux figures de diffraction. Ainsi, les expériences de Davisson et Germer, qui enregistrèrent en 1927 la figure de diffraction d'un faisceau d'électrons sur un mince cristal de zinc, furent considérées comme la preuve irréfutable de la double nature de l'électron : ondulatoire et corpusculaire.
L'électron présentait alors une analogie parfaite avec la lumière, qui peut être définie comme composée de photons, de spin nul, et comme une onde. Seule la valeur du spin – entier pour le photon et demi-entier pour l'électron – les départage ; ainsi, la réalité corpusculaire subatomique a comme grandeur typique le spin.
Cette conception de l'électron comme onde eut des prolongements techniques extrêmement importants. Par analogie avec le microscope optique, il a été possible de concevoir un microscope électronique (mettant en œuvre une source d'électrons, un réseau de diffraction, un système d'enregistrement – plaque photographique ou écran fluorescent – sur lequel est enregistré l'objet agrandi) dont la capacité d'agrandissement dépasse les 100 000 fois.
2.4.2. L’électron selon Erwin Schrödinger

Erwin Schrödinger décrivit l'électron comme une suite de fonctions ondulatoires. De plus, il obtenait les mêmes valeurs de l'énergie que celles que l'on calculait avec le modèle corpusculaire. Enfin, il était possible de passer de l'une à l'autre description car, du point de vue mathématique, elles sont équivalentes.
De ce fait, les physiciens se trouvaient confrontés à un problème supplémentaire : faut-il penser qu'à chaque corpuscule est étroitement associée une onde, ou que les descriptions ondulatoire et corpusculaire sont deux manières, complémentaires, de décrire une même réalité qui nous échappe ? Pour résumer, fallait-il accentuer l'analogie de ce problème avec ceux qui se posent dans d'autres domaines de la physique, comme l'optique ou l'acoustique, où cohabitent plusieurs points de vue, ou tenir ces résultats pour provisoires, en attendant une nouvelle théorie qui éliminerait le caractère de complémentarité associé à la nécessité de faire appel à deux visions ? Le débat est encore ouvert en physique, et pour l'instant il n'existe pas de théorie de remplacement.
La seule certitude des physiciens est que l'électron se situe à l'intérieur de l'atome, et qu'on ne peut indiquer que sa probabilité de présence dans ce confinement. Pour connaître la position de l'électron, il faut expérimenter ; or toute expérience perturbe le système de telle sorte qu'on ne sait plus où se situe l'électron après l'expérience. De plus, certaines grandeurs physiques mesurables sont liées entre elles de telle façon que, si l'on augmente la précision de la mesure de l'une, on réduit d'autant la précision de l'autre : il y a une indétermination fondamentale dans notre connaissance expérimentale de ces grandeurs. L'étude de l'électron aboutit donc à ces conclusions :
– toute description théorique revient à se donner des probabilités d'événements ;
– l'expérimentation perturbe tout système soumis à mesure ;
– si, au cours d'une même expérience, on veut évaluer en même temps des grandeurs liées, la précision de chaque mesure ne peut pas être arbitrairement élevée : plus on soigne l'un des paramètres, moins on obtient de précision sur l'autre ; la précision est donc toujours limitée.

3. L'électron dans les solides

Qu'apportait cette nouvelle vision à la connaissance des métaux ? D'énormes progrès avaient été réalisés dans la connaissance de leur structure. Les rayons X étant caractérisés par une faible longueur d'onde, la structure atomique d'un métal constitue un réseau naturel de diffraction pour cette « lumière », qui traverse la matière. Ainsi, en observant les réseaux de diffraction, on pouvait, par des calculs numériques extrêmement complexes, parvenir à déterminer la structure atomique. La cristallographie avait déjà habitué les savants à reconnaître dans les cristaux la présence de structures géométriques régulières ; cette connaissance fut étendue aux métaux, qui révèlent à l'échelle atomique une régularité non perceptible au niveau macroscopique. De plus, la diffraction des rayons X permettait d'apprécier la distance entre les lignes du réseau, et donc de mesurer la distance entre atomes. Ces valeurs, confrontées aux dimensions que l'on pouvait calculer à partir des modèles atomiques, montraient que la distance entre atomes d'un métal est telle qu'il faut supposer que les couches électroniques les plus externes sont en contact. La structure d'un métal est donc bien plus compacte qu'on ne l'imaginait. On conclut que les électrons de valence se déplacent dans un champ électrique intense, fort complexe, créé par les noyaux et les autres électrons atomiques. L'hypothèse des électrons libres relevait donc de la fiction. Mais comment oublier que, qualitativement au moins, un accord remarquable existait entre ce modèle et les données de l'expérience ?

3.1. L'approche chimique

La clé de cette énigme va être fournie par la compréhension de la liaison chimique. Les couches électroniques externes étant très proches, au point de se toucher, on suppose qu'il se produit un phénomène analogue à la formation d'une molécule à partir des atomes. L'analogie est presque parfaite : comme les molécules, les atomes gardent leur individualité tout en formant un nouveau composé dont l'action est spécifique ; dans le métal, les atomes gardent aussi leur individualité, et leur assemblage manifeste des caractères physico-chimiques propres.

3.1.1. Les électrons dans la liaison ionique
La cohésion moléculaire est considérée comme le résultat de l'attraction électrostatique entre ions de charge opposée. C'est le cas de la plupart des sels qui, en solution, se dissocient en ions. En général, ces molécules sont composées d'atomes de structure électronique fort dissemblable – on dit aussi qu'ils sont situés dans les cases extrêmes du tableau de Mendeleïev. L'un d'entre eux tend à se séparer de son ou de ses électrons externes pour atteindre une configuration électronique stable (huit électrons sur la couche externe), l'autre tend à s'annexer le ou les autres électrons, pour la même raison.
3.1.2. Les électrons dans la liaison covalente
Pour atteindre une configuration électronique stable, les atomes adoptent une solution de compromis : ils mettent en commun les électrons externes. C'est, par exemple, le cas de la liaison entre deux atomes de carbone, courante dans les composés organiques. Il faut l'imaginer comme un nuage électronique entourant les deux noyaux, qui se placent à une distance telle qu'elle correspond à un minimum de l'énergie pour l'ensemble du système.

3.2. Électrons et nuage électronique
Transposée au niveau des solides, l'image du nuage électronique implique le partage des électrons entre tous les atomes ; or cette image est fort semblable à l'hypothèse « ancienne » des électrons libres dans un métal, son réalisme naïf en moins. Pour la tester, il fallait faire appel aux méthodes de calcul de la mécanique quantique. Le point crucial est donc de résoudre ce problème du point de vue mathématique : il s'agit d'écrire une équation pour N corps en mouvement, N étant une valeur très grande correspondant aux électrons qui font partie de la liaison. Ce problème est soluble uniquement par des méthodes mathématiques approchées et il faut faire des hypothèses physiques « raisonnables » pour en simplifier la résolution.
L'hypothèse suivante s'est révélée féconde : les électrons gardant leur individualité, on va les considérer isolément. Il s'agit donc d'écrire l'équation du mouvement de l'un d'entre eux en présence d'un champ électrique issu des noyaux disposés selon les nœuds du réseau cristallin, champ auquel font écran les autres électrons. La nature symétrique de ce champ complexe permet d'introduire des simplifications ; il s'agit ensuite de l'évaluer raisonnablement. Si un composé ou un métal est stable, cela veut dire que son énergie est inférieure à la somme de l'énergie des atomes le composant. Transférée sur le plan de la description mathématique, cette idée revient à considérer que les fonctions atomiques qui décrivent l'électron seront sans doute changées, mais pas totalement ; elles peuvent donc constituer un point de départ raisonnable pour résoudre l'équation. Une fois trouvée une première solution, il faut modifier et le champ et les fonctions, puis répéter ce calcul tant que les petits changements apportés ne modifient pas les données importantes que sont les valeurs de l'énergie pour chaque électron dans le métal. Cette longue suite de calculs numériques est aujourd'hui possible grâce aux ordinateurs.

En général, on obtient des solutions du type suivant : les valeurs d'énergie permises au niveau atomique se regroupent dans des ensembles caractérisés par des énergies très proches, qui se confondent en une sorte de zone appelée bande. Ces bandes se distribuent sur une échelle des énergies croissantes ; elles peuvent se recouvrir en partie, ou être séparées par un large gap (écart) d'énergie. Partant de N fonctions atomiques, on obtient N niveaux énergétiques qui se regroupent en bandes. Comme dans la liaison chimique, l'occupation par les électrons des bandes les plus externes devra permettre de comprendre les phénomènes de conduction électrique et thermique. Les électrons s'« empilent » par deux et par fonction, selon le principe de Pauli. On peut alors schématiser ainsi les situations possible  : la bande externe est totalement remplie d'électrons, ou elle l'est partiellement ; la bande immédiatement supérieure, vide d'électrons, recouvre partiellement ou pas du tout la bande dernièrement occupée.

3.3. Électrons et propriétés des solides
Ce simple schéma des situations possibles du point de vue énergétique permet de rendre compte de ce qui paraissait inexplicable dans l'ancienne théorie de l'électron libre. Un électron peut être considéré comme libre d'occuper n'importe quel niveau d'énergie à l'intérieur d'une bande. Si deux bandes se superposent, il peut passer aisément de l'une à l'autre.
Théoriquement, ces mini-sauts demandent toujours une dépense énergétique, mais elle peut être considérée comme suffisamment faible pour que les sauts adviennent. Cette mobilité rend bien compte des propriétés conductrices des solides. Un isolant électrique est un solide où la dernière bande est complètement remplie et la bande vide, immédiatement supérieure, nettement séparée ; pour qu'il y ait mobilité, il faudrait fournir suffisamment d'énergie pour exciter les électrons sur la bande libre. Un bon conducteur présente la configuration inverse : si les deux dernières bandes se recouvrent, il suffit de peu d'énergie pour redistribuer les électrons. Un mauvais conducteur est un solide dont la distance entre la dernière bande remplie et la bande immédiatement supérieure n'est pas très grande : il suffit de peu d'énergie pour le rendre faiblement conducteur. Un tel modèle permet aussi d'expliquer pourquoi la chaleur spécifique des solides, dans les limites de validité de la loi de Dulong et Petit, est une constante. Dans le cas des mauvais conducteurs, la contribution électronique peut être considérée comme nulle ; dans les autres cas, la mobilité électronique est telle qu'elle ne change pas considérablement par l'augmentation de la température dans des limites définies. Dans les deux cas, la contribution des électrons à la chaleur spécifique est négligeable.

Cette approche a en outre le mérite de relier aux modes de distribution électronique d'autres faits physiques, comme l'émission thermo-ionique, à l'origine de l'électronique classique, celle à tubes. On sait qu'en chauffant un métal il se produit une émission d'électrons. Cela signifie que ces électrons ont une énergie cinétique telle qu'ils dépassent la barrière représentée par la surface du métal. Ainsi, la surface devient du point de vue physique une discontinuité fondamentale dans le potentiel. Si cette analyse est bonne, on doit pouvoir expliquer, par analogie, l'effet photoélectrique, dans lequel l'énergie est fournie par le rayonnement incident. Ainsi que l'avait déjà observé Einstein, il faut un rayonnement d'une certaine longueur d'onde pour faire s’échapper des électrons d’un matériau. De ce fait, effets thermoélectrique et photoélectrique relèvent de la même explication.

L'électron décrit par les équations de la mécanique quantique perd son image de particule à laquelle sont associées une masse et une charge ; en revanche, il permet de mieux maîtriser et expliquer les phénomènes complexes propres aux solides.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
  LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER
 

 

 

 

 

 

 

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER


En utilisant des échanges quasi-résonnants d'énergie, d'impulsion et de moment cinétique entre atomes et photons, il est possible de contrôler au moyen de faisceaux laser la vitesse et la position d'un atome neutre et de le refroidir à des températures très basses, de l'ordre du microKelvin, voire du nanoKelvin. Quelques mécanismes physiques de refroidissement seront passés en revue, de même que quelques applications possibles des atomes ultra-froids ainsi obtenus (horloges atomiques, interférométrie atomique, condensation de Bose-Einstein, lasers à atomes, etc.).

Texte de la 217e conférence de l’Université de tous les savoirs donnée le 4 août 2000.
Le refroidissement des atomes par laser par Claude Cohen-Tannoudji
Introduction
Au cours des deux dernières décennies, des progrès spectaculaires ont été réalisés dans notre maîtrise du mouvement des atomes. En faisant interagir ces atomes avec des faisceaux laser de direction, de fréquence et de polarisation convenablement choisies, nous pouvons maintenant contrôler la vitesse de ces atomes, réduire leurs mouvements d’agitation désordonnée, en quelque sorte les assagir, ce qui revient à diminuer leur température. Ces nouvelles méthodes portent le nom de «refroidissement laser». On sait également depuis peu contrôler la position des atomes et les maintenir confinés dans de petites régions de l’espace appelées « pièges ».
Le sujet de cet exposé est le refroidissement laser. Son objectif est double. Je voudrais tout d’abord expliquer en termes très simples comment fonctionne le refroidissement laser. Lorsqu’un atome absorbe ou émet de la lumière, il subit un recul. Comment peut-on utiliser ce recul pour ralentir et refroidir des atomes ? Je voudrais également dans cet exposé passer en revue les principales motivations de ces travaux, les nouvelles perspectives qu’ils ouvrent et essayer de répondre à quelques interrogations : À quoi peuvent servir les atomes ultrafroids ? Quels problèmes nouveaux permettent-ils d’aborder ? Quelles nouvelles applications peut-on envisager ?
Pour ceux d’entre vous qui ne sont pas familiers avec la physique des atomes et du rayonnement, j’ai pensé qu’il serait utile de commencer cet exposé par un rappel succinct de quelques notions de base très simples sur les photons et les atomes, sur les mécanismes d’absorption et d’émission de photons par les atomes. J’aborderai ensuite la description de quelques mécanismes physiques à la base du refroidissement laser : le recul de l’atome émettant ou absorbant un photon, ce qui se passe lorsqu’on place l’atome dans un faisceau laser résonnant, comment les reculs successifs que subit alors l’atome permettent de le ralentir et de le refroidir. Je terminerai enfin mon exposé en passant en revue quelques applications de ces travaux : les horloges à atomes froids, d’une extrême précision, puis l’interférométrie atomique qui utilise des phénomènes d’interférence résultant de la superposition des ondes de de Broglie atomiques, et enfin ces nouveaux états de la matière qui sont nommés condensats de Bose-Einstein. L’apparition, à des températures très basses, de ces nouveaux objets ouvre la voie vers de nouvelles applications comme les lasers à atomes qui sont analogues à des lasers ordinaires dans lesquels les ondes lumineuses seraient remplacées par des ondes de de Broglie.
Quelques notions de base
La lumière
La lumière est un objet d’études qui a toujours fasciné les physiciens et les scientifiques en général. Elle est apparue successivement au cours des siècles comme un jet de corpuscules ou comme une onde. Nous savons aujourd’hui qu’elle est à la fois une onde et un ensemble de corpuscules.
La lumière est tout d’abord une onde électromagnétique, c’est-à-dire un champ électrique et un champ magnétique oscillant à la fréquence ν et se propageant dans le vide à une vitesse
considérable c = 3×108 m/s. Comme toute onde, la lumière donne naissance à des phénomènes d’interférence. Lorsqu’on superpose deux ondes différentes d’égale amplitude,
1
en certains points, les ondes vibrent en phase et l’amplitude est doublée, en d’autres points, les ondes vibrent en opposition de phase et l’interférence est destructive. Sur un écran, on peut ainsi apercevoir une succession de zones brillantes et de zones sombres appelées franges d’interférence.
La couleur de la lumière est liée à sa fréquence ν . Le spectre de fréquence des ondes électromagnétiques s’étend de quelques Hertz aux rayons X et gamma. La lumière visible ne couvre qu’une très petite région de ce domaine spectral. Il est possible d’analyser le contenu spectral d’un rayonnement grâce à des appareils dits dispersifs qui font subir à un rayon lumineux une déviation qui dépend de la fréquence. Ainsi, si l’on fait passer un rayon solaire à travers un prisme, ses différentes composantes de couleur sont déviées de manière différente et on observe ce que l’on appelle un spectre.
Au début du siècle, à la suite des travaux de Planck et d’Einstein, il est apparu que la lumière n’était pas seulement une onde, mais qu’elle était aussi une assemblée de corpuscules : les
« photons ». A une onde lumineuse de fréquence ν , sont ainsi associés des corpuscules, les photons, qui possèdent une énergie E = hν proportionnelle à ν , une quantité de mouvement
p = hν / c également proportionnelle à ν . Dans ces équations, c est la vitesse de la lumière,
ν sa fréquence et h une constante que l’on appelle la constante de Planck, introduite en physique par Planck il y a exactement 100 ans.
L’idée importante qui s’est dégagée au cours du siècle précédent est la dualité onde- corpuscule. La lumière est à la fois une onde et un ensemble de corpuscules. Il est impossible de comprendre les divers phénomènes observés en termes d’ondes uniquement ou de corpuscules uniquement. Ces deux aspects de la lumière sont tous deux indispensables et indissociables.
Les atomes
Les atomes sont des systèmes planétaires analogues au système solaire. Ils sont formés de particules très légères, « les électrons », particules de charge négative, qui gravitent autour d’une particule de masse beaucoup plus élevée, dont la charge est positive : « le noyau ». Pour comprendre le mouvement de ces électrons autour du noyau, les physiciens se sont vite rendu compte que la mécanique classique était inadéquate et conduisait à des absurdités. Ils ont alors « inventé » la mécanique quantique, qui régit la dynamique du monde à l’échelle microscopique. Il s’agit là d’une révolution conceptuelle aussi importante que la révolution de la relativité restreinte et de la relativité générale. Une des prédictions les plus importantes de la mécanique quantique est la quantification des grandeurs physiques, en particulier, la quantification de l’énergie.
Dans le système du centre de masse de l’atome, système qui coïncide pratiquement avec le noyau car le noyau est beaucoup plus lourd que les électrons, on observe que les énergies des électrons ne peuvent prendre que des valeurs discrètes, quantifiées, repérées par des
« nombres quantiques ». Pour illustrer la quantification de l’énergie, j’ai représenté ici le niveau fondamental d’énergie la plus basse, le premier niveau excité, le deuxième niveau excité.
2
E2 E1
E0
2e Niveau excité 1er Niveau excité
Niveau fondamental
Figure 1 : Niveaux d'énergie d'un atome. Chaque trait horizontal a une altitude proportionnelle à l'énergie du niveau correspondant.
Interaction matière-lumière
Comment un tel atome interagit-il avec la lumière ? Émission et absorption de lumière par un atome
Un atome, initialement dans un état supérieur Eb , peut passer de ce niveau à un niveau inférieur Ea . Il émet alors de la lumière de fréquence ν , plus précisément un photon d’énergie
hν , telle que Eb − Ea = hν . Autrement dit, l’énergie perdue par l’atome, lorsqu’il passe du
niveau Eb au niveau Ea , est évacuée par le photon d’énergie hν . La relation entre la perte
d’énergie de l’atome et la fréquence de la lumière émise n'est donc en fait que la traduction exacte de la conservation de l’énergie.
Eb
Ea
ν Eb −Ea =hν ν
Emission
Absorption
Eb
Ea
Figure 2 : Processus élémentaires d'émission (figure de gauche) et d'absorption (figure de droite) d'un photon par un atome.
Le processus inverse existe, bien sûr : le processus d’absorption de lumière par un atome. L’atome, initialement dans un état inférieur Ea peut passer dans un niveau supérieur Eb en
gagnant l’énergie hν du photon absorbé. En d’autres termes, l’atome absorbe un photon et l’énergie du photon qu’il absorbe lui permet de passer de Ea à Eb . Il apparaît ainsi clairement
que la quantification de l’énergie atomique sous forme de valeurs discrètes entraîne le caractère discret du spectre de fréquences émises ou absorbées par un atome.
La lumière : une source essentielle d’informations sur la structure des atomes 3
Un atome ne peut émettre toutes les fréquences possibles, il ne peut émettre que les fréquences correspondant aux différences des énergies de ses niveaux. Ce résultat est extrêmement important. Il montre en effet que la lumière est une source d’information essentielle sur le monde atomique. En effet, en mesurant les fréquences émises ou absorbées, on peut reconstituer les différences Eb − Ea et obtenir le diagramme d’énergie d’un atome.
C’est ce que l’on appelle la « spectroscopie ». Le spectre d’un atome varie d’un atome à l’autre. Les fréquences émises par l’atome d’hydrogène diffèrent de celles émises par l’atome de sodium, de rubidium ou de potassium. Le spectre de raies émises par un atome constitue en quelque sorte son « empreinte digitale » ou, pour utiliser des termes plus actuels, son
« empreinte génétique ». Il est possible d’identifier un atome par l’observation des fréquences qu’il émet. Autrement dit, en observant la lumière provenant de différents types de milieux, on peut obtenir des informations sur les constituants de ces milieux. Ainsi, en astrophysique, par exemple, c'est la spectroscopie qui permet de déterminer la composition des atmosphères planétaires et stellaires et d'identifier les molécules qui sont présentes dans l’espace interstellaire. L’observation du décalage des fréquences émises par des objets astrophysiques permet de mieux comprendre la vitesse de ces objets et de mesurer ainsi l’expansion de l’univers. L’observation du spectre de la lumière émise ou absorbée permet aussi d’étudier des milieux hostiles comme des plasmas ou des flammes et d’analyser in situ les constituants de ces milieux.
Durée de vie d'un état excité
Considérons un atome isolé, initialement préparé dans un état excité Eb . L’expérience montre qu’au bout d’un certain temps, très court, l’atome retombe spontanément dans un état
inférieur Ea , en émettant et dans n’importe quelle direction, un photon d’énergie
hν = Eb − Ea . Ce laps de temps, très court, à la fin duquel se produit le processus d'émission
est appelé la durée de vie de l’état excité Eb .
Il apparaît ainsi qu'un atome ne peut pas rester excité indéfiniment. La durée de vie de l’état excité, qui varie d’un atome à l’autre, est typiquement de 10-8 s, c’est-à-dire 10 milliardièmes de seconde.
Les mécanismes physiques
Après ces brefs rappels de notions de base, abordons maintenant la seconde partie de cet exposé qui traite des mécanismes physiques à la base du refroidissement laser.
Le recul de l’atome lors de l’émission ou de l’absorption d’un photon
(3a)
Eb Ea M u
hν / c
Ea
Eb
hν / c
4
Mu
(3b)
Figure 3 : Recul d'un atome lors de l'émission (figure 3a) ou de l'absorption (figure 3b) d'un photon par cet atome.
En physique, il y a une loi fondamentale qui est « la conservation de la quantité de mouvement ». Considérons un atome excité dans un état Eb supérieur, initialement immobile,
et supposons qu’à l’instant t = 0 , cet atome émette un photon, lequel a une quantité de mouvement hν / c . Dans l’état initial, l’atome étant tout seul et immobile, la quantité de
mouvement globale est nulle. Dans l’état final, comme le photon part avec une quantité de mouvement hν / c , l’atome recule avec la quantité de mouvement opposée Mv = −hν / c .
Vous avez certainement déjà vu, en réalité ou à la télévision, un canon tirer un obus : lorsque le canon tire un obus, il recule. De même, lorsqu’un atome émet un photon, il recule à cause de la conservation de la quantité de mouvement. Sa vitesse de recul est donnée par
vrec =hν/Mc.
Le même phénomène de recul s’observe lors de l’absorption. Considérons un atome dans un
état fondamental Ea , initialement immobile, et supposons qu’on envoie sur lui un photon : l’atome absorbe le photon et parvient à l’état excité. Il recule alors avec la même vitesse de
recul hν / Mc . De même, lorsqu’on tire une balle sur une cible, la cible recule à cause de la
quantité de mouvement qui lui est communiquée par le projectile.
Par ailleurs, nous savons que l’absorption de photon qui porte l’atome, initialement immobile, à l’état excité, est nécessairement suivie d’une émission puisque l’atome ne peut rester excité indéfiniment. Il retombe donc, au bout d’un temps qui est la durée de vie de l'état excité, dans l’état inférieur, en émettant spontanément un photon. Dans ce cycle absorption-émission au cours duquel l’atome absorbe un photon, recule puis émet un photon, la probabilité qu’il émette ce photon dans telle direction ou dans telle autre, dans un sens ou dans le sens opposé, est la même de sorte, qu’en moyenne, la vitesse qu’il perd lors de l’émission est nulle. Il s'ensuit donc que le changement de vitesse de l’atome est, en moyenne, uniquement lié au processus d’absorption et a pour valeur vrec = hν / Mc . Ce résultat est important pour la suite.
L’atome dans un faisceau laser
Essayons maintenant de comprendre comment réagit l’atome en présence, non pas d’un seul photon incident, mais d’un faisceau laser résonnant. Un flot de photons arrive alors sur lui. Il en absorbe un premier, monte dans l’état excité, retombe en émettant un photon, puis absorbe un second photon laser, monte dans l’état excité, retombe en émettant un autre photon , puis en absorbe un troisième et ainsi de suite. L’atome, ainsi plongé dans un faisceau laser, enchaîne les cycles absorption-émission sans pouvoir s’arrêter et, à chacun de ces cycles, sa vitesse change en moyenne de vrec = hν / Mc . Comme la durée de vie moyenne de l’atome
excité est de 10-8 s, il se produit de l'ordre de108 cycles absorption-émission par seconde, c’est-à-dire 100 millions de cycles par seconde ! A chacun de ces cycles, la vitesse de l’atome change de hν / Mc . Pour l'atome de sodium, le calcul de cette vitesse de recul donne 3cm/s.
Pour l'atome de césium, on obtient 3mm/s. Ces vitesses sont très faibles, comparées par exemple aux vitesses des molécules de l'air qui nous entoure, qui sont de l'ordre de 300m/s. C'est pourquoi pendant longtemps les changements de vitesse d'un atome dûs aux effets de recul ont été considérés comme négligeables. En fait la situation est radicalement différente pour un atome dans un faisceau laser. Les cycles d'absorption-émission se répètent 100 millions de fois par seconde, générant un changement de vitesse par seconde de l'ordre de 100 millions de fois la vitesse de recul. On obtient ainsi des accélérations (ou décélérations) de l'ordre de 106 m/s2. A titre de comparaison, prenons un exemple dans la vie courante : quand
5
un objet tombe, l’accélération g qu'il subit du fait de la pesanteur est de 10 m/s2. Un atome de
sodium irradié par un faisceau laser est soumis à une accélération, ou une décélération, qui peut atteindre 105g. A titre de comparaison encore, cette accélération est 100 000 fois supérieure à celle, de l’ordre de 1g, que subit une voiture qui roule à 36 km/heure et qui s’arrête en 1 seconde.
Ralentissement d’un jet atomique
Cette force considérable qu’exerce la lumière sur les atomes, résultant de l'accumulation d'un très grand nombre de petits changements de vitesse, permet d’arrêter un jet atomique. Considérons un jet d’atomes sortant d’un four à la température de 300°K ou 400°K et se propageant à une vitesse de l'ordre de 1 km/s. Si ce jet est éclairé tête bêche par un faisceau laser résonnant, la force de pression de radiation que les atomes subissent va ralentir ces atomes, les arrêter et même leur faire rebrousser chemin. Un atome de vitesse initiale v0 de
1 km/s, soit 103 m/s, va être arrêté avec une décélération de 106m/s2, au bout de 10-3seconde, c’est-à-dire en une milliseconde. En une milliseconde, il passe ainsi de 1 km/s à zéro ! La distance L parcourue par l'atome avant qu'il ne s'arrête est donnée par une formule classique de terminale. Elle est égale au carré de la vitesse initiale divisée par deux fois la décélération subie. On obtient ainsi L = 0, 5m . On peut donc ainsi, dans un laboratoire, sur une distance
de l'ordre du mètre, arrêter un jet d’atomes avec un faisceau laser approprié. Evidemment, au fur et à mesure que les atomes sont ralentis, à cause de l’effet Doppler, ils sortent de résonance. Il faut donc modifier la fréquence du faisceau laser ou modifier la fréquence des atomes pour maintenir la condition de résonance et conserver la force à sa valeur maximale tout au long du processus de décélération.
Ralentir les atomes consiste à diminuer leur vitesse moyenne. Par contre la dispersion des valeurs de la vitesse autour de la valeur moyenne demeure en général inchangée. Il faut en fait faire une distinction très claire entre le mouvement d’ensemble caractérisé par la vitesse moyenne et le mouvement d’agitation désordonnée autour de la valeur moyenne de la vitesse. En physique, c’est cette vitesse d’agitation désordonnée qui caractérise la température. Plus un milieu est chaud, plus les vitesses d’agitation désordonnée de ses constituants sont élevées. Refroidir un système, cela veut dire diminuer les vitesses d’agitation désordonnée de ses constituants. Comment peut-on refroidir des atomes avec des faisceaux laser ?
Refroidissement Laser Doppler
(4a)
(4b)
Figure 4 : Principe du mécanisme de refroidissement laser par effet Doppler. Pour un atome au repos (figure 4a) les deux forces de pression de radiation s'équilibrent exactement. Pour
νL <νA νA νL <νA     Atome v=0
νapp <ν ν νapp >ν LLALL     Atome v v≠0
6
un atome en mouvement (figure 4b), la fréquence apparente de l'onde se propageant en sens opposé augmente et se rapproche de résonance. Elle exerce une force de pression de radiation plus grande que celle de l'onde qui se propage dans le même sens que l'atome et dont la fréquence apparente, diminuée par effet Doppler, s'éloigne de résonance.
Le mécanisme de refroidissement laser le plus simple utilise l'effet Doppler et a été proposé au milieu des années 70 par Hansch, Schawlow, Wineland et Dehmelt. L’idée est simple : l'atome est éclairé non plus par une seule onde laser, mais par deux ondes laser se propageant dans des sens opposés. Ces deux ondes laser ont même intensité, et même fréquenceνL , cette
fréquence νL étant légèrement inférieure à celle, νA , de la transition atomique. Que se passe-
t-il alors ? Si l’atome est immobile, avec donc une vitesse nulle, v = 0 , il n’y a pas d’effet Doppler. Dans ce cas, les deux faisceaux laser ont la même fréquence apparente. Les forces qu'ils exercent ont même module et des signes opposés. La force de pression de radiation venant de la gauche et la force de pression de radiation venant de la droite s’équilibrent donc exactement et l’atome n’est soumis à aucune force. Si l’atome se déplace vers la droite, avec une vitesse v non nulle, à cause de l’effet Doppler, la fréquence de l’onde qui se propage en sens opposé apparaît plus élevée. Cette fréquence apparente est ainsi augmentée et se rapproche de résonance. Le nombre de photons absorbés est alors plus élevé et la force augmente. Par contre, l'onde qui se propage dans le même sens que l'atome a sa fréquence apparente qui est diminuée par effet Doppler et qui s'éloigne donc de résonance. Le nombre de photons absorbés est alors moins élevé et la force diminue. A cause de l'effet Doppler, les deux forces de pression de radiation ne s'équilibrent plus. C'est la force opposée à la vitesse qui l'emporte et l'atome est ainsi soumis à une force globale non nulle, opposée à sa vitesse. Cette force globale F peut être écrite pour une vitesse v assez faible sous la forme
F = −α v où α est un coefficient de friction. Autrement dit, l’atome qui se déplace dans
cette configuration de deux faisceaux laser se propageant dans des sens opposés est soumis à une force de friction opposée à sa vitesse. Il se retrouve dans un milieu visqueux, que l’on appelle une mélasse optique par analogie avec un pot de miel. Sous l’effet de cette force, la vitesse de l’atome va être amortie et tendre vers zéro.
Refroidissement Sisyphe
L’étude théorique du mécanisme de refroidissement laser Doppler permet de prédire les températures qui pourraient être obtenues par un tel mécanisme et qu'on trouve de l’ordre de quelques centaines de microkelvin soit quelques 10-4 K. Ce sont des températures très basses comparées à la température ordinaire qui est de l’ordre de 300 K. En fait, quand, à la fin des années 80, on a pu mesurer ces températures de manière plus précise, on s’est aperçu, et ce fut une réelle surprise, que les températures mesurées étaient 100 fois plus basses que prévues, ce qui signifiait que d’autres mécanismes étaient en jeu. C’est l’un deux, le refroidissement Sisyphe que nous avons, mon collègue Jean Dalibard et moi-même, identifié et étudié en détail.
7
Figure 5 : l'effet Sisyphe
Sans entrer dans les détails d’un tel mécanisme, essayons d’en donner une idée générale. Les expériences de refroidissement laser utilisent des paires d’ondes laser se propageant dans des sens opposés (voir par exemple la figure 4). Ces ondes interfèrent et l’onde résultante a donc une intensité et une polarisation qui varient périodiquement dans l’espace. Or, on peut montrer que les niveaux d’énergie d’un atome sont légèrement déplacés par la lumière, d’une quantité proportionnelle à l’intensité lumineuse et qui dépend de la polarisation lumineuse. De plus, chaque atome possède en général plusieurs « sous-niveaux » d’énergie dans son état fondamental, qui correspondent chacun à une valeur différente d’une grandeur physique qui, comme l’énergie, est quantifiée. En l’occurrence, il s’agit ici du moment cinétique, l’atome pouvant être considéré comme une petite toupie qui tourne sur elle même. La figure 5 représente deux tels sous-niveaux dont les énergies sont modulées dans l’espace sous l’effet de la lumière. L’atome en mouvement se déplace donc dans un paysage de collines et de vallées de potentiel, paysage qui change suivant le sous-niveau dans lequel il se trouve. Considérons alors un atome se déplaçant vers la droite et initialement au fond d’une vallée de potentiel, dans un certain sous-niveau (Fig.5). Cet atome gravit la colline de potentiel et atteint le sommet de cette colline où il peut avoir une probabilité importante d’absorber et d’émettre un photon, processus à l’issue duquel il va se retrouver dans l’autre sous-niveau d’énergie, au fond d’une vallée. Le même scénario peut alors se reproduire, l’atome gravissant à nouveau une colline de potentiel avant d’atteindre le sommet et d’être transféré dans l’autre sous-niveau au fond d’une vallée, et ainsi de suite...Comme le héros de la mythologie grecque, l’atome est ainsi condamné à recommencer sans cesse la même ascension, perdant à chaque fois une partie de son énergie cinétique. Au bout d’un certain temps, il est tellement épuisé qu’il n’arrive plus à gravir les collines et se retrouve pris au piège au fond d’un puits. L’étude théorique et la comparaison avec les résultats expérimentaux ont conforté la réalité de ce mécanisme de refroidissement qui permet d'atteindre le microkelvin, c’est-à-dire une température de 10-6 K. Nous avons aussi mis au point au laboratoire d’autres méthodes, que je n’ai pas le temps d’approfondir aujourd’hui, qui permettent d'aller encore plus loin et d’atteindre le nanokelvin, c’est-à-dire 10-9 K, un milliardième de Kelvin.
À de telles températures, les vitesses des atomes sont de l’ordre du cm/s voire du mm/s alors qu’à température ordinaire, elles sont de l’ordre du km/s. Ces méthodes de refroidissement ont donc permis d’assagir considérablement le mouvement d'agitation désordonnée des atomes, de les rendre presque immobiles. Mentionnons également, sans entrer dans le détail des phénomènes, qu'on peut confiner les atomes dans une petite région de l'espace, appelée piège, grâce à l'utilisation de gradients d’intensité lumineuse ou de gradients de champ magnétique.
Description de quelques applications
Les horloges atomiques
8
∆ν ν0
Figure 6 : Principe d'une horloge atomique
Les applications des atomes froids et les nouvelles perspectives qu’ils ouvrent sont essentiellement liées au fait qu’ils sont animés d’une très faible vitesse. Cette particularité permet de les observer pendant une durée beaucoup plus longue. Or, en physique, une mesure est d’autant plus précise que le temps d’observation est plus long. On comprend très bien alors que, grâce à l’extrême précision des mesures pouvant être faites sur des atomes ultrafroids, des progrès ont pu être réalisés, dans la conception des horloges notamment. Rappelons tout d'abord en quoi consiste une horloge. C’est essentiellement un oscillateur, par exemple un quartz qui oscille à une certaine fréquence. Cependant, la fréquence d'un quartz livré à lui-même, fluctue au cours du temps. Elle accélère ou ralentit. Pour réaliser une horloge stable, il est donc nécessaire d'empêcher sa fréquence de dériver. Pour ce faire, on va maintenir la fréquence du quartz égale à la fréquence centrale d'une raie atomique.
Le principe de cette opération est schématisé sur la figure 6. Un oscillateur, piloté par le quartz, délivre une onde électromagnétique de même fréquence ν que la fréquence d’oscillation du quartz. Cette onde permet une « interrogation » des atomes utilisés pour stabiliser l’horloge. En l’envoyant sur les atomes et en balayant la fréquence ν du quartz, on observe une « résonance » quand ν coïncide avec la fréquence ν0 = (Eb − Ea ) / h
correspondant à l’écart d’énergie Eb − Ea entre deux niveaux d’énergie de cet atome. Un dispositif « d’asservissement » ajuste alors en permanence la fréquence ν du quartz pour la
maintenir au centre de la raie atomique. On stabilise ainsi ν en forçant ν à rester égal à ν0 .
En fait, c’est l’atome de césium qui est utilisé pour définir l’unité de temps, la seconde. Par convention internationale, la seconde correspond à 9 192 631 770 périodes d’oscillation
T0 =1/ν0 ,oùν0 estlafréquencecorrespondantàunecertainetransitionreliantdeuxsous- niveaux d’énergie de l’état fondamental de l’atome de césium. Cette fréquence ν0 est
universelle. Elle est la même pour tous les atomes de césium, où qu’ils se trouvent.
Les raies de résonance atomiques ne sont pas infiniment étroites. Elles ont une « largeur » ∆ν (voir figure 6). Plus cette largeur est faible, plus l’asservissement sera efficace, et plus l’horloge sera stable. Or, on peut montrer que la largeur d’une transition atomique reliant deux sous-niveaux de l’état fondamental d’un atome est inversement proportionnelle au temps d’observationTobs.PlusTobs estlong,pluslaraieestfine.Commelesatomesfroids
permettent d’allonger la durée de ce temps d’observation et par conséquence de disposer de raies très fines, il est aujourd’hui possible de réaliser des horloges extrêmement précises. Les horloges qui ont été réalisées jusqu’à ces dernières années utilisent des jets d’atomes de
9
césium se propageant à des vitesses de l’ordre du km/s, dans des appareils dont la longueur de l’ordre du mètre. Le temps d’observation accessible avec de tels systèmes est donc de l'ordre d’une milliseconde. Avec des atomes froids, il a été possible d’allonger ce temps d’observation par un facteur 100 et d’améliorer donc les performances des horloges atomiques par le même facteur. En fait, on n’utilise pas dans ces nouveaux dispositifs un jet horizontal d’atomes ralentis, car ils tomberaient rapidement dans le champ de pesanteur. Dans les nouvelles horloges, les jets atomiques sont verticaux. Plus précisément, les atomes refroidis dans une mélasse optique sont lancés vers le haut au moyen d’une impulsion laser et forment une sorte de « fontaine ». Ils traversent la cavité électromagnétique dans laquelle la résonance atomique est mesurée, une première fois dans leur mouvement ascendant, une seconde fois dans leur mouvement descendant quand ils retombent sous l’effet du champ de pesanteur. Les temps d’observation peuvent atteindre alors quelques dixièmes de seconde et être ainsi de l’ordre de cent fois plus longs que dans les horloges précédentes. De telles horloges à atomes froids ont été réalisées à Paris par un des mes collègues, Christophe Salomon en collaboration avec André Clairon du L.P.T.F-B.N.M. (Laboratoire Primaire du Temps et des Fréquences et Bureau National de Métrologie). Ils ont pu ainsi mettre au point, avec une fontaine haute de 1m , l’horloge la plus stable et la plus précise jamais réalisée dans le monde. Deux critères permettent de définir la qualité d’une horloge. Le premier, la stabilité, indique la fluctuation relative de fréquence au cours du temps. Elle est de l’ordre de quelques 10-16 pour un temps de Moyen-Âge de l’ordre de 104 s. Concrètement, cela signifie qu’une horloge atomique qui aurait été mise en marche au début de la création de l’univers ne serait, dix milliards d’années plus tard, désaccordée que de quelques secondes. Le second critère, c’est la précision. Si on réalise deux horloges, leur fréquence coïncide à 10-15 près, compte tenu des déplacements de fréquence liés à des effets parasites.
Ces horloges à atomes froids ont de multiples applications : le GPS ("Global Positioning System"), système de positionnement par satellite, la synchronisation des réseaux de télécommunications à haut débit, les tests de physique fondamentale (relativité générale, variation des constantes fondamentales). Pourrait-on encore augmenter leurs performances en réalisant des fontaines plus hautes, de 10 mètres par exemple ? En fait, un tel projet ne serait pas réaliste car le temps d'observation ne croît que comme la racine carrée de la hauteur et il faudrait blinder le champ magnétique terrestre (qui peut déplacer la fréquence de l'horloge) sur des distances de plus en plus grandes. La solution qui s’impose alors de manière évidente consiste à se débarrasser de la gravité et c’est la raison pour laquelle nous nous sommes engagés en France dans des expériences de microgravité depuis 1993. Ces expériences se déroulent à bord d’un avion avec lequel le pilote effectue plusieurs paraboles d’une vingtaine de secondes chacune. Pour ce faire, le pilote accélère l’avion à 45° en phase ascendante, puis coupe brutalement les gaz. Pendant les 20 secondes qui suivent l’avion est en chute libre et sa trajectoire est une parabole. A l'intérieur de l'avion, les objets flottent et ne tombent plus sur les parois de l'avion. Tout se passe comme s'il n'y avait plus de gravité. Puis le pilote remet les gaz et redresse la trajectoire de l'avion pour se remettre en phase ascendante et effectuer une nouvelle parabole. On a donc pu ainsi effectuer des tests sur le comportement des divers composants de l'expérience dans ces conditions, et leurs résultats ont montré qu’il est possible de réaliser des horloges à atomes froids en apesanteur. A la suite de ces tests, un accord a été signé pour prolonger l’expérience et placer une horloge atomique à atomes froids à bord de la station spatiale internationale qui doit être mise en orbite en 2004.
Les interférences atomiques
Depuis les travaux de Louis de Broglie, nous savons qu’à toute particule de masse M est associée une onde qu’on appelle « l’onde de de Broglie » dont la longueur d’onde λdB ,
10
donnée par l’équation λdB = h / M v , est inversement proportionnelle à la vitesse v . Plus la
vitesse est faible, plus la longueur d’onde de de Broglie est grande. Les atomes froids qui sont animés de faibles vitesses ont donc de grandes longueurs d’onde de de Broglie et leur comportement ondulatoire sera par suite beaucoup plus facile à mettre en évidence. Considérons par exemple l’expérience des fentes de Young réalisée avec des ondes lumineuses. Une source lumineuse éclaire un écran percé d’une fente. La lumière issue de cette fente arrive sur une plaque percée de deux fentes en dessous de laquelle est placé un écran. L’onde lumineuse suit ainsi deux trajets passant par l’une ou l’autre de ces fentes avant d’arriver sur l’écran d’observation qui enregistre l’intensité lumineuse. Selon la position du point d’observation sur cet écran, les deux ondes qui arrivent en ce point et qui sont passées par les deux trajets possibles se superposent, en phase ou en opposition de phase. L’intensité de l’onde résultante varie donc entre une valeur élevée et une valeur nulle et on observe ce qu’on appelle « les franges d’interférence d’Young ».
Depuis quelques années, plusieurs expériences analogues ont été réalisées, non plus avec des ondes lumineuses, mais avec les ondes de de Broglie associées à des atomes froids. Des physiciens japonais de l’université de Tokyo, le Professeur Fujio Shimizu et ses collègues, ont ainsi réalisé une expérience tout à fait spectaculaire. Elle consiste à laisser tomber en chute libre un nuage d’atomes froids initialement piégés au-dessus d’une plaque percée de deux fentes. Après traversée des deux fentes, les atomes viennent frapper une plaque servant de détecteur et l’on observe une succession d’impacts localisés. Au début, la localisation de ces impacts semble tout à fait aléatoire. Puis, au fur et à mesure que le nombre d’impacts augmente, on constate qu’ils s’accumulent préférentiellement dans certaines zones et on voit apparaître nettement une alternance de franges brillantes avec des impacts très denses et de franges sombres avec très peu d’impacts. Cette expérience illustre parfaitement la dualité onde-corpuscule. Les atomes sont des corpuscules dont on peut observer l’impact localisé sur un écran de détection. Mais en même temps, il leur est associé une onde et c’est l’onde qui permet de calculer la probabilité pour que le corpuscule se manifeste. Comme l’onde associée aux atomes peut passer par les deux fentes de la plaque, elle donne naissance au niveau de l’écran de détection à deux ondes qui interfèrent et qui modulent donc spatialement la probabilité de détection de l’atome. On est là au cœur de la mécanique quantique, de la dualité onde-corpuscule qui régit le comportement de tous les objets physiques.
La condensation de Bose-Einstein
Depuis quelques années, des progrès spectaculaires ont été réalisés dans un autre domaine : la condensation de Bose-Einstein. A température très basse et à densité suffisamment élevée, l’extension spatiale des ondes de de Broglie associée à chaque atome devient plus grande que la distance moyenne entre deux atomes de sorte que les paquets d’ondes se recouvrent et interfèrent. Il apparaît alors un phénomène nouveau, qu’on appelle « la condensation de Bose- Einstein » : Tous les atomes se condensent dans le même état quantique, le niveau fondamental du puits qui les contient. Ce phénomène, prévu il y a longtemps par Bose et Einstein, joue un rôle important dans certains fluides, comme l’helium superfluide. Il a été observé également il y a cinq ans, pour la première fois aux Etats-Unis, sur des systèmes gazeux, formés d’atomes ultrafroids. Il fait actuellement l’objet de nombreuses études, tant théoriques qu’expérimentales dans de nombreux laboratoires.
L’ensemble des atomes condensés dans l’état fondamental du piège qui les contient porte le nom de « condensat ». Tous les atomes sont décrits par la même fonction d’onde. On obtient ainsi une onde de matière géante. De tels systèmes quantiques macroscopiques ont des propriétés tout à fait originales : cohérence, superfluidité, qui ont pu être observées et étudiées en grand détail. Plusieurs groupes s’efforcent également d’extraire d’un condensat de Bose- Einstein un faisceau cohérent d’atomes, réalisant ainsi un « laser à atomes », qui peut être
11
considéré comme l’équivalent, pour les ondes de de Broglie atomiques, des lasers mis au point, il y a trente ans, pour les ondes électromagnétiques . Quand de telles sources cohérentes d’ondes de de Broglie atomiques deviendront opérationnelles, on peut raisonnablement penser qu’elles stimuleront un développement spectaculaire de nouveaux champs de recherche, comme l’interférométrie atomique, la lithographie atomique.
Conclusion
L’étude des propriétés de la lumière et de ses interactions avec la matière a fait faire à la physique des progrès fantastiques au cours du XXe siècle. Ces avancées ont eu plusieurs retombées. Elles ont donné lieu à une nouvelle compréhension du monde microscopique. La mécanique quantique est née. La dualité onde-corpuscule est maintenant une évidence. De nouvelles sources de lumière, les lasers, sont apparues.
J’espère vous avoir convaincu que la lumière n’est pas seulement une source d’information sur les atomes mais également un moyen d’agir sur eux. On sait maintenant « manipuler » les divers degrés de liberté d’un atome, contrôler sa position et sa vitesse. Cette maîtrise accrue de la lumière et de la matière ouvre aujourd’hui de nouvelles perspectives à la recherche . De nouveaux objets d’étude sont apparus, comme les ondes de matière, les lasers à atomes, les systèmes quantiques dégénérés, dont les applications, encore insoupçonnées, verront le jour demain, au XXIe siècle.
Pour en savoir plus :
http://www.lkb.ens.fr/recherche/atfroids/tutorial/welcome.htm
De la lumière laser aux atomes ultrafroids.
Des explications simples sur le refroidissement et le piégeage d’atomes par laser et les applications de ce champ de recherche.
http://www.ens.fr/cct
Le cours de Claude Cohen-Tannoudji au Collège de France
Etude et analyse des travaux de recherche récents sur la Condensation de Bose-Einstein
L’auteur remercie Nadine Beaucourt pour son aide dans la rédaction de ce texte à partir de l’enregistrement de la conférence et Nicole Neveux pour la mise en forme du manuscrit.

 

VIDEO     canal U       LIEN 
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales / Confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google