ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LASER

 

 

 

 

 

 

 

CLAUDE COHEN-TANNOUDJI « Le laser ouvre de nouveaux champs de recherche »


La mise au point du laser, en 1960, a transformé l'étude de la lumière. Claude Cohen-Tannoudji, acteur majeur de ces cinquante années de recherche, livre son regard sur une histoire qui continue à s'écrire.
LA RECHERCHE : Comment un chercheur envisage-t-il l'étude de la lumière ?

CLAUDE COHEN-TANNOUDJI : La lumière ne peut s'étudier que par son interaction avec la matière. L'étude expérimentale de la lumière a débuté au XVIIe siècle. Descartes et Newton furent les premiers à réellement développer des modèles satisfaisants de la lumière. Il s'agissait de modèles corpusculaires. Newton pensait ainsi que la lumière était un jet de corpuscules et qu'il existait des corpuscules différents selon la couleur de la lumière. Ils étaient, selon lui, responsables de la sensation lumineuse.

C'est une conception ondulatoire de la lumière qui a rapidement eu la faveur des scientifiques ?
C.C.-T. En effet ; peu après, il y a eu toute une série de mises en évidence de propriétés ondulatoires à la suite des travaux de Huygens, de Fresnel et de Young. L'apogée fut la formulation des équations de Maxwell dans la seconde moitié du XIXe siècle, qui englobaient dans un même schéma cohérent l'électricité, le magnétisme et la propagation des ondes électro-magnétiques. Et il y a enfin eu les expériences de Hertz qui ont permis de montrer que les ondes électro-magnétiques lumineuses et radio avaient la même nature et ne différaient que par la fréquence.
Après cette compétition entre les modèles corpusculaire et ondulatoire, il semblait que la théorie ondulatoire allait triompher définitivement. Elle expliquait les phénomènes d'interférence, de diffraction, avec une grande précision. Elle donnait une explication cohérente d'une série d'observations. L'électromagnétisme était l'une des premières grandes synthèses de la physique.

Mais, à la fin du XIXe siècle, elle va être remise en question...
C.C.-T. Oui, il y avait alors deux petits « nuages » qui obscurcissaient ce tableau. Le premier était un constat d'échec. Les scientifiques pensaient qu'un milieu était nécessaire pour permettre la propagation d'une onde : un milieu appelé « éther » pour la lumière, comme l'air pour une onde sonore. Or toutes les tentatives de mettre en évidence un mouvement de la Terre par rapport à l'éther avaient échoué, remettant en question l'existence de ce milieu hypothétique.
Le second « nuage » était l'analyse du spectre du « corps noir » : en appliquant à la lumière les lois de la physique statistique* et en calculant la répartition en fréquences du rayonnement émis par un corps à une température T, on trouvait quelque chose d'aberrant. Aux hautes fréquences, l'intensité du rayonnement émis à la fréquence v décroissait trop lentement quand v tendait vers l'infini et l'on prévoyait un résultat infini pour l'énergie lumineuse totale rayonnée !

C'est pour expliquer ces résultats curieux que Planck a l'idée d'introduire les quanta ?
C.C.-T. Planck propose une nouvelle théorie selon laquelle il obtient le bon spectre en modélisant les atomes émetteurs comme un ensemble d'oscillateurs matériels interagissant avec le rayonnement. Dans cette théorie, il fait appel à un artifice mathématique classique : il remplace une distribution continue par une distribution discrète. Cela permet de simplifier le calcul, à la fin duquel on fait tendre vers zéro les « pas » du calcul pour rétablir la distribution continue. Seulement, il n'obtient les bons résultats qu'en s'affranchissant de cette dernière étape et en conservant jusqu'au bout une quantification discrète des échanges d'énergie entre les oscillateurs et le rayonnement. Planck n'est pas satisfait de ce résultat, car la démarche lui semble artificielle ! Mais c'est ainsi qu'il introduit la constante qui porte son nom et que l'on écrit h, du mot allemand Hilfsgrösse voulant dire « grandeur auxiliaire ». Cependant, personne n'imagine encore que la lumière est constituée de grains : ce sont seulement les échanges d'énergie entre la matière et le rayonnement qui se font de façon quantifiée.

Quand apparaît le concept de photon ?
C.C.-T. Dans l'un des trois articles fondamentaux d'Einstein - vraisemblablement le plus révolutionnaire -, en 1905. Il calcule l'entropie* du rayonnement et conclut que tout se passe comme si le rayonnement était constitué de corpuscules d'énergie quantifiée. La quantification n'est donc plus envisagée pour les seuls échanges d'énergie, mais pour le rayonnement lui-même.

Quelle est la réaction de la communauté scientifique des physiciens ?
C.C.-T. Scepticisme général : personne n'y croit. Quand Planck présente Einstein à l'Académie de Prusse en 1913, il parle d'un scientifique remarquable, qui a apporté des contributions fondamentales dans de nombreux domaines, mais qui a commis quelques erreurs de jeunesse comme l'idée de ce quantum lumineux - qu'on appellera photon par la suite -, pour lesquelles il faut lui pardonner.
On ne sait pas comment on peut réconcilier les quanta lumineux avec l'aspect ondulatoire. Ce n'est que petit à petit que les gens accepteront cette idée. Ainsi, après une dizaine d'années d'expérience, Robert A. Millikan dut admettre ne pas avoir réussi à mettre en défaut l'équation d'Einstein sur l'effet photo-électrique à laquelle il ne croyait pas.

Est-ce à cette époque que germe l'idée du laser ?
C.C.-T. Il faut remonter à 1917 et à l'article dans lequel Einstein essaie de retrouver la loi de Planck de façon simple en étudiant les échanges d'énergie dans des processus d'émission et d'absorption de photons par un atome à deux niveaux d'énergies différentes. Einstein introduit pour la première fois dans ce domaine l'idée de processus non déterministe : l'atome passe du niveau supérieur (d'énergie la plus élevée) au niveau inférieur (état fondamental supposé stable) avec une certaine probabilité par unité de temps d'émettre un photon de manière spontanée. Cette idée est révolutionnaire parce que toute la physique est déterministe à l'époque : si on connaît les conditions initiales, on pense que le système doit évoluer d'une manière bien définie. L'idée de probabilité de transition est nouvelle. Einstein considère dans son article que l'atome dans l'état fondamental peut absorber un photon avec une certaine probabilité de transition, puis retomber dans l'état fondamental par émission spontanée.
Einstein introduit aussi dans le même article l'idée d'émission stimulée : si un rayonnement incident arrive sur un atome dans l'état excité, il peut stimuler l'atome à revenir au niveau fondamental en émettant un photon identique au photon incident. En étudiant l'état d'équilibre atteint sous l'effet combiné des processus d'absorption, d'émission spontanée et stimulée, il retrouve en quelques lignes de calcul la loi de Planck, de façon beaucoup plus élégante qu'auparavant. Mais toutes ces idées nouvelles, qui paraissent alors vraiment académiques, vont rester en sommeil jusqu'au début des années 1950.

Que devient alors la polémique sur la nature ondulatoire ou corpusculaire de la lumière ?
C.C.-T. Einstein montre que dans l'interaction entre la matière et le rayonnement, il y a des phénomènes où la lumière apparaît de manière corpusculaire et des phénomènes où elle apparaît de manière ondulatoire, mais il ne propose pas de théorie précise. Louis de Broglie étend à la matière la notion de dualité onde-corpuscule, ouvrant la voie à de nombreux développements : l'équation de Schrödinger, la mécanique quantique, la liaison chimique, la théorie des solides... Peu à peu, le cadre pour une théorie complètement quantique de l'interaction entre la matière et le rayonnement se met en place. Et, à la fin des années 1920, l'Italien Enrico Fermi et le Britannique Paul Dirac proposent enfin une théorie satisfaisante englobant l'aspect corpusculaire et l'aspect ondulatoire, qui allait ouvrir la voie à l'élaboration de l'électrodynamique quantique.

Comment est née l'idée du laser ?
C.C.-T. Pendant la Seconde Guerre mondiale, de nombreux travaux avaient porté sur les micro-ondes et le radar en particulier ainsi que sur les jets atomiques et moléculaires. La connaissance des niveaux atomiques et moléculaires avait beaucoup progressé et on savait mieux réaliser des situations « hors d'équilibre », où les populations des divers niveaux d'énergie sont différentes de leurs valeurs d'équilibre. Le physicien américain Charles Townes connaissait tous ces développements : il avait notamment travaillé sur le radar pour l'armée et avait écrit un livre sur la spectroscopie micro-onde avec Arthur Leonard Schawlow. Il eut ainsi l'idée - tôt le matin en se promenant dans un parc, raconte-t-il - d'utiliser l'émission induite dans un milieu hors d'équilibre, où le niveau supérieur d'une transition atomique est plus peuplé que le niveau inférieur, pour amplifier un rayonnement traversant le milieu. Les photons nouveaux obtenus par émission induite, identiques aux incidents, sont en plus grand nombre que les photons disparaissant par absorption. En 1954, il obtient la première preuve d'oscillation maser (microwave amplification by stimulated emission of radiation).

Auparavant, le Français Alfred Kastler n'avait-il pas eu l'idée du « pompage optique » ?
C.C.-T. Kastler avait eu l'idée de manipuler les atomes par la lumière, de les mettre dans une situation hors équilibre, mais il n'avait jamais pensé à combiner cette possibilité avec l'émission stimulée pour amplifier un rayonnement. C'est pourquoi il n'aimait pas qu'on associe son nom au maser ou au laser. Townes, en revanche, voulait faire des sources de rayonnement avec des caractéristiques complètement différentes des sources classiques : directivité, puissance, monochromaticité, etc.

Comment est-on passé du maser au laser ?
C.C.-T. Naturellement. Cinq ans après avoir conçu le maser, Charles Townes et Arthur Leonard Schawlow - qui était son beau-frère - se sont demandé pourquoi ne pas mettre en oeuvre le processus d'amplification dans le domaine optique. Il leur fallait trouver comment faire des inversions de populations - obtenir davantage d'atomes dans le niveau supérieur d'une transition atomique que dans le niveau inférieur - dans cette gamme de longueur d'onde. C'est alors que Townes est venu un an ici, dans le laboratoire d'Alfred Kastler, en séjour sabbatique. Nous partagions le même bureau.

Vous-même n'étudiiez pas le laser ?
C.C.-T. Non, nous travaillions sur le pompage optique, nous ne pouvions pas tout faire. Et ce n'était pas du tout évident que l'amplification dans le domaine optique allait fonctionner. Finalement le premier laser (le « l » de light remplace le « m » de microwave) a été obtenu en 1960 par le physicien américain Theodore Maiman dans un cristal de rubis. Peu après, Ali Javan, alors au Massachusetts Institute of Technology, a présenté le premier laser à gaz. Toutes les voies pour faire des inversions de populations ont été explorées. Townes racontait même que Schawlow avait fabriqué un laser comestible avec des gélatines de molécules fluorescentes.

Comment ces découvertes ont-elles été perçues ?
C.C.-T. Tous ces travaux étaient considérés comme des recherches purement académiques. On parlait même de « solution en attente d'un problème » ! Je me souviens d'un congrès d'électronique quantique à Paris en 1963 où l'on disait que c'étaient de belles réalisations, mais en quelque sorte des curiosités de laboratoire. Cependant, le laser était pour nous une nouvelle source de lumière très intéressante, car elle avait des caractéristiques complètement différentes de celles des autres sources dont on disposait à l'époque. Des possibilités de faire des expériences nouvelles s'ouvraient à nous. Nous ne pensions pas encore aux applications pratiques. Quand les premiers lasers sont apparus, c'étaient des objets complexes, sophistiqués et difficiles à régler. Et puis, comme toujours, la technologie a fait des pas de géant, s'est simplifiée, des lasers ont été industrialisés et, dans les années 1970, on a pu en acheter comme on achetait un oscilloscope. Ce n'est qu'à ce moment-là qu'ils sont réellement devenus des nouveaux outils pour nos recherches.

Vous avez alors reformulé vos problèmes ?
C.C.-T. Le laser nous offrait la possibilité d'étendre dans le domaine optique toute une série de concepts qui avaient été développés auparavant dans l'étude de la « résonance magnétique », où l'onde interagissant avec l'atome pouvait être considérée comme une onde électromagnétique classique. On pouvait dès lors essayer de voir si le traitement quantique de l'interaction ne permettrait pas de mettre en évidence ses effets nouveaux.
Il y a eu aussi l'apparition de la spectroscopie laser. Jusqu'alors, les sources pour exciter un atome avaient une très grande largeur spectrale et une intensité très faible. Les sources laser avaient, elles, une largeur spectrale très faible, ce qui permettait de mesurer les fréquences des transitions atomiques avec une meilleure précision. L'intensité élevée des rayonnements délivrés par les sources laser mettait aussi en évidence une foison d'effets « non linéaires » nouveaux.
Il y a eu enfin beaucoup de travaux sur les statistiques de photons : on n'observait pas les mêmes corrélations temporelles entre les impulsions observées sur un détecteur selon que le faisceau lumineux envoyé sur lui provenait d'une source classique ou d'un laser. L'étude de ces phénomènes a donné naissance à l'optique quantique, où la lumière est décrite comme un champ quantique, discipline qui a été à l'honneur avec le prix Nobel de Roy Glauber, en 2005.
Quel était l'état d'esprit lors du déroulement de ces travaux ?

C.C.-T. La recherche fondamentale a réellement été régénérée par le laser. Des domaines complètement nouveaux se sont ouverts, comme l'optique non linéaire, qui permettait d'éclairer un milieu avec une onde laser et de récupérer des nouvelles ondes dont la fréquence était double ou triple. De façon plus générale, en partant d'une fréquence donnée, on pouvait en obtenir de nouvelles. Autre exemple : à la fin des années 1970, on entrevoyait la possibilité de changer la vitesse de l'atome et de contrôler sa position avec des lasers. C'est ce qui a débouché sur le refroidissement et le piégeage des atomes par laser.

Comment est née l'idée de se servir d'un laser pour refroidir les atomes ?
C.C.-T. Au début des années 1980, il y avait une vingtaine de personnes dans le monde, au maximum, qui travaillaient sur ces sujets et, essentiellement, sur un plan théorique. En ce qui me concerne, je faisais à cette époque un cours au Collège de France sur les forces radiatives qui s'étendait sur quatre ans et qui m'a permis d'approfondir le sujet. Et puis, au milieu des années 1980, le domaine a explosé. On s'est rendu compte que l'on pouvait refroidir des atomes à des températures très basses de manière relativement simple. Des perspectives nouvelles s'ouvraient pour la spectroscopie : les atomes froids se déplacent à des vitesses très faibles de sorte qu'on peut les observer pendant un temps plus long et espérer ainsi faire des mesures beaucoup plus précises - plus une mesure dure longtemps, plus elle est précise. Sont apparues ensuite les horloges atomiques à atomes froids et la condensation de Bose-Einstein* au milieu des années 1990. Il y a maintenant plusieurs laboratoires qui travaillent sur ces sujets.

Quels courants de recherche se sont imposés sur le long terme ?
C.C.-T. La recherche sur les atomes froids a été extrêmement féconde, avec des progrès spectaculaires en métrologie : on gagnait trois ou quatre ordres de grandeur sur la précision ! Un autre exemple de domaine de recherche nouveau concerne ce qu'on appelle les simulateurs quantiques. L'idée est de réaliser des systèmes modèles qui rappellent les systèmes de la matière condensée, mais qui sont bien plus simples à analyser, leurs paramètres étant modifiables beaucoup plus aisément. Par exemple, on sait maintenant, en utilisant des ondes laser stationnaires, piéger des atomes froids dans des réseaux de puits de potentiel répartis de manière périodique dans l'espace. Le mouvement des atomes dans cette structure rappelle celui des électrons dans le potentiel périodique créé par les ions d'un cristal. Et comment ne pas mentionner aussi l'information quantique, qui consiste à utiliser des systèmes quantiques pour transmettre l'information, la traiter, faire de la cryptographie quantique, etc. Tous ces domaines avancent parallèlement et rien de tout cela n'existerait sans le laser. Il ne faut pas pour autant négliger d'autres technologies qui ont évolué en parallèle. Ainsi, les détecteurs : ce n'est pas un hasard si le dernier prix Nobel de physique a été attribué pour le développement des caméras CCD*.

Le laser a-t-il permis de clore le chapitre de l'étude de l'interaction de la lumière avec la matière ?
C.C.-T. Disons que notre compréhension de la lumière et de ses interactions avec la matière a beaucoup progressé. Mais les progrès continus des lasers, du point de vue tant de la puissance que de la durée des impulsions, ouvrent des champs de recherche nouveaux. Par exemple, la réalisation d'impulsions laser femtoseconde* a permis d'avoir accès à la dynamique des noyaux au cours des réactions chimiques : c'est la femtochimie, couronnée par le prix Nobel d'Ahmed Zewail en 1999. Maintenant, on arrive à l'attoseconde, mille fois plus petite : c'est la dynamique des électrons qui devient accessible. En ce qui concerne la puissance, on atteint couramment aujourd'hui le domaine du térawatt* et même du petawatt* : de nombreux problèmes nouveaux se posent concernant le comportement de la matière dans des champs aussi élevés.
À la fin de sa vie, Einstein disait qu'il avait réfléchi cinquante ans sur la lumière et qu'il ne savait toujours pas ce qu'étaient les quanta lumineux ! Le monde quantique est bien mystérieux et nous réserve sans doute encore bien des surprises.

*LA PHYSIQUE STATISTIQUE décrit les systèmes qui comportent un grand nombre de particules à partir des propriétés de leurs constituants microscopiques.

*L'ENTROPIE est une mesure du désordre d'un système au niveau microscopique.

*LA CONDENSATION DE BOSE-EINSTEIN est l'apparition d'un état de la matière dans lequel les particules identiques et de spin entier occupent toutes le même état quantique, celui de plus basse énergie.

*UNE CAMÉRA CCD (charged coupled device) transforme un signal lumineux en signal électrique grâce à une matrice d'éléments semi-conducteurs.

*UNE FEMTOSECONDE est un millionième de milliardième de seconde, soit 10-15 seconde.

*UN TÉRAWATT est mille milliards de watts et UN PETAWATT est un million de milliards de watts.

 

DOCUMENT      larecherche        LIEN

 
 
 
 

ÉLECTRON

 

 

 

 

 

 

 

électron
(anglais electron, de electric et anion)

Cet article fait partie du dossier consacré à la matière.
Particule fondamentale portant l'unité naturelle de charge électrique et appartenant à la classe des leptons.


Pour la physique, l'électron est l'objet théorique par excellence. C'est à son propos qu'ont été élaborées la plupart des théories importantes du xxe s., à commencer par la physique quantique. La physique atomique et moléculaire est essentiellement une physique des électrons. La chimie étudie la formation et la transformation des molécules, c'est-à-dire les transferts d'électrons d'un atome à un autre. La physique de l'état solide s'intéresse à la cohésion de la matière, assurée par les électrons. Plusieurs technologies ont spécifiquement l'électron pour matériau : électronique, informatique, applications médicales des faisceaux d'électrons, etc.
L'électron est l'un des plus importants constituants universels de la matière, dont toutes les propriétés macroscopiques sont, d'une façon ou d'une autre, liées à ses caractéristiques.
*         Fiche d'identité de l'électron
*         • masse : me = 9,1093897 × 10−31 kg ;
*         • charge électrique élémentaire : e = −1,60217733 × 10−19 C ;
*         • spin : ½ ;
*         • moment magnétique : 0,92740155 × 10−23 A·m2.
*         Son antiparticule est le positron : également appelé positon, il est de même masse que l’électron mais de charge opposée.
*
1. La découverte de l'électron

L'étude de l'électrolyse apporta la première preuve expérimentale de l'hypothèse l’existence de grains matériels composant le « fluide électrique ». Diverses mesures effectuées vers les années 1880 montrèrent que la quantité d'électricité nécessaire pour dissocier une mole de n'importe quel corps est un multiple entier d'une même quantité. Le mot « électron » fut inventé en 1891 par l’Irlandais George Stoney pour désigner d'abord la quantité élémentaire d'électricité, puis la particule porteuse de cette quantité elle-même.
Pour en savoir plus, voir l'article électricité.

L'étude des décharges électriques dans des gaz raréfiés (à basse pression) imposa définitivement l'existence de l'électron. Celles-ci s'accompagnent de l'émission de « rayons » (les rayons cathodiques) qui rendent fluorescent le verre de l'ampoule. Jean Perrin en 1895 puis Joseph John Thomson en 1897 réussirent à isoler ces rayons et à montrer, d'abord, qu'ils étaient porteurs d'une charge négative, puis qu'ils étaient effectivement constitués de particules matérielles chargées, dont Thomson mesura la vitesse et le rapport ee /me de leur charge e à leur masse me. Quant à la détermination de la charge élémentaire e elle-même, ce fut l'œuvre des vingt années qui suivirent ; en 1910, Robert Millikan, au terme d'une expérience particulièrement délicate, établit la valeur de e avec une précision extraordinaire pour l'époque.

2. L’électron, constituant fondamental de l’atome

L'idée d'une structure complexe de l'atome était tellement révolutionnaire au début du xxe s. que, pour l'imaginer, on fit appel à des « modèles classiques » de la physique. Une fois les caractères des ions positifs et de l'électron maîtrisés, la question de leur coexistence dans l'atome intrigua les physiciens.

2.1. Les premières tentatives de modélisation de l'atome
Comme il n'était pas possible d'observer la structure atomique, il fallait concevoir un « modèle » qui permît de comprendre des phénomènes physiques que l'on pensait être corrélés à une telle structure. Pour Hantaro Nagaoka (1904), le critère principal, emprunté aux phénomènes chimiques, devait expliquer la formation des molécules à partir des atomes. Il imaginait l'atome comme une structure stable, semblable à la planète Saturne : il plaçait les électrons sur les anneaux et assimilait la planète au noyau. Tout en acceptant que le critère de comparaison devait être fourni par la chimie, J. J. Thomson pensait, au contraire, que les électrons circulaient à l'intérieur d'une sphère dont la surface était chargée positivement.

Ce modèle n'était plus viable dès qu'on prenait en compte un autre phénomène : la diffusion des particules α, émises par désintégration radioactive du polonium, à travers une feuille de platine, qu'Ernest Rutherford avait observée, laissait penser que la charge atomique positive était concentrée en un point car quelques particules α étaient fortement déviées. Pour que les résultats expérimentaux soient compatibles avec le modèle planétaire, il fallait considérer que la charge positive était concentrée au centre de l'atome. Vers 1911, ce modèle semble satisfaire et la chimie et la physique, même s'il est toujours impossible de montrer sa compatibilité avec l'ensemble des lois de cette dernière. L'atome ressemble au Système solaire : le noyau positif est au centre, et les électrons se déplacent sur des orbites à l'extérieur du noyau. Cependant, les électrons, en tournant, doivent émettre de l'énergie. Selon un tel modèle, encore grossier, ils s'approcheraient du noyau jusqu'à être détruits par combinaison des charges positive et négative, rendant l'atome fortement instable. Après une dizaine d'années de recherches, malgré cette objection de fond, des certitudes étaient partagées par les chercheurs : la concentration de la masse et de la charge positive dans le noyau, les électrons étant situés à l'extérieur du noyau ; autre certitude : la stabilité du modèle supposé, dit de Rutherford. Mais, pour comprendre la structure de l'atome, il fallait une clé supplémentaire.

2.2. Structure atomique et spectroscopie

Ce fut la grande intuition du Danois Niels Bohr que de corréler, en 1913, la structure des atomes avec leurs spectres. Un spectre est l'enregistrement de l'énergie absorbée ou émise par les atomes. Bien que différents pour chaque élément, les spectres ont un aspect semblable : des lignes espacées différemment entre elles, correspondant aux valeurs d'énergie absorbée ou émise. Cette structure régulière se prête bien à la traduction en formules du type « la différence d'énergie entre deux lignes est égale à un multiple entier d'une même quantité ». Or une nouvelle conception s'affirmait en physique depuis le début du siècle : l'énergie est aussi concevable comme constituée de petits grains, unités appelées au début « quanta de lumière » (Einstein, 1905), et depuis 1924 « photons ».
L'énergie des spectres correspondait-elle également à des multiples entiers du quantum ? Pouvait-on corréler l'absorption ou l'émission d'énergie avec le déplacement des électrons à l'intérieur des atomes ? Y parvenir pouvait permettre d'évaluer l'énergie correspondant à un électron dans un atome. Le modèle de l'atome calqué sur la structure planétaire paraissait donc se préciser : les électrons évoluent, de manière stable, sur des orbites qui sont les seules positions possibles. Un électron peut passer d'une orbite à une autre par absorption ou émission d'énergie, cette énergie étant toujours un multiple entier du quantum.
Pour calculer les différentes orbites possibles, on fit appel aux théorèmes de la mécanique. On imagina ainsi des orbites elliptiques ; celles-ci pouvaient être inclinées différemment par rapport à un axe. Il était dès lors possible de distinguer les électrons en leur attribuant des paramètres : les deux premiers correspondaient aux deux axes de l'ellipse et le troisième, à l'inclinaison par rapport à l'axe perpendiculaire à la première orbite et passant par le noyau. Cette construction avait été rendue possible par la confrontation entre données spectroscopiques et déductions théoriques à partir des modèles mécaniques. Cette méthodologie allait pourtant achopper bientôt sur une difficulté majeure.

2.3. Le modèle quantique de l’électron

La diversité des éléments chimiques, dans le cadre du modèle des atomes planétaires, était expliquée par le fait que chaque élément est caractérisé par un nombre donné d'électrons (correspondant au numéro atomique), ceux-ci se disposant sur les orbites possibles du point de vue énergétique. Ainsi, chaque électron a d'abord été caractérisé par trois nombres entiers, dits nombres quantiques, obtenus par l'étude géométrique des orbites. On établissait aussi de cette manière l'interdépendance de ces nombres entre eux.
Le premier, le nombre quantique principal, généralement indiqué par n, est relié au niveau énergétique et indique l'axe principal de l'ellipse ; le deuxième, le nombre quantique azimutal, indiqué par l, peut assumer les valeurs 0 à (n − 1), et indique l'excentricité de l'orbite ; le troisième, le nombre quantique magnétique, indiqué par m, peut avoir les valeurs de −l à +l et représente l'inclinaison spatiale de l'orbite.
Or Wolfgang Pauli, à partir d'une analyse pointilleuse des données spectroscopiques, montra en 1924-1925 que la seule manière d'établir une correspondance entre l'ensemble des lignes observées pour un atome et les nombres quantiques était d'ajouter un quatrième nombre quantique (le spin s) en lui imposant uniquement deux valeurs : +1/2 ou −1/2. Certes, peu de temps après, George E. Uhlenbeck et Samuel A. Goudsmit réussirent à montrer, pour l'hydrogène, que ce nombre supplémentaire pouvait correspondre au moment cinétique propre de rotation de l'électron, appelé spin. Cette représentation mécanique constitue le dernier effort pour rester dans le cadre des anciens modèles. En effet, face à la multiplicité des modèles et en l'absence de critères physiques pour les départager, les physiciens furent convaincus que la structure des atomes allait devoir être repensée entièrement.

2.4. Le modèle ondulatoire de l’électron
Deux voies furent suivies en même temps : des chercheurs, abandonnant l'image trop réaliste du modèle planétaire, raisonnèrent sur les seules grandeurs observables et mesurables, d'origine mécanique comme la position et la quantité de mouvement ; d'autres mirent l'accent sur la nature ondulatoire de l'électron.

2.4.1. L’électron selon Louis de Broglie

En 1924, Louis de Broglie montrait que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire avec, comme relation fondamentale, la longueur d'onde λ = h /p, où h est la constante de Planck et p la quantité de mouvement de l'électron. On savait depuis les travaux de Hamilton, au milieu du xixe s., qu'un ensemble de corpuscules pouvait être représenté, mathématiquement, comme une onde. Cependant, s'agissait-il d'une pure possibilité mathématique ou d'une réelle capacité de l'électron à produire des phénomènes typiques de la théorie ondulatoire ? L'un de ceux-ci, le plus caractéristique même, correspond aux figures de diffraction. Ainsi, les expériences de Davisson et Germer, qui enregistrèrent en 1927 la figure de diffraction d'un faisceau d'électrons sur un mince cristal de zinc, furent considérées comme la preuve irréfutable de la double nature de l'électron : ondulatoire et corpusculaire.
L'électron présentait alors une analogie parfaite avec la lumière, qui peut être définie comme composée de photons, de spin nul, et comme une onde. Seule la valeur du spin – entier pour le photon et demi-entier pour l'électron – les départage ; ainsi, la réalité corpusculaire subatomique a comme grandeur typique le spin.
Cette conception de l'électron comme onde eut des prolongements techniques extrêmement importants. Par analogie avec le microscope optique, il a été possible de concevoir un microscope électronique (mettant en œuvre une source d'électrons, un réseau de diffraction, un système d'enregistrement – plaque photographique ou écran fluorescent – sur lequel est enregistré l'objet agrandi) dont la capacité d'agrandissement dépasse les 100 000 fois.
2.4.2. L’électron selon Erwin Schrödinger

Erwin Schrödinger décrivit l'électron comme une suite de fonctions ondulatoires. De plus, il obtenait les mêmes valeurs de l'énergie que celles que l'on calculait avec le modèle corpusculaire. Enfin, il était possible de passer de l'une à l'autre description car, du point de vue mathématique, elles sont équivalentes.
De ce fait, les physiciens se trouvaient confrontés à un problème supplémentaire : faut-il penser qu'à chaque corpuscule est étroitement associée une onde, ou que les descriptions ondulatoire et corpusculaire sont deux manières, complémentaires, de décrire une même réalité qui nous échappe ? Pour résumer, fallait-il accentuer l'analogie de ce problème avec ceux qui se posent dans d'autres domaines de la physique, comme l'optique ou l'acoustique, où cohabitent plusieurs points de vue, ou tenir ces résultats pour provisoires, en attendant une nouvelle théorie qui éliminerait le caractère de complémentarité associé à la nécessité de faire appel à deux visions ? Le débat est encore ouvert en physique, et pour l'instant il n'existe pas de théorie de remplacement.
La seule certitude des physiciens est que l'électron se situe à l'intérieur de l'atome, et qu'on ne peut indiquer que sa probabilité de présence dans ce confinement. Pour connaître la position de l'électron, il faut expérimenter ; or toute expérience perturbe le système de telle sorte qu'on ne sait plus où se situe l'électron après l'expérience. De plus, certaines grandeurs physiques mesurables sont liées entre elles de telle façon que, si l'on augmente la précision de la mesure de l'une, on réduit d'autant la précision de l'autre : il y a une indétermination fondamentale dans notre connaissance expérimentale de ces grandeurs. L'étude de l'électron aboutit donc à ces conclusions :
– toute description théorique revient à se donner des probabilités d'événements ;
– l'expérimentation perturbe tout système soumis à mesure ;
– si, au cours d'une même expérience, on veut évaluer en même temps des grandeurs liées, la précision de chaque mesure ne peut pas être arbitrairement élevée : plus on soigne l'un des paramètres, moins on obtient de précision sur l'autre ; la précision est donc toujours limitée.

3. L'électron dans les solides

Qu'apportait cette nouvelle vision à la connaissance des métaux ? D'énormes progrès avaient été réalisés dans la connaissance de leur structure. Les rayons X étant caractérisés par une faible longueur d'onde, la structure atomique d'un métal constitue un réseau naturel de diffraction pour cette « lumière », qui traverse la matière. Ainsi, en observant les réseaux de diffraction, on pouvait, par des calculs numériques extrêmement complexes, parvenir à déterminer la structure atomique. La cristallographie avait déjà habitué les savants à reconnaître dans les cristaux la présence de structures géométriques régulières ; cette connaissance fut étendue aux métaux, qui révèlent à l'échelle atomique une régularité non perceptible au niveau macroscopique. De plus, la diffraction des rayons X permettait d'apprécier la distance entre les lignes du réseau, et donc de mesurer la distance entre atomes. Ces valeurs, confrontées aux dimensions que l'on pouvait calculer à partir des modèles atomiques, montraient que la distance entre atomes d'un métal est telle qu'il faut supposer que les couches électroniques les plus externes sont en contact. La structure d'un métal est donc bien plus compacte qu'on ne l'imaginait. On conclut que les électrons de valence se déplacent dans un champ électrique intense, fort complexe, créé par les noyaux et les autres électrons atomiques. L'hypothèse des électrons libres relevait donc de la fiction. Mais comment oublier que, qualitativement au moins, un accord remarquable existait entre ce modèle et les données de l'expérience ?

3.1. L'approche chimique

La clé de cette énigme va être fournie par la compréhension de la liaison chimique. Les couches électroniques externes étant très proches, au point de se toucher, on suppose qu'il se produit un phénomène analogue à la formation d'une molécule à partir des atomes. L'analogie est presque parfaite : comme les molécules, les atomes gardent leur individualité tout en formant un nouveau composé dont l'action est spécifique ; dans le métal, les atomes gardent aussi leur individualité, et leur assemblage manifeste des caractères physico-chimiques propres.

3.1.1. Les électrons dans la liaison ionique
La cohésion moléculaire est considérée comme le résultat de l'attraction électrostatique entre ions de charge opposée. C'est le cas de la plupart des sels qui, en solution, se dissocient en ions. En général, ces molécules sont composées d'atomes de structure électronique fort dissemblable – on dit aussi qu'ils sont situés dans les cases extrêmes du tableau de Mendeleïev. L'un d'entre eux tend à se séparer de son ou de ses électrons externes pour atteindre une configuration électronique stable (huit électrons sur la couche externe), l'autre tend à s'annexer le ou les autres électrons, pour la même raison.
3.1.2. Les électrons dans la liaison covalente
Pour atteindre une configuration électronique stable, les atomes adoptent une solution de compromis : ils mettent en commun les électrons externes. C'est, par exemple, le cas de la liaison entre deux atomes de carbone, courante dans les composés organiques. Il faut l'imaginer comme un nuage électronique entourant les deux noyaux, qui se placent à une distance telle qu'elle correspond à un minimum de l'énergie pour l'ensemble du système.

3.2. Électrons et nuage électronique
Transposée au niveau des solides, l'image du nuage électronique implique le partage des électrons entre tous les atomes ; or cette image est fort semblable à l'hypothèse « ancienne » des électrons libres dans un métal, son réalisme naïf en moins. Pour la tester, il fallait faire appel aux méthodes de calcul de la mécanique quantique. Le point crucial est donc de résoudre ce problème du point de vue mathématique : il s'agit d'écrire une équation pour N corps en mouvement, N étant une valeur très grande correspondant aux électrons qui font partie de la liaison. Ce problème est soluble uniquement par des méthodes mathématiques approchées et il faut faire des hypothèses physiques « raisonnables » pour en simplifier la résolution.
L'hypothèse suivante s'est révélée féconde : les électrons gardant leur individualité, on va les considérer isolément. Il s'agit donc d'écrire l'équation du mouvement de l'un d'entre eux en présence d'un champ électrique issu des noyaux disposés selon les nœuds du réseau cristallin, champ auquel font écran les autres électrons. La nature symétrique de ce champ complexe permet d'introduire des simplifications ; il s'agit ensuite de l'évaluer raisonnablement. Si un composé ou un métal est stable, cela veut dire que son énergie est inférieure à la somme de l'énergie des atomes le composant. Transférée sur le plan de la description mathématique, cette idée revient à considérer que les fonctions atomiques qui décrivent l'électron seront sans doute changées, mais pas totalement ; elles peuvent donc constituer un point de départ raisonnable pour résoudre l'équation. Une fois trouvée une première solution, il faut modifier et le champ et les fonctions, puis répéter ce calcul tant que les petits changements apportés ne modifient pas les données importantes que sont les valeurs de l'énergie pour chaque électron dans le métal. Cette longue suite de calculs numériques est aujourd'hui possible grâce aux ordinateurs.

En général, on obtient des solutions du type suivant : les valeurs d'énergie permises au niveau atomique se regroupent dans des ensembles caractérisés par des énergies très proches, qui se confondent en une sorte de zone appelée bande. Ces bandes se distribuent sur une échelle des énergies croissantes ; elles peuvent se recouvrir en partie, ou être séparées par un large gap (écart) d'énergie. Partant de N fonctions atomiques, on obtient N niveaux énergétiques qui se regroupent en bandes. Comme dans la liaison chimique, l'occupation par les électrons des bandes les plus externes devra permettre de comprendre les phénomènes de conduction électrique et thermique. Les électrons s'« empilent » par deux et par fonction, selon le principe de Pauli. On peut alors schématiser ainsi les situations possible  : la bande externe est totalement remplie d'électrons, ou elle l'est partiellement ; la bande immédiatement supérieure, vide d'électrons, recouvre partiellement ou pas du tout la bande dernièrement occupée.

3.3. Électrons et propriétés des solides
Ce simple schéma des situations possibles du point de vue énergétique permet de rendre compte de ce qui paraissait inexplicable dans l'ancienne théorie de l'électron libre. Un électron peut être considéré comme libre d'occuper n'importe quel niveau d'énergie à l'intérieur d'une bande. Si deux bandes se superposent, il peut passer aisément de l'une à l'autre.
Théoriquement, ces mini-sauts demandent toujours une dépense énergétique, mais elle peut être considérée comme suffisamment faible pour que les sauts adviennent. Cette mobilité rend bien compte des propriétés conductrices des solides. Un isolant électrique est un solide où la dernière bande est complètement remplie et la bande vide, immédiatement supérieure, nettement séparée ; pour qu'il y ait mobilité, il faudrait fournir suffisamment d'énergie pour exciter les électrons sur la bande libre. Un bon conducteur présente la configuration inverse : si les deux dernières bandes se recouvrent, il suffit de peu d'énergie pour redistribuer les électrons. Un mauvais conducteur est un solide dont la distance entre la dernière bande remplie et la bande immédiatement supérieure n'est pas très grande : il suffit de peu d'énergie pour le rendre faiblement conducteur. Un tel modèle permet aussi d'expliquer pourquoi la chaleur spécifique des solides, dans les limites de validité de la loi de Dulong et Petit, est une constante. Dans le cas des mauvais conducteurs, la contribution électronique peut être considérée comme nulle ; dans les autres cas, la mobilité électronique est telle qu'elle ne change pas considérablement par l'augmentation de la température dans des limites définies. Dans les deux cas, la contribution des électrons à la chaleur spécifique est négligeable.

Cette approche a en outre le mérite de relier aux modes de distribution électronique d'autres faits physiques, comme l'émission thermo-ionique, à l'origine de l'électronique classique, celle à tubes. On sait qu'en chauffant un métal il se produit une émission d'électrons. Cela signifie que ces électrons ont une énergie cinétique telle qu'ils dépassent la barrière représentée par la surface du métal. Ainsi, la surface devient du point de vue physique une discontinuité fondamentale dans le potentiel. Si cette analyse est bonne, on doit pouvoir expliquer, par analogie, l'effet photoélectrique, dans lequel l'énergie est fournie par le rayonnement incident. Ainsi que l'avait déjà observé Einstein, il faut un rayonnement d'une certaine longueur d'onde pour faire s’échapper des électrons d’un matériau. De ce fait, effets thermoélectrique et photoélectrique relèvent de la même explication.

L'électron décrit par les équations de la mécanique quantique perd son image de particule à laquelle sont associées une masse et une charge ; en revanche, il permet de mieux maîtriser et expliquer les phénomènes complexes propres aux solides.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER

 

 

 

 

 

 

 

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER


En utilisant des échanges quasi-résonnants d'énergie, d'impulsion et de moment cinétique entre atomes et photons, il est possible de contrôler au moyen de faisceaux laser la vitesse et la position d'un atome neutre et de le refroidir à des températures très basses, de l'ordre du microKelvin, voire du nanoKelvin. Quelques mécanismes physiques de refroidissement seront passés en revue, de même que quelques applications possibles des atomes ultra-froids ainsi obtenus (horloges atomiques, interférométrie atomique, condensation de Bose-Einstein, lasers à atomes, etc.).

Texte de la 217e conférence de l’Université de tous les savoirs donnée le 4 août 2000.
Le refroidissement des atomes par laser par Claude Cohen-Tannoudji
Introduction
Au cours des deux dernières décennies, des progrès spectaculaires ont été réalisés dans notre maîtrise du mouvement des atomes. En faisant interagir ces atomes avec des faisceaux laser de direction, de fréquence et de polarisation convenablement choisies, nous pouvons maintenant contrôler la vitesse de ces atomes, réduire leurs mouvements d’agitation désordonnée, en quelque sorte les assagir, ce qui revient à diminuer leur température. Ces nouvelles méthodes portent le nom de «refroidissement laser». On sait également depuis peu contrôler la position des atomes et les maintenir confinés dans de petites régions de l’espace appelées « pièges ».
Le sujet de cet exposé est le refroidissement laser. Son objectif est double. Je voudrais tout d’abord expliquer en termes très simples comment fonctionne le refroidissement laser. Lorsqu’un atome absorbe ou émet de la lumière, il subit un recul. Comment peut-on utiliser ce recul pour ralentir et refroidir des atomes ? Je voudrais également dans cet exposé passer en revue les principales motivations de ces travaux, les nouvelles perspectives qu’ils ouvrent et essayer de répondre à quelques interrogations : À quoi peuvent servir les atomes ultrafroids ? Quels problèmes nouveaux permettent-ils d’aborder ? Quelles nouvelles applications peut-on envisager ?
Pour ceux d’entre vous qui ne sont pas familiers avec la physique des atomes et du rayonnement, j’ai pensé qu’il serait utile de commencer cet exposé par un rappel succinct de quelques notions de base très simples sur les photons et les atomes, sur les mécanismes d’absorption et d’émission de photons par les atomes. J’aborderai ensuite la description de quelques mécanismes physiques à la base du refroidissement laser : le recul de l’atome émettant ou absorbant un photon, ce qui se passe lorsqu’on place l’atome dans un faisceau laser résonnant, comment les reculs successifs que subit alors l’atome permettent de le ralentir et de le refroidir. Je terminerai enfin mon exposé en passant en revue quelques applications de ces travaux : les horloges à atomes froids, d’une extrême précision, puis l’interférométrie atomique qui utilise des phénomènes d’interférence résultant de la superposition des ondes de de Broglie atomiques, et enfin ces nouveaux états de la matière qui sont nommés condensats de Bose-Einstein. L’apparition, à des températures très basses, de ces nouveaux objets ouvre la voie vers de nouvelles applications comme les lasers à atomes qui sont analogues à des lasers ordinaires dans lesquels les ondes lumineuses seraient remplacées par des ondes de de Broglie.
Quelques notions de base
La lumière
La lumière est un objet d’études qui a toujours fasciné les physiciens et les scientifiques en général. Elle est apparue successivement au cours des siècles comme un jet de corpuscules ou comme une onde. Nous savons aujourd’hui qu’elle est à la fois une onde et un ensemble de corpuscules.
La lumière est tout d’abord une onde électromagnétique, c’est-à-dire un champ électrique et un champ magnétique oscillant à la fréquence ν et se propageant dans le vide à une vitesse
considérable c = 3×108 m/s. Comme toute onde, la lumière donne naissance à des phénomènes d’interférence. Lorsqu’on superpose deux ondes différentes d’égale amplitude,
1
en certains points, les ondes vibrent en phase et l’amplitude est doublée, en d’autres points, les ondes vibrent en opposition de phase et l’interférence est destructive. Sur un écran, on peut ainsi apercevoir une succession de zones brillantes et de zones sombres appelées franges d’interférence.
La couleur de la lumière est liée à sa fréquence ν . Le spectre de fréquence des ondes électromagnétiques s’étend de quelques Hertz aux rayons X et gamma. La lumière visible ne couvre qu’une très petite région de ce domaine spectral. Il est possible d’analyser le contenu spectral d’un rayonnement grâce à des appareils dits dispersifs qui font subir à un rayon lumineux une déviation qui dépend de la fréquence. Ainsi, si l’on fait passer un rayon solaire à travers un prisme, ses différentes composantes de couleur sont déviées de manière différente et on observe ce que l’on appelle un spectre.
Au début du siècle, à la suite des travaux de Planck et d’Einstein, il est apparu que la lumière n’était pas seulement une onde, mais qu’elle était aussi une assemblée de corpuscules : les
« photons ». A une onde lumineuse de fréquence ν , sont ainsi associés des corpuscules, les photons, qui possèdent une énergie E = hν proportionnelle à ν , une quantité de mouvement
p = hν / c également proportionnelle à ν . Dans ces équations, c est la vitesse de la lumière,
ν sa fréquence et h une constante que l’on appelle la constante de Planck, introduite en physique par Planck il y a exactement 100 ans.
L’idée importante qui s’est dégagée au cours du siècle précédent est la dualité onde- corpuscule. La lumière est à la fois une onde et un ensemble de corpuscules. Il est impossible de comprendre les divers phénomènes observés en termes d’ondes uniquement ou de corpuscules uniquement. Ces deux aspects de la lumière sont tous deux indispensables et indissociables.
Les atomes
Les atomes sont des systèmes planétaires analogues au système solaire. Ils sont formés de particules très légères, « les électrons », particules de charge négative, qui gravitent autour d’une particule de masse beaucoup plus élevée, dont la charge est positive : « le noyau ». Pour comprendre le mouvement de ces électrons autour du noyau, les physiciens se sont vite rendu compte que la mécanique classique était inadéquate et conduisait à des absurdités. Ils ont alors « inventé » la mécanique quantique, qui régit la dynamique du monde à l’échelle microscopique. Il s’agit là d’une révolution conceptuelle aussi importante que la révolution de la relativité restreinte et de la relativité générale. Une des prédictions les plus importantes de la mécanique quantique est la quantification des grandeurs physiques, en particulier, la quantification de l’énergie.
Dans le système du centre de masse de l’atome, système qui coïncide pratiquement avec le noyau car le noyau est beaucoup plus lourd que les électrons, on observe que les énergies des électrons ne peuvent prendre que des valeurs discrètes, quantifiées, repérées par des
« nombres quantiques ». Pour illustrer la quantification de l’énergie, j’ai représenté ici le niveau fondamental d’énergie la plus basse, le premier niveau excité, le deuxième niveau excité.
2
E2 E1
E0
2e Niveau excité 1er Niveau excité
Niveau fondamental
Figure 1 : Niveaux d'énergie d'un atome. Chaque trait horizontal a une altitude proportionnelle à l'énergie du niveau correspondant.
Interaction matière-lumière
Comment un tel atome interagit-il avec la lumière ? Émission et absorption de lumière par un atome
Un atome, initialement dans un état supérieur Eb , peut passer de ce niveau à un niveau inférieur Ea . Il émet alors de la lumière de fréquence ν , plus précisément un photon d’énergie
hν , telle que Eb − Ea = hν . Autrement dit, l’énergie perdue par l’atome, lorsqu’il passe du
niveau Eb au niveau Ea , est évacuée par le photon d’énergie hν . La relation entre la perte
d’énergie de l’atome et la fréquence de la lumière émise n'est donc en fait que la traduction exacte de la conservation de l’énergie.
Eb
Ea
ν Eb −Ea =hν ν
Emission
Absorption
Eb
Ea
Figure 2 : Processus élémentaires d'émission (figure de gauche) et d'absorption (figure de droite) d'un photon par un atome.
Le processus inverse existe, bien sûr : le processus d’absorption de lumière par un atome. L’atome, initialement dans un état inférieur Ea peut passer dans un niveau supérieur Eb en
gagnant l’énergie hν du photon absorbé. En d’autres termes, l’atome absorbe un photon et l’énergie du photon qu’il absorbe lui permet de passer de Ea à Eb . Il apparaît ainsi clairement
que la quantification de l’énergie atomique sous forme de valeurs discrètes entraîne le caractère discret du spectre de fréquences émises ou absorbées par un atome.
La lumière : une source essentielle d’informations sur la structure des atomes 3
Un atome ne peut émettre toutes les fréquences possibles, il ne peut émettre que les fréquences correspondant aux différences des énergies de ses niveaux. Ce résultat est extrêmement important. Il montre en effet que la lumière est une source d’information essentielle sur le monde atomique. En effet, en mesurant les fréquences émises ou absorbées, on peut reconstituer les différences Eb − Ea et obtenir le diagramme d’énergie d’un atome.
C’est ce que l’on appelle la « spectroscopie ». Le spectre d’un atome varie d’un atome à l’autre. Les fréquences émises par l’atome d’hydrogène diffèrent de celles émises par l’atome de sodium, de rubidium ou de potassium. Le spectre de raies émises par un atome constitue en quelque sorte son « empreinte digitale » ou, pour utiliser des termes plus actuels, son
« empreinte génétique ». Il est possible d’identifier un atome par l’observation des fréquences qu’il émet. Autrement dit, en observant la lumière provenant de différents types de milieux, on peut obtenir des informations sur les constituants de ces milieux. Ainsi, en astrophysique, par exemple, c'est la spectroscopie qui permet de déterminer la composition des atmosphères planétaires et stellaires et d'identifier les molécules qui sont présentes dans l’espace interstellaire. L’observation du décalage des fréquences émises par des objets astrophysiques permet de mieux comprendre la vitesse de ces objets et de mesurer ainsi l’expansion de l’univers. L’observation du spectre de la lumière émise ou absorbée permet aussi d’étudier des milieux hostiles comme des plasmas ou des flammes et d’analyser in situ les constituants de ces milieux.
Durée de vie d'un état excité
Considérons un atome isolé, initialement préparé dans un état excité Eb . L’expérience montre qu’au bout d’un certain temps, très court, l’atome retombe spontanément dans un état
inférieur Ea , en émettant et dans n’importe quelle direction, un photon d’énergie
hν = Eb − Ea . Ce laps de temps, très court, à la fin duquel se produit le processus d'émission
est appelé la durée de vie de l’état excité Eb .
Il apparaît ainsi qu'un atome ne peut pas rester excité indéfiniment. La durée de vie de l’état excité, qui varie d’un atome à l’autre, est typiquement de 10-8 s, c’est-à-dire 10 milliardièmes de seconde.
Les mécanismes physiques
Après ces brefs rappels de notions de base, abordons maintenant la seconde partie de cet exposé qui traite des mécanismes physiques à la base du refroidissement laser.
Le recul de l’atome lors de l’émission ou de l’absorption d’un photon
(3a)
Eb Ea M u
hν / c
Ea
Eb
hν / c
4
Mu
(3b)
Figure 3 : Recul d'un atome lors de l'émission (figure 3a) ou de l'absorption (figure 3b) d'un photon par cet atome.
En physique, il y a une loi fondamentale qui est « la conservation de la quantité de mouvement ». Considérons un atome excité dans un état Eb supérieur, initialement immobile,
et supposons qu’à l’instant t = 0 , cet atome émette un photon, lequel a une quantité de mouvement hν / c . Dans l’état initial, l’atome étant tout seul et immobile, la quantité de
mouvement globale est nulle. Dans l’état final, comme le photon part avec une quantité de mouvement hν / c , l’atome recule avec la quantité de mouvement opposée Mv = −hν / c .
Vous avez certainement déjà vu, en réalité ou à la télévision, un canon tirer un obus : lorsque le canon tire un obus, il recule. De même, lorsqu’un atome émet un photon, il recule à cause de la conservation de la quantité de mouvement. Sa vitesse de recul est donnée par
vrec =hν/Mc.
Le même phénomène de recul s’observe lors de l’absorption. Considérons un atome dans un
état fondamental Ea , initialement immobile, et supposons qu’on envoie sur lui un photon : l’atome absorbe le photon et parvient à l’état excité. Il recule alors avec la même vitesse de
recul hν / Mc . De même, lorsqu’on tire une balle sur une cible, la cible recule à cause de la
quantité de mouvement qui lui est communiquée par le projectile.
Par ailleurs, nous savons que l’absorption de photon qui porte l’atome, initialement immobile, à l’état excité, est nécessairement suivie d’une émission puisque l’atome ne peut rester excité indéfiniment. Il retombe donc, au bout d’un temps qui est la durée de vie de l'état excité, dans l’état inférieur, en émettant spontanément un photon. Dans ce cycle absorption-émission au cours duquel l’atome absorbe un photon, recule puis émet un photon, la probabilité qu’il émette ce photon dans telle direction ou dans telle autre, dans un sens ou dans le sens opposé, est la même de sorte, qu’en moyenne, la vitesse qu’il perd lors de l’émission est nulle. Il s'ensuit donc que le changement de vitesse de l’atome est, en moyenne, uniquement lié au processus d’absorption et a pour valeur vrec = hν / Mc . Ce résultat est important pour la suite.
L’atome dans un faisceau laser
Essayons maintenant de comprendre comment réagit l’atome en présence, non pas d’un seul photon incident, mais d’un faisceau laser résonnant. Un flot de photons arrive alors sur lui. Il en absorbe un premier, monte dans l’état excité, retombe en émettant un photon, puis absorbe un second photon laser, monte dans l’état excité, retombe en émettant un autre photon , puis en absorbe un troisième et ainsi de suite. L’atome, ainsi plongé dans un faisceau laser, enchaîne les cycles absorption-émission sans pouvoir s’arrêter et, à chacun de ces cycles, sa vitesse change en moyenne de vrec = hν / Mc . Comme la durée de vie moyenne de l’atome
excité est de 10-8 s, il se produit de l'ordre de108 cycles absorption-émission par seconde, c’est-à-dire 100 millions de cycles par seconde ! A chacun de ces cycles, la vitesse de l’atome change de hν / Mc . Pour l'atome de sodium, le calcul de cette vitesse de recul donne 3cm/s.
Pour l'atome de césium, on obtient 3mm/s. Ces vitesses sont très faibles, comparées par exemple aux vitesses des molécules de l'air qui nous entoure, qui sont de l'ordre de 300m/s. C'est pourquoi pendant longtemps les changements de vitesse d'un atome dûs aux effets de recul ont été considérés comme négligeables. En fait la situation est radicalement différente pour un atome dans un faisceau laser. Les cycles d'absorption-émission se répètent 100 millions de fois par seconde, générant un changement de vitesse par seconde de l'ordre de 100 millions de fois la vitesse de recul. On obtient ainsi des accélérations (ou décélérations) de l'ordre de 106 m/s2. A titre de comparaison, prenons un exemple dans la vie courante : quand
5
un objet tombe, l’accélération g qu'il subit du fait de la pesanteur est de 10 m/s2. Un atome de
sodium irradié par un faisceau laser est soumis à une accélération, ou une décélération, qui peut atteindre 105g. A titre de comparaison encore, cette accélération est 100 000 fois supérieure à celle, de l’ordre de 1g, que subit une voiture qui roule à 36 km/heure et qui s’arrête en 1 seconde.
Ralentissement d’un jet atomique
Cette force considérable qu’exerce la lumière sur les atomes, résultant de l'accumulation d'un très grand nombre de petits changements de vitesse, permet d’arrêter un jet atomique. Considérons un jet d’atomes sortant d’un four à la température de 300°K ou 400°K et se propageant à une vitesse de l'ordre de 1 km/s. Si ce jet est éclairé tête bêche par un faisceau laser résonnant, la force de pression de radiation que les atomes subissent va ralentir ces atomes, les arrêter et même leur faire rebrousser chemin. Un atome de vitesse initiale v0 de
1 km/s, soit 103 m/s, va être arrêté avec une décélération de 106m/s2, au bout de 10-3seconde, c’est-à-dire en une milliseconde. En une milliseconde, il passe ainsi de 1 km/s à zéro ! La distance L parcourue par l'atome avant qu'il ne s'arrête est donnée par une formule classique de terminale. Elle est égale au carré de la vitesse initiale divisée par deux fois la décélération subie. On obtient ainsi L = 0, 5m . On peut donc ainsi, dans un laboratoire, sur une distance
de l'ordre du mètre, arrêter un jet d’atomes avec un faisceau laser approprié. Evidemment, au fur et à mesure que les atomes sont ralentis, à cause de l’effet Doppler, ils sortent de résonance. Il faut donc modifier la fréquence du faisceau laser ou modifier la fréquence des atomes pour maintenir la condition de résonance et conserver la force à sa valeur maximale tout au long du processus de décélération.
Ralentir les atomes consiste à diminuer leur vitesse moyenne. Par contre la dispersion des valeurs de la vitesse autour de la valeur moyenne demeure en général inchangée. Il faut en fait faire une distinction très claire entre le mouvement d’ensemble caractérisé par la vitesse moyenne et le mouvement d’agitation désordonnée autour de la valeur moyenne de la vitesse. En physique, c’est cette vitesse d’agitation désordonnée qui caractérise la température. Plus un milieu est chaud, plus les vitesses d’agitation désordonnée de ses constituants sont élevées. Refroidir un système, cela veut dire diminuer les vitesses d’agitation désordonnée de ses constituants. Comment peut-on refroidir des atomes avec des faisceaux laser ?
Refroidissement Laser Doppler
(4a)
(4b)
Figure 4 : Principe du mécanisme de refroidissement laser par effet Doppler. Pour un atome au repos (figure 4a) les deux forces de pression de radiation s'équilibrent exactement. Pour
νL <νA νA νL <νA     Atome v=0
νapp <ν ν νapp >ν LLALL     Atome v v≠0
6
un atome en mouvement (figure 4b), la fréquence apparente de l'onde se propageant en sens opposé augmente et se rapproche de résonance. Elle exerce une force de pression de radiation plus grande que celle de l'onde qui se propage dans le même sens que l'atome et dont la fréquence apparente, diminuée par effet Doppler, s'éloigne de résonance.
Le mécanisme de refroidissement laser le plus simple utilise l'effet Doppler et a été proposé au milieu des années 70 par Hansch, Schawlow, Wineland et Dehmelt. L’idée est simple : l'atome est éclairé non plus par une seule onde laser, mais par deux ondes laser se propageant dans des sens opposés. Ces deux ondes laser ont même intensité, et même fréquenceνL , cette
fréquence νL étant légèrement inférieure à celle, νA , de la transition atomique. Que se passe-
t-il alors ? Si l’atome est immobile, avec donc une vitesse nulle, v = 0 , il n’y a pas d’effet Doppler. Dans ce cas, les deux faisceaux laser ont la même fréquence apparente. Les forces qu'ils exercent ont même module et des signes opposés. La force de pression de radiation venant de la gauche et la force de pression de radiation venant de la droite s’équilibrent donc exactement et l’atome n’est soumis à aucune force. Si l’atome se déplace vers la droite, avec une vitesse v non nulle, à cause de l’effet Doppler, la fréquence de l’onde qui se propage en sens opposé apparaît plus élevée. Cette fréquence apparente est ainsi augmentée et se rapproche de résonance. Le nombre de photons absorbés est alors plus élevé et la force augmente. Par contre, l'onde qui se propage dans le même sens que l'atome a sa fréquence apparente qui est diminuée par effet Doppler et qui s'éloigne donc de résonance. Le nombre de photons absorbés est alors moins élevé et la force diminue. A cause de l'effet Doppler, les deux forces de pression de radiation ne s'équilibrent plus. C'est la force opposée à la vitesse qui l'emporte et l'atome est ainsi soumis à une force globale non nulle, opposée à sa vitesse. Cette force globale F peut être écrite pour une vitesse v assez faible sous la forme
F = −α v où α est un coefficient de friction. Autrement dit, l’atome qui se déplace dans
cette configuration de deux faisceaux laser se propageant dans des sens opposés est soumis à une force de friction opposée à sa vitesse. Il se retrouve dans un milieu visqueux, que l’on appelle une mélasse optique par analogie avec un pot de miel. Sous l’effet de cette force, la vitesse de l’atome va être amortie et tendre vers zéro.
Refroidissement Sisyphe
L’étude théorique du mécanisme de refroidissement laser Doppler permet de prédire les températures qui pourraient être obtenues par un tel mécanisme et qu'on trouve de l’ordre de quelques centaines de microkelvin soit quelques 10-4 K. Ce sont des températures très basses comparées à la température ordinaire qui est de l’ordre de 300 K. En fait, quand, à la fin des années 80, on a pu mesurer ces températures de manière plus précise, on s’est aperçu, et ce fut une réelle surprise, que les températures mesurées étaient 100 fois plus basses que prévues, ce qui signifiait que d’autres mécanismes étaient en jeu. C’est l’un deux, le refroidissement Sisyphe que nous avons, mon collègue Jean Dalibard et moi-même, identifié et étudié en détail.
7
Figure 5 : l'effet Sisyphe
Sans entrer dans les détails d’un tel mécanisme, essayons d’en donner une idée générale. Les expériences de refroidissement laser utilisent des paires d’ondes laser se propageant dans des sens opposés (voir par exemple la figure 4). Ces ondes interfèrent et l’onde résultante a donc une intensité et une polarisation qui varient périodiquement dans l’espace. Or, on peut montrer que les niveaux d’énergie d’un atome sont légèrement déplacés par la lumière, d’une quantité proportionnelle à l’intensité lumineuse et qui dépend de la polarisation lumineuse. De plus, chaque atome possède en général plusieurs « sous-niveaux » d’énergie dans son état fondamental, qui correspondent chacun à une valeur différente d’une grandeur physique qui, comme l’énergie, est quantifiée. En l’occurrence, il s’agit ici du moment cinétique, l’atome pouvant être considéré comme une petite toupie qui tourne sur elle même. La figure 5 représente deux tels sous-niveaux dont les énergies sont modulées dans l’espace sous l’effet de la lumière. L’atome en mouvement se déplace donc dans un paysage de collines et de vallées de potentiel, paysage qui change suivant le sous-niveau dans lequel il se trouve. Considérons alors un atome se déplaçant vers la droite et initialement au fond d’une vallée de potentiel, dans un certain sous-niveau (Fig.5). Cet atome gravit la colline de potentiel et atteint le sommet de cette colline où il peut avoir une probabilité importante d’absorber et d’émettre un photon, processus à l’issue duquel il va se retrouver dans l’autre sous-niveau d’énergie, au fond d’une vallée. Le même scénario peut alors se reproduire, l’atome gravissant à nouveau une colline de potentiel avant d’atteindre le sommet et d’être transféré dans l’autre sous-niveau au fond d’une vallée, et ainsi de suite...Comme le héros de la mythologie grecque, l’atome est ainsi condamné à recommencer sans cesse la même ascension, perdant à chaque fois une partie de son énergie cinétique. Au bout d’un certain temps, il est tellement épuisé qu’il n’arrive plus à gravir les collines et se retrouve pris au piège au fond d’un puits. L’étude théorique et la comparaison avec les résultats expérimentaux ont conforté la réalité de ce mécanisme de refroidissement qui permet d'atteindre le microkelvin, c’est-à-dire une température de 10-6 K. Nous avons aussi mis au point au laboratoire d’autres méthodes, que je n’ai pas le temps d’approfondir aujourd’hui, qui permettent d'aller encore plus loin et d’atteindre le nanokelvin, c’est-à-dire 10-9 K, un milliardième de Kelvin.
À de telles températures, les vitesses des atomes sont de l’ordre du cm/s voire du mm/s alors qu’à température ordinaire, elles sont de l’ordre du km/s. Ces méthodes de refroidissement ont donc permis d’assagir considérablement le mouvement d'agitation désordonnée des atomes, de les rendre presque immobiles. Mentionnons également, sans entrer dans le détail des phénomènes, qu'on peut confiner les atomes dans une petite région de l'espace, appelée piège, grâce à l'utilisation de gradients d’intensité lumineuse ou de gradients de champ magnétique.
Description de quelques applications
Les horloges atomiques
8
∆ν ν0
Figure 6 : Principe d'une horloge atomique
Les applications des atomes froids et les nouvelles perspectives qu’ils ouvrent sont essentiellement liées au fait qu’ils sont animés d’une très faible vitesse. Cette particularité permet de les observer pendant une durée beaucoup plus longue. Or, en physique, une mesure est d’autant plus précise que le temps d’observation est plus long. On comprend très bien alors que, grâce à l’extrême précision des mesures pouvant être faites sur des atomes ultrafroids, des progrès ont pu être réalisés, dans la conception des horloges notamment. Rappelons tout d'abord en quoi consiste une horloge. C’est essentiellement un oscillateur, par exemple un quartz qui oscille à une certaine fréquence. Cependant, la fréquence d'un quartz livré à lui-même, fluctue au cours du temps. Elle accélère ou ralentit. Pour réaliser une horloge stable, il est donc nécessaire d'empêcher sa fréquence de dériver. Pour ce faire, on va maintenir la fréquence du quartz égale à la fréquence centrale d'une raie atomique.
Le principe de cette opération est schématisé sur la figure 6. Un oscillateur, piloté par le quartz, délivre une onde électromagnétique de même fréquence ν que la fréquence d’oscillation du quartz. Cette onde permet une « interrogation » des atomes utilisés pour stabiliser l’horloge. En l’envoyant sur les atomes et en balayant la fréquence ν du quartz, on observe une « résonance » quand ν coïncide avec la fréquence ν0 = (Eb − Ea ) / h
correspondant à l’écart d’énergie Eb − Ea entre deux niveaux d’énergie de cet atome. Un dispositif « d’asservissement » ajuste alors en permanence la fréquence ν du quartz pour la
maintenir au centre de la raie atomique. On stabilise ainsi ν en forçant ν à rester égal à ν0 .
En fait, c’est l’atome de césium qui est utilisé pour définir l’unité de temps, la seconde. Par convention internationale, la seconde correspond à 9 192 631 770 périodes d’oscillation
T0 =1/ν0 ,oùν0 estlafréquencecorrespondantàunecertainetransitionreliantdeuxsous- niveaux d’énergie de l’état fondamental de l’atome de césium. Cette fréquence ν0 est
universelle. Elle est la même pour tous les atomes de césium, où qu’ils se trouvent.
Les raies de résonance atomiques ne sont pas infiniment étroites. Elles ont une « largeur » ∆ν (voir figure 6). Plus cette largeur est faible, plus l’asservissement sera efficace, et plus l’horloge sera stable. Or, on peut montrer que la largeur d’une transition atomique reliant deux sous-niveaux de l’état fondamental d’un atome est inversement proportionnelle au temps d’observationTobs.PlusTobs estlong,pluslaraieestfine.Commelesatomesfroids
permettent d’allonger la durée de ce temps d’observation et par conséquence de disposer de raies très fines, il est aujourd’hui possible de réaliser des horloges extrêmement précises. Les horloges qui ont été réalisées jusqu’à ces dernières années utilisent des jets d’atomes de
9
césium se propageant à des vitesses de l’ordre du km/s, dans des appareils dont la longueur de l’ordre du mètre. Le temps d’observation accessible avec de tels systèmes est donc de l'ordre d’une milliseconde. Avec des atomes froids, il a été possible d’allonger ce temps d’observation par un facteur 100 et d’améliorer donc les performances des horloges atomiques par le même facteur. En fait, on n’utilise pas dans ces nouveaux dispositifs un jet horizontal d’atomes ralentis, car ils tomberaient rapidement dans le champ de pesanteur. Dans les nouvelles horloges, les jets atomiques sont verticaux. Plus précisément, les atomes refroidis dans une mélasse optique sont lancés vers le haut au moyen d’une impulsion laser et forment une sorte de « fontaine ». Ils traversent la cavité électromagnétique dans laquelle la résonance atomique est mesurée, une première fois dans leur mouvement ascendant, une seconde fois dans leur mouvement descendant quand ils retombent sous l’effet du champ de pesanteur. Les temps d’observation peuvent atteindre alors quelques dixièmes de seconde et être ainsi de l’ordre de cent fois plus longs que dans les horloges précédentes. De telles horloges à atomes froids ont été réalisées à Paris par un des mes collègues, Christophe Salomon en collaboration avec André Clairon du L.P.T.F-B.N.M. (Laboratoire Primaire du Temps et des Fréquences et Bureau National de Métrologie). Ils ont pu ainsi mettre au point, avec une fontaine haute de 1m , l’horloge la plus stable et la plus précise jamais réalisée dans le monde. Deux critères permettent de définir la qualité d’une horloge. Le premier, la stabilité, indique la fluctuation relative de fréquence au cours du temps. Elle est de l’ordre de quelques 10-16 pour un temps de Moyen-Âge de l’ordre de 104 s. Concrètement, cela signifie qu’une horloge atomique qui aurait été mise en marche au début de la création de l’univers ne serait, dix milliards d’années plus tard, désaccordée que de quelques secondes. Le second critère, c’est la précision. Si on réalise deux horloges, leur fréquence coïncide à 10-15 près, compte tenu des déplacements de fréquence liés à des effets parasites.
Ces horloges à atomes froids ont de multiples applications : le GPS ("Global Positioning System"), système de positionnement par satellite, la synchronisation des réseaux de télécommunications à haut débit, les tests de physique fondamentale (relativité générale, variation des constantes fondamentales). Pourrait-on encore augmenter leurs performances en réalisant des fontaines plus hautes, de 10 mètres par exemple ? En fait, un tel projet ne serait pas réaliste car le temps d'observation ne croît que comme la racine carrée de la hauteur et il faudrait blinder le champ magnétique terrestre (qui peut déplacer la fréquence de l'horloge) sur des distances de plus en plus grandes. La solution qui s’impose alors de manière évidente consiste à se débarrasser de la gravité et c’est la raison pour laquelle nous nous sommes engagés en France dans des expériences de microgravité depuis 1993. Ces expériences se déroulent à bord d’un avion avec lequel le pilote effectue plusieurs paraboles d’une vingtaine de secondes chacune. Pour ce faire, le pilote accélère l’avion à 45° en phase ascendante, puis coupe brutalement les gaz. Pendant les 20 secondes qui suivent l’avion est en chute libre et sa trajectoire est une parabole. A l'intérieur de l'avion, les objets flottent et ne tombent plus sur les parois de l'avion. Tout se passe comme s'il n'y avait plus de gravité. Puis le pilote remet les gaz et redresse la trajectoire de l'avion pour se remettre en phase ascendante et effectuer une nouvelle parabole. On a donc pu ainsi effectuer des tests sur le comportement des divers composants de l'expérience dans ces conditions, et leurs résultats ont montré qu’il est possible de réaliser des horloges à atomes froids en apesanteur. A la suite de ces tests, un accord a été signé pour prolonger l’expérience et placer une horloge atomique à atomes froids à bord de la station spatiale internationale qui doit être mise en orbite en 2004.
Les interférences atomiques
Depuis les travaux de Louis de Broglie, nous savons qu’à toute particule de masse M est associée une onde qu’on appelle « l’onde de de Broglie » dont la longueur d’onde λdB ,
10
donnée par l’équation λdB = h / M v , est inversement proportionnelle à la vitesse v . Plus la
vitesse est faible, plus la longueur d’onde de de Broglie est grande. Les atomes froids qui sont animés de faibles vitesses ont donc de grandes longueurs d’onde de de Broglie et leur comportement ondulatoire sera par suite beaucoup plus facile à mettre en évidence. Considérons par exemple l’expérience des fentes de Young réalisée avec des ondes lumineuses. Une source lumineuse éclaire un écran percé d’une fente. La lumière issue de cette fente arrive sur une plaque percée de deux fentes en dessous de laquelle est placé un écran. L’onde lumineuse suit ainsi deux trajets passant par l’une ou l’autre de ces fentes avant d’arriver sur l’écran d’observation qui enregistre l’intensité lumineuse. Selon la position du point d’observation sur cet écran, les deux ondes qui arrivent en ce point et qui sont passées par les deux trajets possibles se superposent, en phase ou en opposition de phase. L’intensité de l’onde résultante varie donc entre une valeur élevée et une valeur nulle et on observe ce qu’on appelle « les franges d’interférence d’Young ».
Depuis quelques années, plusieurs expériences analogues ont été réalisées, non plus avec des ondes lumineuses, mais avec les ondes de de Broglie associées à des atomes froids. Des physiciens japonais de l’université de Tokyo, le Professeur Fujio Shimizu et ses collègues, ont ainsi réalisé une expérience tout à fait spectaculaire. Elle consiste à laisser tomber en chute libre un nuage d’atomes froids initialement piégés au-dessus d’une plaque percée de deux fentes. Après traversée des deux fentes, les atomes viennent frapper une plaque servant de détecteur et l’on observe une succession d’impacts localisés. Au début, la localisation de ces impacts semble tout à fait aléatoire. Puis, au fur et à mesure que le nombre d’impacts augmente, on constate qu’ils s’accumulent préférentiellement dans certaines zones et on voit apparaître nettement une alternance de franges brillantes avec des impacts très denses et de franges sombres avec très peu d’impacts. Cette expérience illustre parfaitement la dualité onde-corpuscule. Les atomes sont des corpuscules dont on peut observer l’impact localisé sur un écran de détection. Mais en même temps, il leur est associé une onde et c’est l’onde qui permet de calculer la probabilité pour que le corpuscule se manifeste. Comme l’onde associée aux atomes peut passer par les deux fentes de la plaque, elle donne naissance au niveau de l’écran de détection à deux ondes qui interfèrent et qui modulent donc spatialement la probabilité de détection de l’atome. On est là au cœur de la mécanique quantique, de la dualité onde-corpuscule qui régit le comportement de tous les objets physiques.
La condensation de Bose-Einstein
Depuis quelques années, des progrès spectaculaires ont été réalisés dans un autre domaine : la condensation de Bose-Einstein. A température très basse et à densité suffisamment élevée, l’extension spatiale des ondes de de Broglie associée à chaque atome devient plus grande que la distance moyenne entre deux atomes de sorte que les paquets d’ondes se recouvrent et interfèrent. Il apparaît alors un phénomène nouveau, qu’on appelle « la condensation de Bose- Einstein » : Tous les atomes se condensent dans le même état quantique, le niveau fondamental du puits qui les contient. Ce phénomène, prévu il y a longtemps par Bose et Einstein, joue un rôle important dans certains fluides, comme l’helium superfluide. Il a été observé également il y a cinq ans, pour la première fois aux Etats-Unis, sur des systèmes gazeux, formés d’atomes ultrafroids. Il fait actuellement l’objet de nombreuses études, tant théoriques qu’expérimentales dans de nombreux laboratoires.
L’ensemble des atomes condensés dans l’état fondamental du piège qui les contient porte le nom de « condensat ». Tous les atomes sont décrits par la même fonction d’onde. On obtient ainsi une onde de matière géante. De tels systèmes quantiques macroscopiques ont des propriétés tout à fait originales : cohérence, superfluidité, qui ont pu être observées et étudiées en grand détail. Plusieurs groupes s’efforcent également d’extraire d’un condensat de Bose- Einstein un faisceau cohérent d’atomes, réalisant ainsi un « laser à atomes », qui peut être
11
considéré comme l’équivalent, pour les ondes de de Broglie atomiques, des lasers mis au point, il y a trente ans, pour les ondes électromagnétiques . Quand de telles sources cohérentes d’ondes de de Broglie atomiques deviendront opérationnelles, on peut raisonnablement penser qu’elles stimuleront un développement spectaculaire de nouveaux champs de recherche, comme l’interférométrie atomique, la lithographie atomique.
Conclusion
L’étude des propriétés de la lumière et de ses interactions avec la matière a fait faire à la physique des progrès fantastiques au cours du XXe siècle. Ces avancées ont eu plusieurs retombées. Elles ont donné lieu à une nouvelle compréhension du monde microscopique. La mécanique quantique est née. La dualité onde-corpuscule est maintenant une évidence. De nouvelles sources de lumière, les lasers, sont apparues.
J’espère vous avoir convaincu que la lumière n’est pas seulement une source d’information sur les atomes mais également un moyen d’agir sur eux. On sait maintenant « manipuler » les divers degrés de liberté d’un atome, contrôler sa position et sa vitesse. Cette maîtrise accrue de la lumière et de la matière ouvre aujourd’hui de nouvelles perspectives à la recherche . De nouveaux objets d’étude sont apparus, comme les ondes de matière, les lasers à atomes, les systèmes quantiques dégénérés, dont les applications, encore insoupçonnées, verront le jour demain, au XXIe siècle.
Pour en savoir plus :
http://www.lkb.ens.fr/recherche/atfroids/tutorial/welcome.htm
De la lumière laser aux atomes ultrafroids.
Des explications simples sur le refroidissement et le piégeage d’atomes par laser et les applications de ce champ de recherche.
http://www.ens.fr/cct
Le cours de Claude Cohen-Tannoudji au Collège de France
Etude et analyse des travaux de recherche récents sur la Condensation de Bose-Einstein
L’auteur remercie Nadine Beaucourt pour son aide dans la rédaction de ce texte à partir de l’enregistrement de la conférence et Nicole Neveux pour la mise en forme du manuscrit.

 

VIDEO     canal U       LIEN 
 

 
 
 
 

SUIVRE LES RÉACTIONS ENTRE LES ATOMES EN LES PHOTOGRAPHIANT AVEC DES LASERS

 

 

 

 

 

 

 

 

 

SUIVRE LES RÉACTIONS ENTRE LES ATOMES EN LES PHOTOGRAPHIANT AVEC DES LASERS

"Les progrès de l'optique ont conduit à des avancées significatives dans la connaissance du monde du vivant. Le développement des lasers impulsionnels n'a pas échappé à cette règle. Il a permis de passer de l'ère du biologiste-observateur à l'ère du biologiste-acteur en lui permettant à la fois de synchroniser des réactions biochimiques et de les observer en temps réel, y compris in situ. Ce progrès indéniable a néanmoins eu un coût. En effet, à cette occasion le biologiste est (presque) devenu aveugle, son spectre d'intervention et d'analyse étant brutalement réduit à celui autorisé par la technologie des lasers, c'est à dire à quelques longueurs d'onde bien spécifiques. Depuis peu, nous assistons à la fin de cette époque obscure. Le laser femtoseconde est devenu "" accordable "" des RX à l'infrarouge lointain. Il est aussi devenu exportable des laboratoires spécialisés en physique et technologie des lasers. Dans le même temps, la maîtrise des outils de biologie moléculaire et l'explosion des biotechnologies qui en a résulté, ont autorisé une modification à volonté des propriétés - y compris optiques - du milieu vivant. Une imagerie et une spectroscopie fonctionnelles cellulaire et moléculaire sont ainsi en train de se mettre en place. L'exposé présentera à travers quelques exemples, la nature des enjeux scientifiques et industriels associés à l'approche "" perturbative "" du fonctionnement des structures moléculaires et en particulier dans le domaine de la biologie. "

 

Texte de la 211e conférence de l’Université de tous les savoirs donnée le 29 juillet 2000.
La vie des molécules biologiques en temps réel : Laser et dynamique des protéines
par Jean-Louis Martin
En aval des recherches autour des génomes, alors que le catalogue des possibles géniques et protéiques est en voie d’achèvement, nous sommes entrés dans l’ère fonctionnelle qui doit nous conduire à comprendre comment toutes les molécules répertoriées interviennent pour « faire la vie ». Le profit qui sera fait de cette masse d’informations, dépend de notre capacité à intégrer ces données moléculaires dans des schémas fonctionnels sous-tendant la constitution et l’activité des cellules voire des organes et des organismes.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie des systèmes intégrés.
Au niveau cellulaire, l’approche fonctionnelle est déjà très avancée, en partie parce qu’elle s’appuie sur des compétences, des technologies et des concepts, largement communs à ceux développés par la génétique et la biologie moléculaire. Elle est toutefois, à ce jour, encore loin d’aboutir à une mise en cohérence du rôle fonctionnel des différents acteurs dont elle identifie le rôle au sein de la cellule : récepteurs, canaux ioniques, messagers, second messagers… Les progrès dans ce domaine vont être intimement liés à notre capacité à développer des outils autorisant à la fois un suivi in situ des différents acteurs, et une manipulation à l’échelle de la molécule.


Les développements technologiques spectaculaires dans le domaine des lasers impulsionnels a déjà permis le développement d’une nouvelle microscopie en trois dimensions : la microscopie confocale non linéaire. Associée à la construction de protéines chimères fluorescentes, cet outil a déjà permis de progresser significativement dans la localisation d’une cible protéique ou dans l’identification de voies de trafic intracellulaire.
Cependant, le décryptage in situ et in vivo du rôle fonctionnel des différents acteurs, en particulier protéique, ou plus encore, la compréhension des mécanismes sous-jacents, constituent des défis que peu d’équipes dans le monde ont relevés à ce jour. Il s’agit ici d’associer des techniques permettant de donner un sens à une cascade d’évènements qui s’échelonnent sur des échelles de temps allant de la centaine de femtoseconde1 à plusieurs milliers de secondes.
Le fonctionnement des protéines en temps réel
Le fonctionnement des macromolécules biologiques – protéines, acides nucléiques – est intimement lié à leur capacité à modifier leurs configurations spatiales lors de leur interaction avec des entités spécifiques de l’environnement, y compris avec d’autres macromolécules. Le passage d’une configuration à une autre requiert en général de faibles variations d’énergie, ce qui autorise une grande sensibilité aux variations des paramètres de l’environnement, associée à une dynamique interne des macromolécules biologiques s’exprimant sur un vaste domaine temporel.
Dans une première approche, on peut considérer qu’une vitesse de réaction biologique est la résultante du « produit » de deux termes: une dynamique intrinsèque des atomes et une probabilité de transition électronique. C’est en général ce dernier facteur de probabilité qui limite la vitesse d’une réaction. Une réaction biochimique est généralement lente non pas comme conséquence d’évènements intrinsèquement lents, mais comme le résultat d’une faible probabilité avec laquelle certains de ces évènements moléculaires peuvent se produire.
Plus précisément...

 une réaction biologique qui implique, par exemple, une rupture ou une formation de liaison, est tributaire de deux classes d’évènement : d’une part un déplacement relatif des noyaux des atomes et d’autre part une redistribution d’électrons parmi différentes orbitales. Ces deux catégories d’évènements s’expriment sur des échelles de temps qui leur sont propres et qui dépendent de la structure électronique et des masses atomiques des éléments constituant la molécule. Ainsi la dynamique des atomes autour de leur position d’équilibre est, en première approximation, celle d’oscillateurs harmoniques faits de masses ponctuelles couplées par des forces de rappels. Dans le cas des macromolécules biologiques, les milliers d’atomes que comporte le système évoluent sur une hyper-surface d’énergie dont la dimension est déterminée par le nombre de degrés de liberté de l’ensemble du complexe.


Le « travail » que doit effectuer une protéine est de nature très variée : catalyse dans le cas des enzymes, transduction de signal dans le cas de récepteurs, transfert de charges de site à site, transport de substances … mais il existe une caractéristique commune dans le fonctionnement de ces protéines : la sélection de chemins réactionnels spécifiques au sein de cette surface de potentiel. À l’évidence le système biologique n’explore pas l’ensemble de l’espace conformationnel : le coût entropique serait fatal à la réaction… et à l’organisme qui l’héberge.
L’identification de ce chemin réactionnel au sein de l’édifice constitue l’objectif essentiel des expériences de femto-biologie.
L’approche expérimentale : produire un séisme moléculaire et le suivre par stroboscopie laser femtoseconde
Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée.
Comment réussir à caractériser la dynamique conduisant à une conformation intermédiaire qui est elle-même à la fois très fugace et peu probable ?


La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc s’attendre à des mouvements dans les domaines femtoseconde et picoseconde2. Pour espérer avoir quelques succès dans cette investigation, il est par ailleurs impératif d’utiliser un système moléculaire accessible à la fois à l’expérimentation et à la simulation, la signature spectrale de la dynamique des protéines n’apportant que des informations indirectes. De plus, la réaction étudiée doit pouvoir être induite de manière « synchrone » pour un ensemble de molécules. Il est donc nécessaire de perturber de manière physiologique un ensemble moléculaire dans une échelle de temps plus courte que celle des mouvements internes les plus rapides, donc avec une impulsion femtoseconde.
Cette approche « percussionnelle » est commune à la plupart des domaines de recherche utilisant des impulsions femtosecondes. La biologie ne se distingue sur ce point, que dans l’adaptation de la perturbation optique pour en faire une perturbation physiologique. Le problème est naturellement résolu dans le cas des photorécepteurs pour lesquels le photon est « l’entrée » naturelle du système. Ceci explique les nombreux travaux en photosynthèse : transfert d’électron dans les centres réactionnels bactériens, transfert d’énergie au sein d’antennes collectrices de lumière dans les bactéries, mais aussi les études transferts de charges au sein d’enzyme de réparation de l’ADN ou responsable de la synchronisation des rythmes biologiques avec la lumière solaire, ainsi que les travaux sur les premières étapes de la vision dans la rhodopsine.


Il existe par ailleurs des situations favorables où la protéine comporte un cofacteur optiquement actif qui peut servir de déclencheur interne d’une réaction: c’est la cas des hémoprotéines comme l’hémoglobine que l’on trouve dans les globules rouges ou les enzymes impliquées dans la respiration des cellules comme la cytochrome oxydase. Dans ces hémoprotéines il est possible de rompre la liaison du ligand (oxygène, NO ou CO) avec son site d’ancrage dans la moléculen par une impulsion lumineuse femtoseconde.On se rapproche ici des conditions physiologiques, la transition optique permettant de placer le site actif de l’hémoprotéine dans un état instable entrainant la rupture de la liaison site actif-ligand en moins de 50 femtosecondes. Cette méthode aboutit à la synchronisation de l’ensemble des réactions d’un grand nombre de molécules. Il est alors possible de suivre leur comportement pendant la réaction et d’identifier les changements de conformation lors du passage des cols énergétiques. On peut faire une analogie sportive : en suivant l’évolution de la vitesse d’un « peloton » de coureurs cyclistes lors d’une étape du tour de France, on peut retracer le profil de cols et de vallées de l’étape, à condition que les coureurs partent au même instant. Pour un « peloton » de molécules, c’est le Laser femtoseconde qui joue le rôle du « starter » de l’étape.
Le paysage moléculaire dans les premiers instants d’une réaction : la propagation d’un séisme moléculaire
Dans les premiers instants qui suivent la perturbation (dissociation de l’oxygène de l’hème, par exemple), les premiers évènements moléculaires resteront localisés à l’environnement proche du site actif. À une discrimination temporelle dans le domaine femtoseconde, correspond donc une discrimination spatiale au sein de la molécule. Il devient ainsi possible de suivre la propagation du changement de conformation au sein de la molécule. Pour donner un ordre de grandeur, celui-ci s’effectue en effet en première approximation à la vitesse d’une onde acoustique ( environ 1200m/s) qui, traduite à l’échelle de la molécule, est 1200x10-12 soit 12 Å par picoseconde. En 100 fs la perturbation initiale est donc essentiellement localisée au site actif. Nous sommes au tout début du séisme moléculaire. En augmentant progressivement le retard de l’impulsion analyse par rapport à l’impulsion dissociation, il est possible de visualiser les chemins de changement conformationnel de la protéine et d’identifier les mouvements associés au fonctionnement de la macromolécule.
Ce simple calcul montre que la spectroscopie femtoseconde se distingue de manière fondamentale des techniques à résolution temporelle plus faible: il ne s’agit plus d’ obtenir des constantes de réaction avec une meilleur précision, mais l’intérêt majeure des « outils femtosecondes » provient du fait que pour la première fois il est possible de décomposer les évènements à l’origine de ces réactions ou induits par la réaction.
Cette discrimination spatiale associée à une résolution temporelle femtoseconde a un autre intérêt qui est de « simplifier » un système complexe sans avoir à utiliser une approche réductionniste (par coupure chimique) qui peut conduire le biophysicien moléculaire à étudier un sous-ensemble d’un complexe moléculaire dont les propriétés n’auront que peu de choses à voir avec la fonction biologique de l’ensemble.


La compréhension d’un automate moléculaire
Dès le début des années 80, l’approche percussionnelle dans le régime femtoseconde a été développée dans le domaine de la dynamique fonctionnelle des hémoprotéines et en particulier pour l’étude de l’hémoglobine. Cette protéine qui comporte quatre sites de fixation de l’oxygène, les hèmes, est capable d’auto-réguler sa réactivité à l’oxygène : c’est une régulation dite « allostérique ». La régulation allostérique de l’hémoglobine se traduit par le fait que la dissociation ou la liaison d’une molécule d’oxygène entraine une modification d’un facteur 300 de l’affinité des autres hèmes pour l’oxygène. La structure de l’hémoglobine est connue à une résolution atomique à la fois dans l’état ligandé (ou oxyhémoglobine) et dans l’état déligandé (désoxyhémoglobine). De ces travaux on sait que l’hémoglobine possède deux structures stables qui lui confèrent soit une haute affinité (état R) soit une basse affinité (état T) pour l’oxygène. Il s’agissait de déterminer le mécanisme, qui partant de la rupture d’une simple liaison chimique entre oxygène et fer induit un changement conformationel de l’ensemble du tétramère conduisant à distance à une modulation importante de l’affinité des autres sites de liaison.


Le débat de l’époque concernant la transition allostérique dans l’hémoglobine n’avait pas encore décidé du choix entre cause et conséquence au sein de l’édifice moléculaire. Nous connaissions les deux structures à l’équilibre avec une résolution atomique, grâce aux travaux de Max Perutz. Il était connu, même si cela n’était pas encore unanimement admis, que la dissociation de l’oxygène de l’hème entrainait « à terme » un changement conformationnel de ce dernier par déplacement de l’atome de fer en dehors du plan des pyrroles. Deux modèles s’opposaient: ce déplacement était-il la cause ou la conséquence du changement conformationnel impliquant la structure tertiaire et quaternaire de l’hémoglobine ? Dans la première hypothèse, cet évènement était crucial puisque le déclencheur de la communication hème-hème au sein de l’hémoglobine, c’est à dire le processus qui traduisait une perturbation très locale ( rupture d’une liaison chimique en un « basculement » de la structure globale vers un autre état). En discriminant temporellement les évènements consécutifs à la rupture de la liaison ligand-fer, il a été montré que le premier évènement est le déplacement du fer en dehors du plan de l’hème en 300 femtosecondes. Cet événement ultra-rapide constitue une étape cruciale dans la réaction de l’hémoglobine avec l’oxygène. Il contribue à donner à l’hémoglobine les propriétés d’un transporteur d’oxygène en autorisant une communication d’un site de fixation de l’oxygène à un autre. Un événement excessivement fugace et à l’échelle nanoscopique a donc retentissement au niveau des grandes régulations physiologiques : ici l’oxygénation des tissus.
À ce jour, l’essentiel du scénario consécutif à cet événement initial, qui conduit à la communication hème-hème, reste à découvrir. Pour cela il est nécessaire de faire appel à des outils permettant de suivre la propagation de ce « séisme initial » au sein de l’édifice et d’identifier ainsi les mouvements atomiques contribuant au chemin réactionnel. Des nouveaux outils restent à découvrir, certains sont en cours de développement : diffraction RX femtoseconde, spectroscopie infra-rouge dans le domaine THz sont probablement les outils adaptés.
La catalyse enzymatique : la caractérisation des états de transition
Dans son commentaire sur le prix Nobel en « femtochimie », l’éditeur de Nature3 écrit dans le dernier paragraphe : « It seems inevitable that ultrafast change in biological systems will receivre increasing attention ».


Sur quoi se fonde une telle certitude ?
Pour une part, sur une réflexion qui date d’un demi-siècle : celle de Linus Pauling qui était essentiellement de nature théorique. Pauling a proposé que le rôle des enzymes est d’augmenter la probabilité d’obtenir un état conformationnel à haute énergie très fugace ou, en d’autres termes, de stabiliser l’état de transition c’est-à-dire l’état conformationnel conduisant à la catalyse. En d’autres termes, il s’agit d’optimiser l’allure du « peloton » au sommet du Tourmalet. Dans les enzymes comme pour les coureurs, c’est à cet endroit que l’avenir de la réaction se joue, et c’est ici que les enzymes interviennent !
Le préalable à la compréhension du fonctionnement des enzymes est donc la caractérisation des états de transition. Une démonstration expérimentale indirecte a été la production d’anticorps catalytiques- ou abzymes- par Lerner et coll. dans le début des années 80. En effet, suivant le raisonnement de Pauling, les anti-corps « reconnaissent » leur cible épitopique dans leur état fondamental ( c’est à dire au minimum de la surface de potentiel, dans la vallée énergétique) alors que les enzymes reconnaissent leur cible, le substrat, dans son état de transition, au col énergétique. Les anticorps deviendont catalytiques si, produits en réponse à la présence d’une molécule mimant l’état de transition d’un substrat, ils sont mis en présence de ce dernier... : ça marche... plus ou moins bien, mais ceci est une autre histoire.
La caractérisation de cet état de transition est donc un préalable à la compréhension des mécanismes de catalyse mais aussi à la conception d’effecteurs modifiant la réactivité. Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée, l’interprétation des spectres ne pouvant plus être directe, comme dans le cas des molécules diatomiques. La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc, ici aussi, s’attendre à des mouvements dans le domaine femtoseconde.


Il existe une classe d’enzymes pour laquelle la structure de l’état de transition est connue grace à des approches théoriques : ce sont les protéases dont on sait qu’elles favorisent la configuration tétrahédrique du carbone de la liaison peptidique.Cette connaissance de l’état de transition a autorisé une approche rationnelle dans la conception de molécules « candidat-médicament »: les inhibiteurs de protéase. Il n’est donc pas surprenant qu’à ce jour, les seuls médicaments sur le marché -et non des moindres- issus d’une démarche scientifique véritablement rationnelle soient des inhibiteurs de protéases ou de peptidases : inhibiteurs de l’enzyme de conversion (IEC), inhibiteurs de protéase du virus HIV, base de « la tri-thérapie ».
En donnant l’espoir de photographier les états de transition, la femto-biologie ouvre la perspective d’une démarche rationnelle dans la conception d’inhibiteurs spécifiques. Avant qu’une telle possibilité ne soit offerte, il reste néanmoins à surmonter de sérieuses difficultés: le développement d’une méthode plus directe de visulisation des conformations, en particulier par diffraction RX femtoseconde, mais aussi la mise au point de méthodes de synchronisation à l’échelle femtoseconde de réactions enzymatiques au sein d’un cristal.
Filmer les molécules à l’échelle femtoseconde a permis de mettre en évidence un comportement inattendu d’enzymes de la respiration : l’utilisation de mouvements de balancier des atomes au profit d’une grande efficacité de réaction


La vie de tous les organismes aérobies – dont nous sommes – dépendent d’une classe d’enzyme : les oxydases et plus particulièrement pour les eucaryotes, de cytochromes oxydases. Cette enzyme est la seule capable de transférer des électrons à l’oxygène en s’auto-oxydant de manière réversible. Elle est responsable de la consommation de 90 % de l’oxygène de la biosphère.
Un dysfonctionnement de cette enzyme a un effet délétère sur la cellule, en particulier par production du très toxique radical hydroxyle °OH. Au delà d’un certain seuil de production, les systèmes de détoxification sont débordés. Le stress oxydatif qui en résulte peut se traduire par diverses pathologies. On retrouve une telle situation en période post-ischémique dans l’infarctus du myocarde, mais aussi dans des maladies neurodégénératives ou lors du vieillissement.
Cette enzyme catalyse la réduction de l’oxygène en eau à partir d’équivalents réducteur cédés par le cytochrome c soluble. Cette réduction à quatre électrons est couplée à la translocation de quatre protons à travers la membrane mitochondriale. L’oxygène et ses intermédiaires restent liés à un hème (l’hème a3) dans un site très spécifique. Ce site comprend, outre l’heme a3, un atome de cuivre, le CuB. Cet atome joue un rôle important dans le contrôle de l’accès des ligands vers ce site ou vers le milieu. Des ligands diatomiques (O2, NO, CO) peuvent établir des liaisons soit avec le Fer de l’hème a3, soit avec le CuB, mais le site actif parait trop encombré pour accommoder deux ligands.


Des études récentes en dynamique femtoseconde ont permis d’élucider le mécanisme de transfert de ligand (monoxyde de carbone (CO)), de l’hème a3 vers le CuB. Le CO est une molécule de transduction du signal produite en faible quantité par l’organisme, qui inhibe la cytochrome c oxidase par formation d’un complexe heme a3-CO stable. En suivant cette réaction par spectroscopie femtoseconde, il a été possible de mettre en évidence un mécanisme très efficace, et en toute sécurité, de transfert d’une molécule dangereuse pour la vie cellulaire. L’enzyme libère la molécule de CO d’un premier site en lui donnant une impulsion qui oriente sa trajectoire vers le site suivant en la protégeant de collisions avec l’environnement.
Dans ce dernier exemple l’enzyme a atteint un degré de sophistication supplémentaire : outre le franchissement du col énergétique de façon optimale, l’enzyme évite la diffusion d’une molécule dangereuse pour la survie cellulaire, tout en l’utilisant comme messager très efficace !
Vers le décloisonnement des disciplines
Le cinema moléculaire n’en est qu’à ses débuts. Il est essentiellement muet. La filmothèque est à peine embryonnaire, le nombre de plan-séquences ne permet pas encore de révéler un véritable scénario. L’essentiel est donc à venir.
Reconstruire le film des évènements conduisant à la vie cellulaire, les intégrés dans des schémas fonctionnels, va donc constituer l’objectif des prochaines décennies.


Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie de la cellule ou des organes. Le transfert des outils de la physique, et au-delà, l’invention de nouveaux outils, y compris moléculaires, l’émergence de nouveaux concepts, va nécessiter le développement de synergies entre acteurs évoluant jusqu’ici dans des sphères disjointes : biologistes cellulaire et moléculaire, physiciens, chimistes, bioinformaticiens… Dans ce cadre il sera utile de créer les conditions permettant de rassembler en un seul site, l’ensemble des compétences.
1 Femtoseconde : le milliardième de millionième de seconde.
2 Picoseconde : millioniène de millionième de seconde = 1000 femtosecondes.
3 Vol 401,p. 626,14 octobre 1999.

 

VIDEO     canal U       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google