ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LE L H C ...

 

LHC, un défi technologique sans précédent


physique - par Jacques-Olivier Baruch dans mensuel n°358 daté novembre 2002 à la page 68 (2689 mots) | Gratuit
Dans les 27 kilomètres de tunnel du futur LHC, les faisceaux de protons lancés à 7 milliards d'électrons-volts entreront en collision frontale pour recréer des conditions voisines du Big Bang. Les physiciens espèrent vérifier leurs théories, mais s'attendent aussi à quelques surprises. Le projet prend du retard et dépasse les 2 milliards d'euros.

Le pari est encore loin d'être gagné. Mais aujourd'hui, au pied des monts du Jura, près de Genève, à la frontière franco-suisse, les 2 600 physiciens, ingénieurs, informaticiens et techniciens du CERN, le laboratoire européen pour la physique des particules, oeuvrent ensemble pour mettre en oeuvre ce qui sera le plus grand accélérateur de particules au monde : le Large Hadron Collider LHC. Promoteur de ce projet gigantesque, le CERN a promis son ouverture pour l'année 2007.

Bâtir le LHC ? Une tâche difficile, ardue. Huit ans après la décision officielle, le projet a accumulé deux ans de retard et dépassé de 18 % son budget initial de 2,8 milliards de francs suisses environ 2 milliards d'euros. Témoin des difficultés que les ingénieurs et les physiciens du CERN rencontrent dans la mise au point de leur nouvel outil pour sonder la matière. Il faut dire qu'accélérer des centaines de milliards de protons à des vitesses proches de celle de la lumière, les faire se rencontrer 1 034 fois par seconde et analyser ces chocs dont l'énergie avoisine les 14 TeV* en détectant toutes les particules secondaires qui en ressortent, n'est pas une mince affaire sur le plan technologique. Surtout en ces temps de restrictions budgétaires pour les vingt Etats membres du laboratoire européen et cela malgré les apports financiers des Etats-Unis, du Japon, de la Russie, de l'Inde ou du Canada. Mais le LHC ne représente pas moins l'avenir du CERN, a estimé, le 21 juin dernier à Genève, le Conseil du laboratoire européen, qui a mobilisé à cet effet tout le personnel du centre de recherche. Le boson de Higgs, qui véhiculerait la masse des particules, n'a qu'à bien se terrer ! Le LHC pourra, espérons-le, aider les concepteurs de Susy, la théorie supersymétrique, à supplanter le modèle standard de la physique des particules et à résoudre la question de la masse manquante de l'Univers. De même, il pourrait se révéler un outil indispensable aux théoriciens des cordes pour dévoiler au monde les dimensions cachées de l'Univers.

Les physiciens en rêvent, mais ils n'en sont pas encore là. Pour l'heure, les bâtisseurs du LHC doivent faire face à des difficultés technologiques qui n'ont pu être totalement aplanies malgré les très nombreuses études qui se sont succédé depuis le début des années 1980. Quand, en 1994, la décision de construction est prise, le CERN se soucie d'économie : pas d'habitacle sur mesure pour le LHC mais une installation du nouvel accélérateur dans le tunnel du LEP, le collisionneur électron-positon, que l'on démontera. Premier défi technologique remporté par les ingénieurs : depuis février dernier, le tunnel circulaire de 26,659 kilomètres de circonférence, enfoui à environ 100 mètres sous la frontière franco-suisse, est vide après le démontage des derniers éléments du LEP.

Collision de protons

Ce ne seront donc plus des électrons et leurs anti-particules, les positons, qui seront lancés les uns contre les autres à une vitesse proche de celle de la lumière, mais des protons, 1 840 fois plus massifs. Dans le LHC, ils circuleront en sens inverse le long de deux faisceaux séparés qui ne se rejoindront qu'en quatre « places fortes » : les détecteurs ATLAS*, CMS*, ALICE* et LHC-b*. Les deux premiers détecteurs rechercheront le boson de Higgs, tandis qu'ALICE étudiera le plasma de quarks et de gluons né des interactions très énergiques entre des noyaux de plomb. LHC-b, quant à lui, recueillera des données sur l'apparent déséquilibre entre matière et antimatière.

Faire une place à ATLAS et CMS s'est révélé une tâche particulièrement complexe : notamment, les spécialistes du génie civil ont dû travailler alors que le LEP était encore en fonctionnement. Pour loger les deux dispositifs, deux gigantesques cavernes - et quatre puits de descente - ont dû être aménagées à même la molasse jurassienne un mélange de grès et de marne. 450 000 tonnes de déchets ont été évacuées et l'on a dû, parfois, congeler le sol pour éviter les infiltrations des sources souterraines. Les travaux d'excavation de la caverne d'ATLAS - 35 mètres de large, 55 mètres de long sur 40 mètres de hauteur - se sont terminés fin avril dernier. Non sans mal. Car, avec une telle hauteur de plafond, il a fallu creuser la caverne en deux fois ! Les entreprises suisse, allemande et autrichienne qui s'y sont attelées ont d'abord creusé le sol sur 12 mètres afin de pouvoir fabriquer la voûte, constituée de 11 000 tonnes de béton. Avant de continuer à creuser les 28 mètres restants, la voûte a été suspendue par 38 filins d'acier fixés dans des galeries d'ancrage situées 25 mètres plus haut. Reste aujourd'hui à terminer le bétonnage des murs de la caverne sur laquelle la voûte sera fixée définitivement... Et à commencer, à la fin 2003, à descendre les énormes détecteurs.

Supraconducteurs

Les quatre expériences devraient être prêtes pour l'ouverture du LHC en 2007, malgré de nombreux retards pris dans leur construction. Quant à préciser cette échéance... Tout dépendra de l'état d'avancement du coeur battant du nouvel accélérateur, l'anneau « lanceur » de protons. Le choix de ces particules massives, qui seront à la fois arme et cible, a un avantage... et beaucoup d'inconvénients. L'avantage est énorme : l'utilisation des protons permettra aux physiciens d'atteindre l'énergie colossale de 14 TeV par collision à comparer à la limite absolue d'environ 0,2 TeV atteinte par le LEP, le collisionneur circulaire d'électrons et de positons. Mais, revers de la médaille, la masse importante des protons a posé de nombreux problèmes technologiques lorsque l'on a envisagé leur accélération et leur maintien dans un faisceau étroit et circulaire de quelques millimètres de diamètre. Avec des aimants « normaux », la circonférence d'un accélérateur circulaire dévolu à cette tâche aurait dû avoisiner les 120 kilomètres ! Impossible, si l'on ne veut pas faire exploser les coûts. Dans le « petit » anneau circulaire de 27 kilomètres du CERN, la solution passe par la mise en oeuvre de champs magnétiques très puissants 8,33 teslas, susceptibles de dévier la trajectoire des protons de 0,6 millimètre par mètre. Même si cela ne s'est jamais fait à cette échelle, les ingénieurs n'avaient qu'une solution pour ne pas consommer trop d'énergie : les 1 248 aimants dipolaires de 15 mètres de long seront supraconducteurs. Ils n'opposeront ainsi aucune résistance au passage du courant intense requis de 50 ampères.

« Ce sont des objets technologiques extrêmement complexes », prévient le physicien du CERN Daniel Froidevaux. C'est le cas aussi des autres aimants - quadripolaires, sextupolaires ou octupolaires - qui doivent refocaliser les faisceaux de protons ou éliminer les courants de Foucault* induits dans les bobines. Il a fallu du temps - il en faut encore - pour concevoir et fabriquer en série ces dipôles supraconducteurs dont la bobine est constituée de câbles tressés de fils en niobium-titane insérés dans une matrice de cuivre. Pour la première fois dans l'histoire presque cinquantenaire du CERN, les prototypes ont été élaborés en collaboration avec des industriels qui ont évidemment remporté les marchés de leur fabrication. « Cette stratégie nous a permis d'obtenir une qualité très poussée tout en diminuant les coûts », affirme Luciano Maiani, le directeur général du CERN.

Le casse-tête technologique ne s'est pas arrêté là. L'un des aspects les plus ardus de l'entreprise LHC a consisté à se procurer 7 000 kilomètres de fils de bobines et à les tresser en câbles trapézoïdaux. Soit un poids total de 1 200 tonnes, ce qui représente, sur cinq ans, environ 30 % de la production mondiale de ces fils habituellement destinés aux appareils d'IRM imagerie par résonance magnétique nucléaire. Mais la qualité demandée pour l'accélérateur pureté, homogénéité, tressage des brins est bien supérieure. Sans compter que les 1 248 aimants doivent être identiques à 0,01 % près pour toutes leurs caractéristiques. Et, comme si la difficulté n'était pas assez grande, le câble doit être d'un seul tenant sur sa longueur de 650 mètres par aimant. S'il se cassait, comme cela s'est déjà produit, des morceaux d'au moins 165 mètres peuvent néanmoins servir aux câbles des aimants quadripolaires dont les spécifications ont été modifiées, dans ce sens, en 1995 : la récupération a du bon !

Hélium superfluide

Bris de câble ou de machine, problèmes de mise au point, défaut d'approvisionnement des fils, toutes ces raisons ont été invoquées pour justifier le retard d'environ un an pris par les industriels français Alstom-Jeumont, allemand Vaccumschmelze, italien Europa Metali, finlandais Outokumpu avec le Suisse Brugg et américain IGC. « Seul le Japonais Furokawa est ponctuel », précise Philippe Lebrun, le chef de la division LHC au CERN. Arrivés sur le site genevois, les câbles sont vérifiés, assemblés et retournés, avec tôles et divers composants, à Alstom-Jeumont, Noell ou Ansaldo afin qu'ils puissent finir d'assembler les aimants. Ce n'est pas aisé, car, pour cette première application des supraconducteurs pour des courants forts 50 ampères et des champs magnétiques pouvant atteindre 8,33 teslas, les bobines et les masses qui sont à leur contact doivent être immergées dans un bain d'hélium superfluide à 1,9 K - 271,3°C. Mis au point par un labo du CEA à Grenoble, le système de cryogénie est alimenté par une usine installée sur le centre genevois par l'Allemand Linde et le Français Air Liquide qui fournissent le fluide et le matériel acheté aux Tchèques et aux Japonais. Avec ses 27 kilomètres de tuyaux et ses 94 tonnes d'hélium, ce sera le plus grand centre de cryogénie au monde. Ses ingénieurs devront être attentifs au moindre changement de température pour conserver aux aimants leurs propriétés supraconductrices. Auparavant, il aura fallu ausculter les aimants un par un afin d'éviter que des points chauds ne se forment dans les bobines, rompant ainsi la supraconductivité et affaiblissant l'intensité du champ magnétique. Ces défauts sont habituels pour des câbles dont le tressage n'est pas exactement parfait. Avant de les déclarer bons pour le service, les ingénieurs du CERN doivent faire « quencher les aimants », c'est-à-dire provoquer l'apparition de ces points chauds afin que les fils supraconducteurs prennent leur place définitive et idéale. « On escompte bien obtenir 100 % de réussite. Mais on verra à la fin », avance le responsable des tests, Roberto Saban.

Ces tests sur aimants produits en série pour l'anneau accélérateur ne sont pourtant que routine par rapport à la mise en oeuvre de quelques exemplaires bien particuliers : les aimants des grandes expériences ATLAS et CMS. Leur conception a été internationale. Des travaux franco-anglais du CEA, de l'IN2P3 et du Rutherford Laboratory ont posé les bases, tandis que d'autres centres - INFN italien, ITH de Zürich Suisse, Fermilab américain - se sont chargés d'une partie des études de détail. Cette répartition des tâches résulte du système de financement de ces deux grandes expériences. Car, contrairement à l'accélérateur, le CERN n'est pas leur seul bailleur de fonds. Une grande partie de l'argent provient de pays volontairement contributeurs. Ainsi, ATLAS est le fruit du travail de 1 700 scientifiques issus de 150 laboratoires de 34 pays différents. CMS, pour sa part, n'a que 32 pays contributeurs. Un match met en compétition ces deux expériences similaires : il s'agit de rechercher le boson de Higgs et les éventuelles « sparticules » inventées dans le cadre de la théorie supersymétrique SUSY.

D'immenses détecteurs

Le gigantisme des deux installations est à l'image du défi à relever. Avec ses 12 500 tonnes, CMS est aussi massif que la tour Eiffel, aussi grand qu'un immeuble de cinq étages. Comme sa demi-soeur ATLAS, ce monstre ne doit rien perdre des quelque 100 000 particules issues de chaque collision proton-proton. Pour être le plus étanche possible, les énormes masses de métal et les instruments sont jointifs à quelques millimètres près. Une distance qui se réduit à rien, ou presque, quand les masses se déforment sous la force des champs magnétiques de 4 teslas 1 tesla pour ATLAS créés lors du fonctionnement du détecteur. ATLAS comme CMS sont formés de divers instruments installés en pelure d'oignon dans le but de détecter les diverses particules. Au centre, un trajectographe ou « tracker » détermine la trajectoire des particules chargées, leur vitesse, le signe de leur charge électrique et leur temps de vol depuis le point d'interaction. Viennent ensuite les calorimètres hadronique et électromagnétique. C'est par scintillation dans des cristaux transparents de tungstène et d'oxyde de plomb pour CMS, par ionisation dans un mille-feuilles de plomb plongé dans l'argon liquide pour ATLAS que seront détectés les électrons ou les photons issus de la désintégration du boson de Higgs... s'il existe. Seuls les neutrinos et les muons parviendront à s'échapper du système. Pas pour longtemps en ce qui concerne ces derniers. Une dernière couche les identifiera et mesurera leur impulsion et leur charge, tandis que les neutrinos seront comptabilisés par défaut en calculant la différence entre l'énergie de collision et la somme des énergies des particules détectées. Là encore, supraconductivité oblige, le tout est immergé dans un bain glacé à 4,5 K. Différence majeure entre les deux expériences ? Encore les aimants. Celui d'ATLAS est formé de trois fois huit bobines en forme de tore dont les plus grandes mesurent 25 mètres de long, une première mondiale pour la partie externe, et d'un solénoïde plus petit 2 teslas et 2 mètres de diamètre. Celui de CMS est plus classique mais plus robuste que ce qui a été fait auparavant : c'est un unique solénoïde, une grosse bobine de 7 mètres de diamètre fournissant un champ magnétique de 4 teslas. Afin de dissiper la chaleur, son câble de 2,5 kilomètres de long est inséré dans une matrice en aluminium pur à 99,998 %, elle-même enrobée de résine.

Garder la mémoire

Les obstacles ne sont pas seulement technologiques. Ils peuvent être aussi humains. Car un projet d'une telle envergure met à contribution plus de la moitié des physiciens des particules du monde : il faut communiquer, se comprendre, réaliser les documentations explicatives en même temps que les divers instruments. « Le LHC intègre des composants techniques réalisés dans toutes les régions du monde, avec des normes et des savoir-faire différents », écrit Philippe Lebrun [1]. La mémoire technique est un enjeu fondamental dont il a fallu tenir compte dès le commencement : la plupart des physiciens-concepteurs partiront à la retraite avant l'arrêt de leur expérience ! De plus, les méthodes de travail diffèrent d'un pays à l'autre. Ce que les chercheurs connaissent depuis longtemps, les ingénieurs ont dû l'apprendre sur place. « Je reviens de Russie, raconte Jean-Pierre Rifflet, ingénieur au CEA. Outre la langue, les études effectuées ne sont pas conduites de la même façon. Mais on s'y fait grâce à la documentation ». D'où l'importance de la mise en place d'une mémoire du projet, baptisée EDMS Engineering data management system. Elle fera le lien entre les générations : en 2015, par exemple, le successeur d'un ingénieur russe qui a mis au point, au Fermilab américain, un aimant supraconducteur installé au LHC genevois pourra, grâce à ce système, prendre note des divers paramètres de fabrication et des éventuelles modifications et formuler des recommandations.

Avec ses aimants, sa cryogénie, le nombre de chercheurs impliqués dans ses expériences, le CERN aura collectionné les records. Ses concepteurs ont eu aussi la folie des grandeurs... informatiques. Afin de gérer les 1015 octets de données reçus chaque seconde lors du fonctionnement des expériences, il a fallu trouver des systèmes de sélection, de stockage, mais surtout de calcul. Les ordinateurs du CERN ne suffisant pas, les physiciens veulent utiliser tous les ordinateurs de la planète : grâce au concept de grille Grid testé actuellement, chaque événement pourra être analysé par l'un des ordinateurs disponibles dans les laboratoires de la planète les créateurs de l'Internet et beaucoup d'autres spécialistes se sont engagés dans leur mise en réseau. En somme, quand on n'a pas la possibilité de réaliser seul ses projets, autant utiliser les moyens des autres : cette simple loi s'impose à tous, y compris aux nouveaux pharaons des particules.

Par Jacques-Olivier Baruch

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

PHYSIQUE DES PARTICULES

 

Robert Aymar : « Pour une physique des particules européenne »


l'entretien - par Robert Aymar dans mensuel n°373 daté mars 2004 à la page 65 (2245 mots) | Gratuit
Le laboratoire de physique des particules du CERN fêtera cette année son cinquantenaire. Son nouveau directeur général va devoir gérer la fin de réalisation du projet LHC, le grand accélérateur de protons et préparer le futur du laboratoire. Son expérience le fait aussi réagir aux atermoiements concernant le site d'ITER comme aux menaces pesant sur la recherche fondamentale.

La Recherche : Le CERN connaît depuis 1996 une réduction de ses ressources humaines et financières. Il concentre ses moyens sur un seul objectif : le futur accélérateur de particules LHC [1]. Maintenant que vous êtes aux commandes, vous devez appliquer les recommandations que vous avez proposées en 2002 dans le cadre du Comité d'audit externe ERC. Comment allez-vous vous y prendre ?

Robert Aymar : Jusqu'en 2002, la réduction des moyens n'a pas réellement été prise en compte dans le choix de l'ensemble des objectifs expérimentaux. De plus, le financement des surcoûts prévisionnels de la réalisation du LHC est brutalement apparu comme irréalisable dans le calendrier affiché. Les recommandations de l'audit externe concernant la gestion du projet LHC étaient de bon sens. Elles ont été approuvées par le Conseil, et les directions du CERN et du projet ont immédiatement entrepris leur mise en oeuvre. La principale suggestion était de décomposer le projet du LHC en une série de tâches à réaliser et de les confier à des groupes de scientifiques et de techniciens du CERN sous la forme d'un quasi-contrat avec la direction, qui énonce les objectifs à atteindre et indique les moyens agréés comme le calendrier à respecter. Ces tâches sont ensuite décomposées en workpackages successifs, chacun avec un coût prévisionnel, un résultat constatable et une durée, environ trois mois. En décomposant l'ensemble du projet sur toute sa durée en quelques milliers de workpackages, d'une part, on n'oublie rien et, d'autre part, on a une appréciation de tous les instants sur l'état d'avancement de l'ensemble et de la variation éventuelle du coût global. Cette surveillance automatique et transparente fonctionne depuis septembre 2003. Nous avons ainsi, tous les mois, une vision globale des progrès de la réalisation de la future machine, l'accélérateur de protons.

Le personnel s'inquiète d'un retard supplémentaire qui ferait glisser la première exploitation scientifique du LHC en 2008, voire plus loin. Le risque de démotivation n'est-il pas grand ?

Robert Aymar : Les scientifiques s'inquiètent toujours. Dans son rapport, l'ERC a reconnu que techniquement et financièrement la date d'avril 2006 ne pourrait être tenue, qu'il faudrait un an de plus. Tout est prévu pour que, durant l'été 2007, l'ensemble du système soit opérationnel. Mais cette date-là ne dépend pas que du CERN. Des impondérables peuvent survenir et entraîner des retards imprévus : une usine peut prendre feu, un industriel déposer le bilan. Depuis l'année dernière, la production indus-trielle a atteint, avec du retard, des taux de production raisonnables par rapport au débit nécessaire pour arriver juste à temps. Sans accident ou incident, les délais peuvent être tenus, mais nous n'avons aucune marge.

Vous parlez de l'accélérateur de particules. Qu'en est-il des détecteurs qui recueilleront les données ?

Robert Aymar : Les détecteurs ne sont pas de la responsabilité du CERN ; ils sont fabriqués par des centaines d'instituts scientifiques à travers le monde. Contrairement à celle de l'accélérateur de protons, la contribution de ces instituts aux détecteurs n'est pas directement financière mais en nature. C'est pourquoi le déroulement de la construction des détecteurs est beaucoup plus difficile à contrôler. De toute façon, ces détecteurs sont des ensembles de sous-systèmes indépendants ; s'il manque un élément, par suite d'un retard, le détecteur pourra néanmoins enregistrer des données appréciables. L'accélérateur de protons, quant à lui, doit être complet pour pouvoir démarrer.

Votre prédécesseur, Luciano Maiani, a réussi à sauver une ligne budgétaire pour des efforts de recherche et développement R&D, et à maintenir son projet d'un faisceau de neutrinos entre le CERN et l'Italie. Ces efforts seront-ils poursuivis ?

Robert Aymar : Je considère que tous les engagements pris doivent être tenus. Le flux de neutrinos qui partira du CERN pour être analysé dans le tunnel du Gran Sasso en Italie fonctionnera comme prévu en 2006. Le LHC est pour 2007. C'est demain. Quant à la R&D, c'est l'avenir du CERN à plus long terme. À ce sujet, le message de l'ERC est très important. Dans la convention fondatrice du laboratoire, ratifiée en 1954, le Conseil avait deux fonctions : la supervision du laboratoire, mais aussi la coordination, sur toute l'Europe, des programmes de recherche en physique des particules et en physique nucléaire. Cette seconde fonction n'a jamais été réellement entreprise par le Conseil. Vu la difficulté de la tâche, ce n'est pas un oubli. Il n'empêche que la discipline a besoin de cette coordination. Elle peut s'organiser maintenant dans le cadre de la politique proposée par la Commission européenne. L'accord de Lisbonne sur la création de l'Espace de recherche européen permet, par des liens nouveaux créés entre les acteurs européens d'une même discipline, d'atteindre plus facilement la masse critique qui augmente l'efficacité de chacun. Cette politique est une excellente idée. Pour ce faire, on a besoin d'une coordination qui soit gérée directement par les institutions scientifiques concernées. En physique des particules, c'est le Conseil du CERN qui doit en être chargé. Pour cela, des représentants du laboratoire doivent collaborer partout avec leurs collègues européens. Nous n'avons pas, actuellement, de ressources humaines disponibles pour remplir totalement cet objectif. Il faudra néanmoins y parvenir. C'est un besoin stratégique pour le laboratoire comme pour l'ensemble de la communauté.

Quel sera le futur grand accélérateur de particules ? Le Département de l'Énergie DOE américain a classé ses priorités pour les vingt ans à venir [2]. Le projet de réacteur expérimental de fusion nucléaire ITER est classé en tête, mais aucun grand instrument de physique des particules n'apparaît dans les dix premiers. La communauté scientifique n'en a-t-elle pas besoin ?

Robert Aymar : Dans la liste du DOE, la demande des physiciens d'un accélérateur linéaire de particules, collisionneur d'électrons et de positrons, un Linear Collider, n'arrive qu'en 13e position. Il est envisagé un maximum de financement autour de 2015 après une décision de construction probablement en 2010-2012. Néanmoins, l'Europe n'a pas fait le même exercice prévisionnel que les États-Unis. Seul le Research Council britannique s'y est essayé. Cela permet de caler les idées, même si cela n'engage à rien. C'est une façon de focaliser les énergies. Il est certain qu'il n'y aura qu'une seule machine à l'échelle mondiale. Pour le CERN aussi, le collisionneur linéaire est clairement affiché comme priorité. C'est le complément du programme scientifique du LHC.

Beaucoup de projets de collisionneur linéaire fleurissent dans le monde. Au CERN, vous travaillez sur le CLIC, le Compact Linear Collider...

Robert Aymar : Effectivement, le CERN développe depuis plus de quinze ans un concept original, le collisionneur linéaire électrons-positrons permettant d'atteindre une énergie de plusieurs TeV 1012 électronvolts. Certains scientifiques considèrent qu'une machine de 500 GeV 5.1011 électronvolts serait suffisante, mais d'autres pensent qu'il faut aller au-delà de 1 TeV, car cela donnerait des possibilités de découvertes beaucoup plus grandes. Les développements technologiques réalisés aux États-Unis, en Europe ou au Japon sont tous limités entre ces deux valeurs. Il n'y a que la proposition du CERN, le CLIC, qui permet d'aller jusqu'à 4 ou 5 TeV, si la preuve est apportée de sa faisabilité complète. Certains poussent à décider, dès maintenant, dans un cadre mondial, les spécifications du collisionneur et à limiter l'énergie à moins de 1 TeV dans le centre de masse. Si pour une raison pertinente, financement ou attente des résultats du LHC, la décision de construction du collisionneur devait n'être prise qu'après 2010, il serait souhaitable que la preuve opérationnelle du fonctionnement du concept CLIC soit disponible à cette date, de manière à choisir le concept le plus adapté et l'énergie la plus susceptible de nouvelles découvertes. C'est pourquoi il a été proposé au Conseil du CERN, en décembre 2003, d'accélérer le développement expérimental du CLIC de manière à confirmer la confiance dans le concept en temps utile, soit en 2009. La contribution des États membres du CERN pourrait être « à la carte », comme ce qui se fait pour les détecteurs, dans lesquels les pays intéressés mettent des forces en commun.

Les grands projets demandent la coopération des grandes nations. Au CERN, à côté des pays européens, les États-Unis, le Japon et la fédération de Russie ont un statut, même si ce n'est que celui d'observateur et non de décideur. Votre prédécesseur a signé, début décembre, un accord de participation de la Nouvelle-Zélande au projet LHC. S'oriente-t-on vers un CERN mondialisé ?

Robert Aymar : Le CERN est déjà un centre mondial. Ce qui se fait ici a attiré l'intérêt de tous les physiciens des particules du monde. Il faut poursuivre cette démarche. Pas seulement parce qu'elle permet de bénéficier de moyens financiers supplémentaires, mais parce que le CERN a toujours eu un rôle politique. Il a permis que des relations scientifiques et humaines de bonne qualité soient établies et maintenues entre des pays que des politiques séparaient solidement.

Ces relations préliminaires ont ensuite permis des rapprochements, puis des coopérations nationales. Nous avons collaboré avec des scientifiques de l'Union soviétique bien avant la chute du rideau de fer et de la Chine avant qu'elle soit acceptée dans la communauté internationale. Ce rôle du CERN au bénéfice de l'humanité est très important, et nous devons collaborer avec les scientifiques de tous les pays qui le souhaitent et qui soutiennent l'existence d'une communauté nationale de physique des particules. Mais que tous les pays deviennent des États membres me semble impossible. La gestion du CERN deviendrait aussi difficile que celle de l'ONU.

Le CERN doit rester européen au sens le plus large, avec des collaborations multilatérales quasi permanentes pour monter différents projets et les faire vivre.

Nous avons un exemple de collaboration qui achoppe. C'est ITER. Vous avez été, jusqu'en septembre dernier, le directeur de cet ambitieux projet de réacteur expérimental de fusion nucléaire. Que pensez-vous des derniers atermoiements ?

Robert Aymar : La recherche en physique des plasmas et son application à la fusion nucléaire existent depuis quarante ans. Les résultats ont considérablement progressé ces quinze dernières années, mais tout n'est pas encore compris. On ne peut pas encore modéliser tous les détails du fonctionnement physique d'un réacteur, car dans le plasma très chaud se produisent des turbulences non linéaires. Néanmoins, les performances, réalisées sur les différentes machines, qui couvrent trois ordres de grandeur, peuvent être rassemblées dans une seule loi expérimentale. Ce qui ne veut pas dire que l'extrapolation à la taille d'ITER continuera à suivre la même loi, mais je pense que le risque que cela ne fonctionne pas est très faible. Les valeurs des paramètres physiques individuels à atteindre sont garanties par les expériences actuelles ; elles permettent d'assurer l'énergie récupérée par rapport à celle injectée, ainsi que la durée de fusion réalisée.

Avec ITER, le gain en énergie sera d'au moins un facteur dix. La grande différence avec les expériences précédentes est que les performances et l'évolution du plasma d'ITER seront contrôlées par la source d'énergie de fusion interne et non plus par celle injectée de l'extérieur. ITER est donc une étape indispensable si l'on veut utiliser un jour la fusion. De plus, les scientifiques sont prêts ; c'est le moment d'y aller, même si l'on aurait pu le faire il y a six ou sept ans. J'ai quitté le projet ITER le 1er septembre dernier, en m'imaginant que tout était bien préparé pour une décision simple après deux années de négociations internationales. Et puis tout a été remis en question, probablement par un mélange entre des intérêts politiques à court terme et des intérêts scientifiques à très long terme. Tout était organisé pour que la décision soit prise à l'été 2003, mais vous avez vu ce qui s'est passé.

La recherche française est en crise. En particulier, le Dapnia*, le département de recherche fondamentale du CEA, que vous avez créé et organisé pendant quatre ans, est menacé. Quelle est votre analyse ?

Robert Aymar : L'existence de la recherche fondamentale au CEA est un résultat de l'histoire, car elle n'a pas été proposée initialement. Mais les décideurs ont vite compris qu'il n'y a aucune chance de réussir à maintenir un organisme d'excellence en recherche appliquée ou focalisée sans un support important de la recherche fondamentale. L'intérêt d'une recherche fondamentale forte a toujours été très grand au CEA, à condition d'accepter qu'elle irrigue la recherche appliquée. C'est ce que j'ai voulu faire lorsque j'y étais directeur de la recherche fondamentale.

L'idée de supprimer cette recherche sous la contrainte de difficultés financières toujours contingentes est une erreur fondamentale. Que des contraintes budgétaires conduisent à réduire les moyens de tel ou tel secteur pendant un certain temps, c'est normal. Ce sont des décisions difficiles à prendre, il y en aura toujours. Partout, que ce soit au CERN, au Dapnia ou à l'IN2P3*, il faut être focalisé, être visible sur des objectifs importants et reconnus.

Le but n'est pas d'orienter les recherches, mais d'atteindre une masse critique sur un sujet donné. De même, si les ingénieurs et les techniciens du CEA sont impliqués dans de nombreuses expériences à la fois, il peut être facile de limiter le nombre de coopérations aux expériences et ainsi de se séparer logiquement de certaines ressources humaines. Ce serait encore une erreur. Pour être plus efficace, il faudrait rassembler les moyens existants sur les objectifs les plus importants. En période de vaches maigres, être visible est indispensable pour être reconnu et ne pas mourir.

Propos recueillis par Jacques-Olivier Baruch

Photos : Guillaume Atger

Par Robert Aymar

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES ATOMES FROIDS

 

La preuve par les atomes froids


dossier spécial - par Frédéric Chevy dans mensuel n°393 daté février 2006 à la page 70 (2676 mots) | Gratuit
À quoi pourraient servir les gaz d'atomes refroidis à très basse température où, entre autres comportements étranges, la viscosité est nulle ? À fabriquer un nouveau type d'ordinateur, ont montré des physiciens en s'appuyant sur des travaux engagés depuis une dizaine d'années.

Comment se comportent les noyaux atomiques, les étoiles à neutrons ou encore les matériaux supraconducteurs qui

conduisent l'électricité sans perte d'énergie ? Pour répondre à cette question, les physiciens butent sur un problème : les calculs concernant ces systèmes composés d'un grand nombre de particules en interaction sont d'une énorme complexité. Même les ordinateurs les plus puissants sont incapables de les effectuer en des temps raisonnables.

Pour contourner les obstacles posés par ces systèmes à « n-corps quantiques », une approche consisterait à simuler leur comportement avec des systèmes physiques modèles, en réalisant ce qu'on appelle un « calculateur analogique quantique ». Depuis quelques années, les physiciens étaient de plus en plus nombreux à penser que des gaz d'atomes refroidis à quelques milliardièmes de degrés au-dessus du zéro absolu constitueraient d'excellents candidats. Cette intuition a été confirmée, en juillet 2005, par les travaux de Wolfgang Ketterle et son équipe au MIT. En identifiant un nouvel état de la matière où la viscosité est nulle, ils ont franchi un premier pas vers la réalisation d'un simulateur quantique, laissant poindre la résolution d'autres problèmes fondamentaux de la physique [1] .

Calcul analogique
Les calculateurs analogiques sont fondés sur un principe foncièrement différent de celui des ordinateurs que nous utilisons aujourd'hui. Ces derniers sont des dispositifs programmables qui, pour résoudre un problème donné, réalisent une série d'opérations élémentaires « ET », « OU », « NON », etc.. Leur nombre est d'autant plus grand que l'on souhaite un résultat précis. Or, pour satisfaire cette exigence, le temps de calcul peut parfois excéder la durée de vie d'un chercheur ! Cette difficulté ne se pose pas pour les calculateurs analogiques dont le principe consiste à résoudre un problème mathématique en s'appuyant sur un système physique qui obéit à la même équation : des résultats de mesures sont utilisés pour répondre à la question initiale. Pour un ordinateur analogique, le temps de calcul correspond ainsi à la durée de la manipulation. Et la précision n'est limitée que par celle des instruments de mesure.

Historiquement, le calcul analogique préexiste au calcul numérique. Son origine est même très ancienne. Vers - 100 avant notre ère, par exemple, la machine dite d'Anticythère simulait la marche apparente du Soleil et de la Lune. Constitué d'une vingtaine de roues dentées, d'axes, de tambours et d'aiguilles mobiles, ce mécanisme était l'ancêtre des horloges astronomiques du Moyen Âge et de la Renaissance, comme celle d'une douzaine de mètres de haut que l'on peut toujours admirer dans la cathédrale de Strasbourg.

Polyvalence du numérique
Pendant des siècles, les calculateurs analogiques ont été utilisés pour résoudre des problèmes divers. Ainsi, dans les années 1930, l'armée américaine calculait encore les trajectoires balistiques avec des ordinateurs analogiques mécaniques. Mais en dépit de leurs performances en termes de temps de calcul, ces machines présentaient un inconvénient de taille : leur manque de souplesse. On ne pouvait les utiliser que pour résoudre un seul type de problème. Après la Seconde Guerre mondiale, ce concept fut progressivement abandonné au profit des ordinateurs numériques, programmables et beaucoup plus polyvalents, avec le succès que l'on sait.

Quelques physiciens, comme le Prix Nobel Richard Feynman, continuèrent de penser que l'ordinateur analogique n'avait pas dit son dernier mot : devant les difficultés posées par l'étude des systèmes à n-corps quantiques, il constituerait un atout précieux [2] . Mais les contraintes étaient très fortes. Le système ne devait contenir aucune impureté de manière à correspondre le plus exactement possible aux modèles théoriques. Et tous les paramètres physiques, en particulier l'intensité des interactions entre les constituants, devaient pouvoir être contrôlés afin de simuler le comportement d'autres systèmes physiques. Faute

de candidats valables, l'idée de Feynman resta temporairement sans suite.

Il fallut attendre l'essor des gaz d'« atomes froids » pour qu'une piste crédible se révèle enfin. Dans les années 1980, grâce à la lumière laser, les physiciens avaient appris à refroidir des gaz à des températures jamais atteintes par l'homme. Les initiateurs de cette technique, Steve Chu, de l'université Stanford, Claude Cohen-Tannoudji, de l'École normale supérieure, et William Phillips, du National Institute of Standard and Technology, obtinrent le prix Nobel de physique en 1997. Si les atomes froids apparaissaient comme de si bons candidats pour la réalisation d'un simulateur analogique quantique, c'est parce que leur très basse température ainsi que leur faible densité permettent un contrôle quasi total des propriétés physiques du gaz. Et, puisque dans de telles conditions les atomes se déplacent lentement, on peut effectuer des mesures d'une très grande précision, comme le prouvent les dernières générations d'horloges à atomes froids : à ce jour, elles fournissent les étalons de fréquence, et donc de temps, les plus précis au monde.

Un prototype à portée de main
Dans la pratique, le paramètre physique le plus difficile à moduler sur une large gamme était l'interaction entre particules. En 1999, l'observation d'un phénomène quantique appelé « résonance de Feshbach * » permit de passer outre cette difficulté : en utilisant des champs magnétiques, les physiciens apprirent à contrôler la force des interactions entre les atomes froids [3] . Cette découverte laissa penser au groupe de théoriciens dirigés par Ignacio Cirac et Peter Zoller, de l'université d'Innsbruck, en Autriche, qu'un prototype d'ordinateur analogique était à portée de main. Ils réussirent à convaincre plusieurs groupes de théoriciens et d'expérimentateurs, issus de l'optique quantique, la physique atomique, la physique des solides et la physique nucléaire, de combiner leurs talents et de se lancer dans cette aventure.

La validité de l'approche analogique devait d'abord être testée dans la situation la plus simple, en l'occurrence un système contenant une seule espèce d'atomes. À très basse température, on savait que le comportement d'un groupe de particules était dominé par une propriété quantique fondamentale, le « spin », qui, en quelque sorte, décrit la vitesse de rotation de chaque particule sur elle-même à la manière d'une toupie. Le spin ne peut pas prendre de valeurs quelconques : il peut être soit entier 0, 1, 2, etc., soit demi-entier 1/2, 3/2, etc.. Dans le premier cas, la particule est appelée « boson », dans le deuxième, c'est un « fermion ». Or, contrairement aux bosons comme les photons, par exemple dont le comportement était relativement bien compris, les fermions posaient de multiples questions qui résistaient aux spécialistes du domaine. Il parut donc opportun de développer un ordinateur analogique utilisant des atomes fermioniques.

L'une des questions ouvertes concernait l'existence et la nature de la superfluidité des systèmes fermioniques, un état où la matière s'écoule sans frictions du fait de sa viscosité nulle. Cette propriété était habituellement associée aux particules bosoniques, car celles-ci ont tendance à se placer dans le même état énergétique. En 1924, Albert Einstein avait montré qu'il existait une température au-dessous de laquelle les bosons s'accumulaient dans l'état de plus basse énergie, formant ce que l'on nomme aujourd'hui un « condensat de Bose-Einstein » CBE. Dès les années 1930, le caractère superfluide de ce condensat avait pu être démontré dans l'hélium liquide. Plus récemment, en 1995, les premiers condensats de Bose-Einstein gazeux ont été observés par le groupe d'Eric Cornell et Carl Weinman, de l'université du Colorado, et par celui de Wolfgang Ketterle. Un tour de force expérimental qui est à l'origine des avancées les plus récentes en physique des atomes froids, et qui valut à ces physiciens d'être récompensé par le prix Nobel en 2001.

Contrairement aux bosons, les fermions sont « individualistes » : ils ne peuvent occuper à deux le même état énergétique. Pour placer des fermions, comme les électrons, par exemple, dans un piège, il est nécessaire de remplir un à un les niveaux d'énergie en commençant par le plus bas [fig. 1] : l'« énergie de Fermi » est alors associée au dernier état peuplé. En raison du comportement individualiste des fermions, on pourrait penser qu'il n'existe pas d'état superfluide dans un système composé de ce type de particules. Cette hypothèse était pourtant invalidée par l'existence des métaux supraconducteurs qui étaient connus depuis le début du XXe siècle, où la disparition de la résistance électrique est analogue à la perte de viscosité. Dans les métaux, les physiciens américains John Bardeen, Leon Cooper et John Schrieffer ont démontré dans les années 1950 que l'état supraconducteur résultait de l'appariement des électrons entre eux.

Interactions attractives
Or, lorsque deux particules s'associent pour former une paire, leurs spins peuvent s'ajouter ou se soustraire, mais celle-ci possède toujours un spin entier : c'est donc un boson. En formant une paire, des fermions soumis à des interactions attractives sont donc susceptibles de former un état superfluide. C'est la théorie dite « BCS », dont le domaine de validité était restreint aux interactions faiblement attractives entre fermions.

Cette théorie pouvait-elle être étendue à tout régime d'interaction ? Vers le début des années 1980, Philippe Nozières, Anthony Leggett et Stefan Schmitt-Rink en avaient fait l'hypothèse en se fondant qualitativement sur le fait que la distance entre les atomes d'une paire devait être d'autant plus faible que les interactions entre particules étaient attractives [4] . Pour des interactions fortes, on s'attend donc à obtenir des paires de très petite taille. Celles-ci peuvent alors être considérées comme des particules ponctuelles, ce qui nous ramène à la théorie d'Einstein appliquée à un gaz de molécules bosoniques. Lorsqu'on réduit l'intensité des interactions, la taille des paires augmente. Et lorsque l'attraction devient extrêmement faible, la distance entre deux particules d'une même paire devient bien plus grande que la distance entre deux paires. Nozières, Leggett et Schmitt-Rink retrouvaient ainsi les paires de Cooper telles qu'elles avaient été décrites, dans les années 1950, par Bardeen, Cooper et Schrieffer [fig. 2] .

L'argument précédent était relativement solide dans les régimes d'interactions très fortes ou très faibles, puisqu'on pouvait leur appliquer soit la théorie d'Einstein soit la théorie BCS. La situation était nettement plus confuse dans le régime d'interactions intermédiaire. En effet, les interactions y étaient trop importantes pour traiter le gaz comme un groupe de fermions sans interactions, et elles étaient trop faibles pour traiter les paires comme des particules ponctuelles. Or, d'un point de vue aussi bien théorique qu'expérimental, ce régime était le plus intéressant à étudier puisque celui-ci décrit des systèmes aussi divers que les étoiles à neutrons, l'un des stades ultimes de l'évolution d'une étoile, les matériaux supraconducteurs à haute température critique, dont l'interprétation théorique est controversée et dont les enjeux économiques sont potentiellement considérables, ou encore le plasma de quarks et de gluons, un état qui se serait formé quelques millionièmes

de secondes après le Big Bang !

Pour trancher entre l'hypothèse de Nozières, Leggett et Schmitt-Rink et d'autres modèles qui prédisaient notamment une transition non continue et un comportement instable dans le régime intermédiaire, la réponse ne pouvait venir que d'une résolution exacte du problème : soit en mobilisant des ressources informatiques très puissantes, soit, dans l'optique d'un calcul analogique en la

testant sur un système pour lequel il serait possible de faire varier l'intensité des interactions.

L'approche analogique a commencé à porter ses fruits en 2003 : des condensats moléculaires composés de fermions ont été observés presque simultanément par Rudolph Grimm, à Innsbruck, et Deborah Jin, à Boulder [5] . Mettant à profit les connaissances acquises sur les résonances de Feshbach, la transition CBE-BCS a ensuite pu être explorée. En accord avec les prédictions de Leggett, Nozières et Schmitt-Rink, un nuage d'atome pour toutes les intensités d'interactions a été conservé intact, sans qu'aucune des

instabilités prédites par les modèles concurrents ne se manifeste.

Suite à ce premier résultat qualitatif, une période d'activité expérimentale intense permit de caractériser plus précisément le régime de transition. L'existence d'un appariement entre fermions a pu être démontrée, et l'énergie du gaz entre le condensat de molécules et l'état BCS a été établie. Il s'avère que l'énergie de chaque particule est proportionnelle à l'énergie de Fermi du système. Et la constante de proportionnalité, que l'on note par la lettre grecque prononcez xi est un nombre « universel », au même titre que par exemple. Autrement dit, elle ne dépend pas du système physique auquel on applique ce modèle de fermions en interactions, qu'il s'agisse d'un gaz d'atomes froids ou d'une étoile à neutrons !

Tourbillons quantiques
En 2004, notre groupe de l'École normale supérieure a déterminé expérimentalement ce paramètre dans le régime intermédiaire en ouvrant brusquement le piège servant à confiner les atomes [6] . Le gaz « explose », et s'étend d'autant plus rapidement que que son énergie est importante.Ainsi, en mesurant le rayon du gaz après une milliseconde, nous avons pu remonter à une valeur de . Celle-ci était en profond désaccord avec la valeur prédite par Nozière, Leggett et Schmitt-Rink. Cependant, leur calcul était sujet à caution puisqu'il avait été réalisé en dehors du cadre de validité de la théorie BCS.

En travaillant sur un très petit nombre de fermions une trentaine, Vijay Pandharipande, de l'université d'Urbana-Champaign, a réalisé une simulation informatique numérique qui semble confirmer nos mesures [7] . D'autres simulations prenant en compte

plusieurs dizaines de milliers de particules, plus

réalistes et donc plus pertinentes, sont actuellement en cours. Elles nécessiteront une année de calcul,

et mobiliseront les plus puissants ordinateurs branchés en réseau, ce qui souligne la pertinence de l'approche analogique.

Mais en dépit des résultats et d'indices expérimentaux obtenus depuis 2003, il manquait encore une preuve directe de l'existence d'un état superfluide dans la transition CBE-BCS. Celle-ci est venue au printemps 2005 avec les expériences

de mise en rotation

de gaz de fermions dans le régime intermédiaire réalisées par le groupe de Ketterle. Lorsqu'un fluide classique, comme de l'eau par exemple, est placé dans un seau en rotation, la friction avec les parois entraîne le liquide : celui-ci se met à tourner « en bloc » avec le seau. Or, du fait de l'absence de viscosité dans l'état superfluide, une telle situation ne peut se produire. À la place, des tourbillons se forment. Ils ont le même diamètre et se manifestent par le trou qu'ils percent dans le nuage, puisque la force centrifuge rejette les atomes de leur centre. De tels tourbillons avaient été observés dans l'hélium superfluide par Richard Packard, de l'université de Californie, en 1974, et dans des gaz de bosons, par notre groupe, en 2001.

Dans l'expérience de Ketterle, des atomes de lithium sont piégés par un faisceau laser. Le gaz prend la forme d'un cigare allongé dans la direction du faisceau voir ci-dessus . Un deuxième faisceau permet de mettre le gaz en rotation. Lorsque sa vitesse est suffisament grande, des tourbillons apparaissent. Ils s'organisent selon un réseau triangulaire connu sous le nom de « réseau d'Abrikosov » [8] . Si l'existence des tourbillons résulte bien des lois de la mécanique quantique, le réseau d'Abrikosov est une conséquence d'effets hydrodynamiques et sa structure est le produit de deux forces en compétition : la poussée d'Archimède, qui tend à ramener chaque tourbillon vers le centre du piège, et la force de Magnus * , qui repousse les tourbillons tournant dans le même sens. Caractéristique du régime superfluide, l'observation de tourbillons dans un gaz de fermions montre bien que le nuage reste superfluide sur toute la transition CBE-BCS.

L'élucidation du comportement d'un gaz de fermions monoatomiques constitue un pas important vers l'élaboration d'un simulateur quantique capable d'étudier des systèmes composés d'atomes différents et dans des situations aussi variées que possible. Un enjeu important sera d'isoler les problèmes abordables ainsi que le système expérimental le plus polyvalent. Actuellement à l'étude, la possibilité de piéger des gaz d'atomes froids dans des réseaux optiques obtenus par l'interférence de plusieurs lasers ouvre des perspectives prometteuses.

EN DEUX MOTS Dans le monde quantique, celui de l'infiniment petit, les interactions

entre particules peuvent mener à des calculs

très complexes. Tellement que la puissance des ordinateurs ne suffit pas à les comprendre. Pour s'affranchir de cette difficulté, les physiciens cherchent à mettre au point un calculateur analogique

à l'aide d'atomes ultra-froids qui simuleraient

le comportement de particules en interaction. Un premier pas a été franchi au printemps 2005 par l'équipe du physicien allemand Wolfgang Ketterle.

Par Frédéric Chevy

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

NEUTRONS

 

Les sauts quantifiés des neutrons


et aussi - par Cécile Michaut dans mensuel n°353 daté mai 2002 à la page 16 (1127 mots) | Gratuit
Einstein, père de la relativité générale, qui décrit la gravitation, et important contributeur à l'élaboration de la mécanique quantique, ne s'en est jamais satisfait : les deux principales théories physiques du XXe siècle sont incompatibles. Cela n'empêche toutefois pas la réalisation d'expériences où les deux phénomènes se manifestent simultanément.

Prenez une balle et faites-la rebondir sur le sol. La hauteur des rebonds dépend évidemment de l'énergie que vous donnez à la balle, et diminue progressivement, sans limite théorique : une balle bien choisie pourrait rebondir à seulement quelques micromètres, voire quelques nanomètres. En revanche, si vous remplacez la balle par une particule élémentaire, vous n'obtiendrez que des rebonds à des hauteurs bien précises, qui ne dépendent que de la masse de la particule : 15 micromètres au minimum pour un neutron*. C'est ce que vient de montrer une équipe franco-germano-russe, dirigée par Valery Nesvizhevsky à l'institut Laue-Langevin de Grenoble1.

Pourquoi le neutron ne rebondit-il pas à n'importe quelle hauteur ? Parce qu'il est très petit, et qu'il obéit aux lois de la mécanique quantique. En particulier, son énergie dans un champ de force* ne peut prendre que des valeurs bien précises : elle est quantifiée. Ce phénomène avait été observé à maintes reprises pour les trois autres forces fondamentales de l'Univers : électromagnétique, nucléaire faible et nucléaire forte. Par exemple, les électrons plongés dans le champ électromagnétique créé par le noyau d'un atome ne peuvent avoir que des énergies bien définies. On l'observe lorsque l'on chauffe un élément chimique : il émet des raies de lumière, à des fréquences précises, correspondant aux passages d'électrons d'une énergie à une autre2. Mais c'est la première fois que la quantification de l'énergie est associée à la gravitation.

Force faible. Le choix de Valery Nesvizhevsky et ses collègues s'est porté sur le neutron, notamment à cause de sa neutralité électrique. Il n'est presque pas soumis aux forces électromagnétiques, qui sont infiniment plus intenses que la gravité et masquent généralement les effets de celle-ci dans les expériences de physique des particules dans certaines conditions, le neutron subit tout de même l'influence du champ magnétique.

Toutefois, habituellement, les faisceaux de neutrons ne sont pas non plus piégés par le champ de gravité terrestre : les particules vont si vite qu'elles ne retombent jamais sur Terre. Pour observer les effets quantiques dus à la gravitation terrestre, les physiciens de Grenoble ont donc utilisé un faisceau de neutrons extrêmement ralentis à environ 8 mètres par seconde. Ils ont fait pénétrer ceux-ci entre deux surfaces horizontales : la surface inférieure réfléchit tous les neutrons qui tombent dessus, tandis que celle située au-dessus les absorbe.

Des neutrons traversent alors ce dispositif en rebondissant. Du moins tant que la surface absorbante, dont la hauteur est variable, est assez haute. Car dès qu'elle se trouve à moins de 15 micromètres, plus aucun neutron ne passe : ils sont tous absorbés. Autrement dit, les neutrons ne peuvent pas rebondir à moins de 15 micromètres : leur énergie dans le champ de gravitation est quantifiée.

Un tel résultat était attendu. L'énergie correspondant à ce saut minimal est même calculable par un étudiant : 1,41 pico-électronvolt, mille milliards de fois plus faible que l'énergie d'un photon de lumière visible. La performance réside dans la précision de l'expérience, qui a détecté un phénomène aussi ténu. Les sources potentielles d'erreurs expérimentales sont nombreuses et, dans le faisceau source, assez peu de neutrons possèdent la bonne énergie pour pénétrer dans le dispositif. Les physiciens ont donc dû accumuler énormément de données pour obtenir un résultat sûr.

Sauts énormes. Si l'énergie du saut est très faible, sa hauteur, elle, peut surprendre les habitués de la mécanique quantique. Ces 15 micromètres l'épaisseur d'une feuille d'aluminium alimentaire sont gigantesques par rapport aux distances généralement rencontrées dans ce domaine : la distance minimale entre le noyau de l'atome d'hydrogène et son électron est, par exemple, 300 000 fois plus petite. En outre, d'autres rebonds, plus élevés, sont possibles, aussi à des hauteurs bien précises. Et sur la Lune, où la gravitation est plus faible, le rebond minimal serait environ deux fois plus grand.

Ces effets quantiques de la gravitation ne se limitent bien sûr pas aux neutrons : l'énergie de tous les objets soumis à un champ gravitationnel est quantifiée. Les niveaux diffèrent toutefois selon la masse. Ainsi, plus une particule est massive, plus ses niveaux d'énergie sont resserrés. Pour un objet macroscopique comme une balle, on passe continûment de l'un à l'autre, et le mouvement n'est pas limité. En revanche, Valery Nesvizhevsky annonce qu'« une prochaine étape sera d'étudier ces niveaux pour des atomes très ralentis ». Contrairement aux neutrons, qui se désintègrent en moyenne au bout d'un quart d'heure, les atomes ont une durée de vie quasi illimitée. En les gardant très longtemps dans le dispositif, les physiciens obtiendront des résultats bien plus précis.

Théories inconciliables. Cette expérience permettrait-elle de réconcilier les deux grandes théories physiques du XXe siècle, notoirement incompatibles, la mécanique quantique et la relativité générale, qui décrit la gravitationI ? Pas directement : dans l'expérience de Valery Nesvizhevsky et ses collègues, le comportement de la matière est quantique, mais celui du champ gravitationnel, lui, ne l'est pas. Dans une théorie de la « gravitation quantique », encore à construire, la gravitation serait véhiculée par des particules appelées gravitons, analogues aux photons pour la lumière. Toutefois, selon Valery Nesvizhevsky : « La gravitation quantique requiert l'échange de gravitons entre niveaux d'énergie gravitationnels. En observant ces niveaux d'énergie, nous avons déjà réalisé un premier pas. »

Bien qu'ils confirment des phénomènes prévus, les résultats des physiciens grenoblois soulèvent des interrogations. Car, formellement, ils remettent en cause des applications du principe d'équivalence, énoncé par Galilée, et selon lequel la masse gravitationnelle qui intervient dans les phénomènes de gravitation est égale à la masse inertielle utilisée lorsque l'on applique une force sur une masse, par exemple pour la mettre en mouvement. L'une des conséquences de ce principe est en effet que tous les objets tombent de la même façon, quelle que soit leur masse. Or, nous venons de voir que la chute des objets se fait par paliers dépendant de la masse. « Aujourd'hui, il s'agit plus d'une reformulation du principe d'équivalence, pour tenir compte de la quantification, que d'un vrai changement dans la théorie », relativise Valery Nesvizhevsky. Mais le principe d'équivalence, qui n'a jamais été testé dans le domaine quantique, n'a même été vérifié qu'avec une précision de 0,1 % à 1 % dans le domaine classique. D'où l'importance de mesures plus précises pour confirmer que l'action d'une force et celle de la gravitation sont bien équivalentes.

Ce n'est pas rien : cette équivalence est l'un des postulats fondateurs de la théorie de la relativité générale bâtie par Einstein, pour qui la gravité n'est qu'une accélération. Ainsi, paradoxalement, la mécanique quantique, incompatible avec la relativité générale, permettrait de confirmer les fondements de celle-ci !

Par Cécile Michaut

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google