ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

NEUTRINOS ...

 

Paris, 25 septembre 2014


Inauguration du deuxième détecteur de neutrinos de l'expérience Double Chooz


Un second détecteur de neutrinos vient d'être édifié par le CNRS et le CEA à proximité de la centrale nucléaire de Chooz (Ardennes). Ses mesures complèteront celles du premier détecteur, installé depuis cinq ans, afin d'étudier, dans le cadre de l'expérience Double Chooz, les caractéristiques des neutrinos, ces particules élémentaires presque insaisissables produites en abondance notamment dans le Soleil et dans les réacteurs nucléaires. Construit à 400 mètres du cœur des réacteurs de la centrale, ce second détecteur est inauguré le 25 septembre 2014 en présence de représentants du CNRS et du CEA, et des autorités locales, qui soutiennent activement cette implantation.
Après sa mise en service au cours de l'automne, le détecteur captera les neutrinos produits dans les cœurs des deux réacteurs de la centrale, situés à 400 mètres. Ces données seront comparées à celles collectées par l'autre détecteur, installé à 1 kilomètre de ces réacteurs. La différence de composition attendue est due à une métamorphose des neutrinos, qui changent de caractéristiques au cours de leur trajet. L'expérience Double Chooz est fondamentale pour permettre de comprendre ce phénomène, et ainsi compléter le Modèle standard de la physique des particules1.

Étudier les « saveurs » des neutrinos grâce aux centrales nucléaires

Les neutrinos, particules un million de fois plus légères que les électrons, sont un sous-produit connu des réactions nucléaires « beta ». Ils sont ainsi produits dans des réacteurs nucléaires en fonctionnement, mais aussi dans la croûte et le manteau terrestre, le corps humain, ou encore les étoiles, le Soleil étant la source de neutrinos la plus abondante sur Terre. Ils peuvent naître sous trois formes ou « saveurs », comme disent les physiciens. Mais ils ont cette propriété étonnante, appelée « oscillation », de changer de « saveur » en se déplaçant, en fonction de leur énergie et de la distance parcourue. Ces « oscillations » dépendent de trois paramètres (nommés « angles de mélange »), dont deux sont connus avec une bonne précision. Le troisième est bien plus petit et difficile à mesurer précisément, et c'est sur cette mesure que portent les efforts de l'expérience Double Chooz.

L'expérience Double Chooz

Le projet Double Chooz est né en 2003 d'une collaboration internationale2, à l'initiative de chercheurs du CEA et du CNRS. En 2009, un premier détecteur a été installé dans un laboratoire souterrain, construit par EDF dans les années 1990 à 1 kilomètre des cœurs des réacteurs de la centrale. Ce dispositif a permis, en 2011, de détecter la transformation des neutrinos durant leur vol, découverte confirmée dès 2012 par les autres expériences internationales. Depuis lors, une course mondiale à la précision s'est engagée pour mesurer le troisième angle de mélange des neutrinos. A Chooz, la mise en service d'un second détecteur va permettre d'y participer efficacement. D'ici trois ans, le paramètre manquant devrait y être mesuré avec une précision de 10 %.

A l'image du premier détecteur, ce second instrument est constitué d'une cuve cylindrique de dix mille litres remplie d'un mélange d'huiles minérales. Un tel volume est nécessaire car les neutrinos interagissent très faiblement avec la matière : ils traversent murs, montagnes, et êtres vivants, pratiquement sans interaction. Afin d'en détecter un, il faut donc « interposer » au parcours des neutrinos une grande quantité de matière. Chaque jour, cet instrument ne détectera que 300 neutrinos environ, sur les centaines de milliards de milliards qui le traverseront. Par ailleurs, le détecteur est enfoui sous 50 mètres de roches et protégé par plusieurs enceintes concentriques pour l'isoler du rayonnement cosmique et de la radioactivité naturelle ambiante.

La comparaison des résultats de Double Chooz avec ceux d'autres expériences similaires en Chine (Daya-Bay) et en Corée (RENO) et d'accélérateurs de particules (T2K au Japon) facilitera la conception de projets pour explorer l'origine de l'asymétrie entre matière et antimatière observée dans l'Univers. En effet, selon la théorie du Modèle standard, qui prédit le comportement de la matière depuis le début de l'Univers, le Big Bang aurait créé a priori autant de matière que d'antimatière, il y a 13,7 milliards d'années. Mais la matière est observée en surabondance aujourd'hui. Les neutrinos pourraient bien détenir la clé de cette énigme.

Le laboratoire abritant ce deuxième détecteur a été financé par le FEDER (Fonds européen de développement régional), la région Champagne-Ardenne, le département des Ardennes, la communauté de communes Rives de Meuse, EDF, le CNRS et le CEA.

 

DOCUMENT          CNRS             LIEN

 
 
 
 

EINSTEIN AUJOUD'HUI

 

Texte de la 577 e conférence de l'Université de tous les savoirs prononcée le 20 juin
2005
Par Françoise Balibar: « Einstein aujourd'hui »


On célèbre en cette année 2005 le centenaire de ce qu'il est convenu d'appeler l'annus mirabilis d'Einstein. Année miraculeuse en effet, puisque Einstein, alors âgé de 26 ans, publia cinq articles qui tous, à des degrés divers, ont bouleversé le cours de la physique. Le premier en date, paru en mars 1905, est le seul qu'Einstein lui-même ait qualifié de « révolutionnaire » ; il y explique que dans certaines situations expérimentales, la lumière que tout le monde considère comme une onde, sur le modèle des rides qui se propagent à la surface de l'eau, doit plutôt être assimilée à un ensemble de grains d'énergie - ce que plus tard, en 1922, on appellera des photons -- autrement dit des grains de lumière qui sillonnent l'espace.
A la fin du mois de juin de cette même année, Einstein envoie un deuxième article à la prestigieuses revue allemande Annalen der Physik, intitulé « Electrodynamique des corps en mouvement » -- titre devenu ésotérique mais qui « parlait » aux physiciens contemporains car c'était une question largement débattue (j'y reviendrai). Cet article, publié en septembre, n'est autre que l'article fondateur de la théorie einsteinienne de la relativité restreinte - théorie qui, prolongée en 1916 par celle de la relativité générale, a rendu son auteur célèbre, au point que son nom est désormais associé au mot « relativité ». Un troisième article, paru peu de temps après le précédent, en est une sorte de post-scriptum de deux pages qui se termine, non pas par la trop fameuse formule E = m c2, mais par la véritable expression de l'équivalence entre masse et énergie : DE = Dm c2 -- le symbole D désignant, de façon conventionnelle en physique, la variation d'une grandeur - en l'occurrence, l'énergie d'un système physique et sa masse : à toute variation de la masse d'un système correspond une variation de son contenu énergétique, et inversement.
Et de trois (articles). Entre-temps, toujours en 1905, Einstein avait publié un quatrième article, dont on parle relativement peu mais qui a eu une importance historique énorme ; il s'agit d'une étude portant sur le mouvement brownien (mouvement désordonné de particules en suspension, observé au microscope pour la première fois par le biologiste Brown -- d'où son nom -- que plus trivialement chacun a pu admirer dans une forêt lorsqu'un rayon de soleil passe entre les arbres et que l'on voit danser des grains de pollen dans la lumière. Dans cet article, Einstein proposait d'expliquer ce mouvement désordonné de particules relativement grosses (« visibles», à l'Sil nu ou au microscope) comme résultant du choc de ces grains sur des particules beaucoup plus petites, les atomes (« invisibles » à l'époque, puisque ce n'est que dans les années 1980 qu'on a pu les observer, de façon indirecte). La relation établie par Einstein dans cet article ayant été vérifiée expérimentalement par Jean Perrin quelques années plus tard, les travaux conjugués d'Einstein et Perrin apparurent alors comme la preuve, indirecte évidemment, de l'existence des atomes. Il n'est pas inutile de rappeler -- tant on a peine à le croire aujourd'hui -- qu'il y a cent ans, certains physiciens, et non des moindres, niaient encore l'existence des atomes ; on parlait couramment d' « hypothèse atomique », pour souligner que les atomes n'étaient qu'une vue de l'esprit. C'est cette position sceptique que les travaux d'Einstein et de Perrin ont rendue intenable ; depuis, la réalité atomique ne fait plus de doute.
Quant au cinquième article publié par Einstein en 1905, c'est d'une certaine façon le plus fondamental, puisque c'est sur les résultats qui y sont exposés que s'appuient les quatre autres (plus ou moins directement). Il s'agit de son travail de thèse (25 pages, chose impensable aujourd'hui où un minimum de 300 pages est requis pour la moindre thèse), dans lequel il développait une nouvelle manière de considérer les liens entre les niveaux microscopique (celui des atomes) et macroscopique (à notre échelle, cette échelle incluant les choses vues au microscope). Cette méthode n'était pas entièrement originale, même si Einstein croyait faire Suvre de novateur ; mais elle allait à l'encontre des idées reçues - raison pour laquelle, il avait eu des démêlés avec son directeur de thèse.

***
Je l'ai déjà dit, l'article de mars 1905 est sans conteste le plus « révolutionnaire ». On peut même soutenir que cet article, en proposant de la lumière une conception radicalement nouvelle, a mis Einstein sur la voie de sa théorie de la relativité restreinte (article de septembre). C'est du moins la thèse que je vais défendre ici ; ce qui, m'amènera à préciser en quoi la théorie de la relativité restreinte d' Einstein diffère de celle élaborée par d'autres physiciens plus chevronnés, Lorentz et Poincaré.
L'article que publie Einstein en mars 1905 porte le titre « Sur un point de vue heuristique concernant l'émission et la production de lumière ». Il est rare de voir figurer l'adjectif « heuristique » (« qui sert à la découverte » indique le Robert de poche) dans un texte scientifique, encore plus rare dans le titre d'un tel texte. La physique (la science) moderne est plus positive que cela : aujourd'hui, il n'est ni concevable ni convenable de prendre la plume pour indiquer une éventuelle piste de recherche, développer un « point de vue » ; on préfère généralement « proposer une hypothèse » ; la physique n'est ni un jeu de pistes ni une affaire de point de vue. Il est rare aussi qu'un article scientifique commence par des considérations philosophiques, même triviales, du genre : « la théorie physique, telle qu'elle a été développée jusqu'à présent est marquée par une profonde division entre continu et discontinu ». C'est pourtant de cette division que prend acte Einstein dans les premières lignes de son article. Division entre d'une part, une physique dont les concepts relèvent du discontinu -- ceux de particule, trajectoire, position implicitement « ponctuelle » sur cette trajectoire à un instant donné --, qui rend compte de la matière pondérable, « matérielle », constituée d' « atomes » ou, comme l'on disait alors, de « molécules » (la différence entre atomes et molécules n'étant pas encore bien établie) et d'autre part, une physique dont les concepts relèvent du continu -- onde, champ, emplissant tout l'espace à un instant donné, se propageant de façon « frontale », comme une vague déferlant sur une plage (en Anglais onde et vague se disent de la même façon : wave) --, qui rend compte de cette autre partie du monde physique qu'est la lumière, impalpable, impondérable. Or, poursuit Einstein, chacun peut constater que la lumière est émise et absorbée par la « matière ». La théorie actuelle, dans la mesure où elle décrit le monde à l'aide de concepts totalement incompatibles entre eux (le discontinu et le continu sont des notions antithétiques) n'est pas outillée pour rendre compte de ce fait pourtant fondamental : la production et l'absorption de lumière par la matière, la formation de continu à partir de discontinu, et inversement l'absorption du continu dans du discontinu.
Arrêtons-nous un instant pour apprécier à sa juste valeur le « culot » (mais peut-être vaudrait -il mieux dire, la maîtrise intellectuelle) d'un jeune homme de 26 ans -- diplômé certes (Einstein sort de l'Ecole Polytechnique de Zürich, la meilleure « grande école » européenne à l'époque, n'en déplaise à « notre » Ecole Polytechnique) mais pour l'heure employé au Bureau des Brevets de Berne --, envoyant pour publication un article au titre si peu conforme, où il se paie le luxe de développer des considérations philosophiques, que l'on serait tenté de qualifier de simplistes si elles ne touchaient pas juste. Comme quoi un peu de philosophie, même naïve, vaut mieux que force ni que rage calculatoires.
S'il est vrai que l'on ne fait pas de continu avec du discontinu (et inversement), il n'en reste pas moins qu'en ce qui concerne la matière (mais uniquement elle), certains physiciens -- ceux précisément qui sont convaincus que la matière au niveau microscopique est faite d' « atomes » (et Einstein, à l'Ecole Polytechnique, a été formé par de tels physiciens) -- ont développé à la fin du XIXème siècle des techniques statistiques qui, prenant appui sur l'extrême grandeur du nombre d' « atomes » (ou « molécules ») contenus dans un gramme de matière, permettent de remonter du niveau microscopique (discontinu) au niveau macroscopique (à notre échelle où la matière semble continue) ; et ce, dans une branche bien particulière de la physique, la thermodynamique.
La thermodynamique, science de la chaleur, étudie les transformations que subit la matière lorsque la température qu'on lui impose varie, et ceci, indépendamment de sa constitution intime (atomique ou autre). La mécanique statistique, mécanique en ceci qu'elle traite de particules (puisqu'elle repose sur l' « hypothèse atomique » concernant la matière) et statistique en ce qu'elle applique les lois des grands nombres, a été développée à la fin du siècle, par Maxwell en Grande- Bretagne et Boltzmann dans le monde germanique. Pour ceux qui ne demandent qu'à être convaincus, elle est la preuve de la « réalité » des atomes (bien avant l'article d'Einstein sur le mouvement brownien), car elle permet de retrouver les principaux résultats de la thermodynamique, sur la base précisément de l'hypothèse atomique. On ne saurait trop insister sur l'importance d'un tel résultat - qui a fortement impressionné l'étudiant Einstein lorsqu'on le lui a enseigné ( Boltzmann, der grossartig, le magnifique, note-t-il à peu de temps de là). Au point que c'est sur les traces de Boltzmann qu'Einstein ose son premier pas théorique audacieux : il décide d'appliquer à la lumière les méthodes statistiques qui se sont révélées si fructueuses dans le cas de la matière. La démarche est audacieuse car elle suppose implicitement que ce qui vaut pour la matière vaut pour la lumière, autrement dit que matière et lumière sont régies par les mêmes principes théoriques. On voit bien que ce qui est en jeu ici, c'est l'unité de la Nature.
Einstein entreprend donc de comparer du point de vue de la mécanique statistique deux situations qu'il suppose analogues, à savoir d'une part, des « molécules » enfermées dans une boîte portées à une certaine température (ce qu'on appelle traditionnellement « un gaz parfait ») et d'autre part, du rayonnement lumineux, également enfermé dans une boîte et porté à une certaine température (dénommé « corps noir »). Plus techniquement, il choisit de calculer, dans l'une et l'autre situation, la variation d'entropie (DS) lors d'une réduction du volume de la boîte (de V0 à V), à température constante. Or l'entropie est précisément une de ces grandeurs thermodynamiques, exprimables à l'aide des grandeurs thermodynamiques macroscopiques (énergie, volume, température etc.) dont la mécanique statistique fournit (dans le cas de la matière) une interprétation (et une formulation) en termes microscopiques, faisant intervenir, en particulier, le nombre (N) des « molécules » du système considéré. Après avoir calculé la variation d'entropie, par la méthode statistique pour les « molécules » et par la thermodynamique pour le rayonnement, Einstein constate que les expressions ont la même forme mathématique, en logarithme (noté ln), dans les deux cas (gaz parfait et corps noir) et, plus intéressant, que la place qu'occupe N le nombre de « molécules » dans la formule relative à la matière est occupée dans le cas de la lumière par le rapport de deux grandeurs : l'énergie totale du « corps noir » (E ) et une autre grandeur (e) liée à la fréquence du rayonnement.
Einstein accomplit alors un deuxième geste audacieux, dont la force heuristique tient à ce qu'il est parfaitement conforme à la nature du rapport aux mathématiques qui, depuis Galilée, constitue la physique comme mathématisation de la Nature. Einstein, en effet, conclut de l'identité des places occupées dans une même formule mathématique par deux quantités (un nombre dans un cas, un rapport entre deux grandeurs, dans l'autre) à l'identité de nature physique de ces deux quantités. Or le nombre N qui figure dans la formule du gaz parfait n'est pas n'importe quel nombre, c'est un nombre de « molécules », donc un nombre entier. Conclusion d'Einstein : le rapport E/e qui occupe la même place dans la formule relative à la lumière doit nécessairement être une grandeur de même nature physique, donc, lui aussi, un nombre entier. Autrement dit : l'énergie macroscopique du rayonnement E est structurée en grains et e, la quantité qui figure en dénominateur du rapport en question est l'énergie individuelle de chacun de ces grains. De l'identité des places occupées dans une formule mathématique, circonstance que d'autres auraient peut-être considérée comme fortuite, sans signification, ne nécessitant pas d'être interprétée, Einstein, convaincu que les mathématiques « parlent le langage de la nature », déduit une propriété fondamentale de la structure de la réalité : la lumière est granulaire, quantifiée comme l'on dit.


DS = variation de l'entropie du système lorsque le volume de la boîte passe de V0 à V
Dans le cas de la matière (gaz parfait constitué de N « molécules »), N est entier :

DS = k ln (V/ V0)N
Dans le cas du rayonnement (corps noir d'énergie totale E) :

DS = k ln (V/ V0)E/e
où e est une quantité que le calcul indique être proportionnelle à la fréquence du rayonnement.

L'identité de forme mathématique implique que
E/ e = nombre entier.
L'énergie totale du rayonnement contenu dans le « corps noir » est la somme d'un nombre de quanta (mot qui en allemand, comme en latin, signifie une quantité unité) d'énergie e :
E = (Nombre entier) e
.
Le degré de technicité mathématique requis par une telle « découverte » est nul. En revanche, ce que l'on y voit fonctionner à l'état pur, c'est le fameux « sens physique », toujours invoqué, jamais précisément décrit. De cet exemple, on serait tenté de conclure que le « sens physique » n'est que l'expression d'une profonde conviction intime, quasi inconsciente, comme « une pensée de derrière la tête » toujours active, en l'occurrence l'idée que le livre de la Nature est écrit en termes mathématiques. On peut aussi remarquer que le « sens physique », une fois exprimé, paraît incontestable, il est porteur de consensus ; c'est en quelque sorte le « common sense » des physiciens, ce sur quoi ils s'accordent. Einstein, malgré son jeune âge, le dit clairement quand, commentant « sa » relation de quantification de l'énergie lumineuse, il se déclare ouvert à la discussion, tout en notant que l'identité de structure des formules, qu'il a mise en évidence ne peut, en tout état de cause, rester sans explication : une identité mathématique correspond nécessairement à une propriété de la réalité physique ; et cela, personne ne le lui contestera.


****

Mais revenons à Einstein, en ce début d'année 1905. Il n'a pas réussi à obtenir un poste universitaire et il gagne sa vie en examinant des brevets durant les heures de bureau. Situation qu'il décrira par la suite comme idéale : un poste universitaire lui aurait laissé moins de loisirs pour réfléchir à des questions qui le tarabustent depuis l'âge de quinze ans et qui se trouvent être aussi au centre des préoccupations des physiciens plus âgés, engagés dans la vie professionnelle. Ces questions portent sur la nature de la lumière (en ce sens, son premier article s'y rattache), plus précisément au rapport entre lumière et mouvement. Le mouvement est une catégorie que la physique a redéfini à sa naissance (ou sa re-naissance au début du XVIIème siècle) comme le déplacement d'un corps (conçu comme un assemblage de particules, relevant du discontinu donc) d'une position d'espace à une autre, sans que le corps en question soit altéré. La catégorie de mouvement ne s'applique pas, en principe, à la lumière. Pourtant, la lumière, pensée comme une onde qui se propage, dont le « front » atteint au fur et à mesure que le temps s'écoule des régions de l'espace de plus en plus éloignées, se « déplace » elle aussi. Ce qui amène à définir une vitesse-de-propagation, qu'il est tentant d'abréger en « vitesse » tout court, terme qui, en toute rigueur, devrait être réservé au mouvement des corps matériels et qui se trouve ici appliqué à la lumière, immatérielle en quelque sorte. Le problème auquel songe Einstein depuis son adolescence est le suivant : comment verrais-je le monde si je me déplaçais (en tant que corps matériel, évidemment) à une vitesse égale à la « vitesse » de la lumière ? Autrement dit : comment se combinent la vitesse d'un corps et la « vitesse » de la lumière » ? S'ajoutent-elles algébriquement comme c'est le cas pour deux vraies vitesses (celles de deux corps matériels) ? A quelle « vitesse » arriverait dans mon Sil une onde lumineuse émise par un objet vers lequel je me dirigerais moi-même avec une vitesse égale à la « vitesse » de la lumière ?
A cette question, la physique de la fin du XIXème siècle, en l'espèce la théorie électromagnétique de la lumière élaborée par Maxwell, a déjà apporté une réponse... dont le seul inconvénient est qu'elle induit une myriade de questions. Cette réponse est la suivante : la lumière arriverait dans l'Sil du jeune Einstein avec la même « vitesse » que s'il était immobile. Ce qui revient à dire que la lumière jouit d'une propriété pour le moins bizarre : sa « vitesse » reste la même quand elle est combinée à n'importe qu'elle vitesse vraie (celle d'un corps). En complet désaccord avec la manière dont se comportent en général les vitesses (vraies) qui s'ajoutent (algébriquement) : si, dans un train, je me déplace à la vitesse de 4 km/h dans le sens du mouvement du train, lequel roule à une vitesse de 150 km/h, ma vitesse par rapport au remblai des voies est de 154 km/h.
Dans la théorie de Maxwell, cette singularité de la « vitesse » de la lumière s'explique par la nature même de la lumière. La lumière est un champ électromagnétique. Dire qu'elle est un « champ », c'est dire qu'elle est représentée par une grandeur définie en tout point de l'espace et à chaque instant. Dire que ce champ est « électromagnétique », c'est dire qu'il est constitué de la combinaison de deux champs, électrique et magnétique, qui non seulement sont indissociables mais en outre s'engendrent l'un l'autre au cours du temps, assurant ainsi la propagation de l'ensemble dans l'espace au cours du temps ... à la « vitesse » de la lumière (généralement notée c). Mais un champ, qu'est-ce que c'est ? Pour Maxwell, il est clair qu'un champ désigne nécessairement l'état d'un milieu matériel. Ceci par analogie avec la théorie du son où ce qui se propage est la compression des couches d'air ébranlées de proche en proche ; le champ est alors une représentation de l'état de compression du milieu que constitue l'air. Pour Maxwell, un champ ne peut pas se propager dans le vide (l'exemple du son est à cet égard probant) ; il lui faut nécessairement un milieu de propagation. A ce milieu, Maxwell donne, dans le cas de la lumière, le nom d' « éther luminifère », raccourci en « éther ». La « vitesse » de la lumière est alors la vitesse de propagation dans l'éther. Que cette vitesse soit absolue (elle n'est pas modifiée si on la combine avec une autre) reste à comprendre.
L'« explication » donnée par la physique de la fin du siècle pose, de façon générale, plus de questions qu'elle n'en résout, selon la formule consacrée. Elle est en effet en contradiction flagrante avec ce que l'on commence à appeler « le principe de relativité » (je l'analyserai dans un instant), lequel ne date pas d'hier puisque c'est sur ce principe que s'est élevée la physique galiléo -newtonienne, physique des corpuscules, physique de la matière. L'interrogation déjà signalée plus haut (à propos de l'application de la mécanique statistique à la lumière) ressurgit ici : ce qui vaut pour la matière vaut-il, oui ou non, pour la lumière ? La lumière doit-elle, comme la matière, être soumise au principe de relativité ? Pour Einstein, comme pour la plupart des physiciens et souvent pour des raisons diverses, la réponse est oui.
Le moment est venu d'énoncer ce principe. Il définit une classe de « référentiels » « équivalents ». Deux mots qui méritent d'être expliqués. « Référentiels » désigne de façon raccourcie un « corps de référence » (matérialisant un trièdre trirectangle, généralement) assorti d'une horloge - ce qui permet de définir un système de coordonnées spatio-temporelles (3 d'espace et une de temps). L' « équivalence » dont il s'agit porte sur les « lois de la nature ». (Ce n'est pas le lieu de disserter sur ce que sont les lois de la nature et pourquoi elles portent le nom de « lois » ; d'autant que les choses se tiennent : le principe de relativité contribue à définir ce qu'il faut entendre par « lois de la nature ».) Dire que deux référentiels sont équivalents, c'est dire que les lois de la nature y sont les mêmes. Le principe de relativité énonce qu'il existe bel et bien des référentiels de ce type, formant une classe d'équivalence (vis-à-vis des lois de la nature). Mathématiquement, cela signifie qu'une même loi de la nature prend la même forme dans tous les référentiels de la classe en question. Tel est l'énoncé le plus général du principe de relativité. La relativité dite restreinte correspond à la restriction suivante : les référentiels équivalents se déduisent les uns des autres par une opération de translation rectiligne uniforme. En termes simples, le principe de relativité restreinte énonce que les lois de la physique sont les mêmes dans tous les référentiels qui sont en translation rectiligne uniforme les uns par rapport aux autres. En termes mathématiques, cela revient à dire que, lors de la transformation des coordonnées spatio-temporelles attachées à un référentiel en celles attachées à un autre en translation rectiligne uniforme par rapport au premier, la forme mathématique des lois de la nature reste inchangée. En termes concrets, le principe de relativité se traduit par le fait que le café, qu'une hôtesse de l'air sert à bord d'un avion ayant pris son allure de croisière coule de la même façon, de la cafetière dans les tasses, qu'au sol : les lois de l'écoulement du café sont les mêmes dans les deux référentiels « avion à sa vitesse de croisière » (vitesse mesure par rapport au sol) et « sol », en translation rectiligne uniforme l'un par rapport à l'autre à la vitesse de vol de l'avion.
Pour les physiciens du début du XXème siècle, le principe de relativité entre en contradiction avec l'existence de l'éther, pourtant indispensable, croit-on, à la théorie de la lumière de Maxwell. En effet, le principe de relativité énonce qu'il existe une classe de référentiels équivalents, et non pas un seul référentiel, dans lequel peuvent être formulés les lois de la nature de façon indifférente -- écartant par là même la possibilité que l'éther, défini comme le seul référentiel dans lequel les équations de Maxwell ont leur forme « canonique ».
En 1905, ce problème hante la physique depuis déjà plusieurs décennies, sous le nom d' « l'électrodynamique des corps en mouvement ». ( on se souvient que c'est le titre de l'article que publie Einstein ne septembre 1905). Dans cette appellation, « électrodynamique » indique que dans la théorie de Maxwell, la lumière est un champ électromagnétique, et l'expression « corps en mouvement », signale qu' un problème se pose dès lors que l'on essaie de décrire le champ produit par un corps émetteur qui se déplace dans l'éther : les équations de Maxwell, écrites dans le référentiel de l'éther, ne gardent pas la même forme mathématique lors du passage aux référentiels en translation uniforme par rapport à lui, qui pourtant devraient lui être équivalents.
On voit bien que dans cette affaire, c'est l'éther qui pose un problème et même qui le crée : si les équations de Maxwell ne devaient pas être écrites d'abord dans l'éther, seul référentiel où elles soient valables, les choses seraient beaucoup plus simples. L'éther embarrasse. Pourtant, l'argument de Maxwell selon lequel le champ ne se propage pas dans le vide et qu'il lui faut pour cela un support, un milieu matériel, empêche de s'en débarrasser. Le désir de le supprimer purement et simplement est exacerbé par le fait que de ce milieu imaginaire, rien n'a pu à ce jour être déterminé expérimentalement, ni sa densité, ni son élasticité, ni aucune propriété qui pourrait lui donner un peu de corps. Sa seule propriété physique, c'est d'être immobile...

***
J'ai décrit un peu longuement la situation dans laquelle se trouvait la physique, plus exactement, la théorie de la lumière, pour montrer qu'en 1905 Einstein s'attaque à un problème qui a déjà une histoire. Comme chacun a pu le constater en lisant la presse, cette année 2005 a été l'occasion de rouvrir un dossier récurrent, celui de la « véritable » paternité de la théorie de la relativité restreinte. Les faits sont les suivants, assez étonnants, il faut le dire. Einstein, alors en Suisse, envoie à Berlin, le 30 juin 1905, le manuscrit de son article « Electrodynamique des corps en mouvement » qui ne sera publié qu'en septembre. Trois semaines auparavant, le 5 juin, Poincaré a présenté à l'Académie des Sciences de Paris une communication dans laquelle il indique avoir résolu le problème des transformations qui laissent invariantes les équations de Maxwell, transformations dont il attribue à Lorentz le mérite, bien qu'il ait dû corriger les relations proposées par Lorentz. Poincaré rédige l'article correspondant en juin/juillet et l'envoie pour publication en juillet 1905 à la revue du Circolo matematico di Palermo ; il paraîtra en janvier 1906. Or, et c'est bien l'origine de toutes les controverses, la forme de ces transformations que Poincaré a baptisées « de Lorentz » mais qui sont de lui, est exactement celle que donne Einstein dans son article envoyé en juin, paru en septembre.
Un auteur, français et polytechnicien comme Poincaré, a imaginé une histoire assez plaisante visant à réhabiliter Poincaré, l'Ecole Polytechnique et la France, victimes une fois de plus de la vindicte allemande ; histoire selon laquelle Hilbert et Planck, deux grosses pointures de la science allemande, furieux évidemment d'avoir été doublés sur le poteau par leur vieux rival Poincaré, se seraient avisés de l'existence d'un jeune ambitieux, en mal de poste universitaire, rongeant son frein dans un bureau à Berne et lui auraient proposé de rédiger l'article qu'ils avaient « raté » et qu'ils ne pouvaient pas décemment publier sous leur nom, en échange d'un poste à l'université Berlin, rien de moins.
L'histoire est plaisante ...bien que déplaisante par l'exhibition de sentiments revanchards que l'on croyait ne plus jamais avoir à supporter. Elle ne tient pas debout - ne serait-ce que parce qu'il faut plus de 25 jours pour prendre connaissance à Berlin d'une communication orale faite à Paris, décider de la stratégie à adopter en réponse, retrouver le jeune ambitieux prêt à tout pour arriver, écrire à la main un article de 30 pages et le faire recopier par le jeune ambitieux.
Mais elle ne tient pas surtout parce qu'on a affaire à deux théories distinctes. Certes, les relations (que l'on appelle depuis « de Lorentz ») proposées par Poincaré ont exactement la même forme que celles qui se trouvent dans le mémoire d'Einstein. Le contraire aurait été étonnant, ou inquiétant. Mais peut-on conclure de l'identité de forme à l'identité de contenu ? Ont-elles la même signification dans les deux cas ? Absolument pas. Comme le montre d'ailleurs le fait suivant récemment signalé par le physicien Thibault Damour : Poincaré n'a pas « vu » que de ces relations découlait l'un des résultats les plus significatifs de la théorie einsteinienne de la relativité : la « dilatation des temps ».
Au delà des résultats, il est un point sur lequel Einstein et Poincaré diffèrent profondément ; c'est celui de l'existence de l'éther. Poincaré, qui fondamentalement souhaite pouvoir s'en passer se voit contraint, faute d'avoir les arguments suffisants pour cela, de s'en accommoder. Il garde l'éther comme référentiel dans lequel doivent être écrites les équations de Maxwell et s'arrange pour lui faire jouer un rôle muet. En effet, ayant mis en évidence la structure de groupe des transformations « de Lorentz », il établit que les équations de Maxwell gardent la même forme lors du passage d'un référentiel R à un autre équivalent R', en décomposant ce passage en deux : du référentiel R à celui de l'éther, et ensuite de l'éther à l'autre référentiel R'. Ainsi donc, la théorie de Poincaré est une théorie avec éther. Elle résout la question que se posait Poincaré : trouver les transformations qui laissent invariantes les équations de Maxwell et les qualifient ainsi comme « lois de la Nature », obéissant au principe de relativité. Mais elle ne résout pas la question de l'éther, loin de là
L'objectif d'Einstein est différent. C'est là qu'intervient l'article de mars, celui qu'il disait lui-même « révolutionnaire ». Ayant trouvé des arguments qui l'avaient convaincu de la possibilité pour la lumière d'être de nature granulaire et non ondulatoire (relevant du discontinu plutôt que du continu), Einstein avait une longueur d'avance sur ses contemporains dans l'exécution du meurtre annoncé de l'éther. Il avait de bons arguments pour penser que l'éther était superflu (rappelons que la nécessité de l'éther était liée à la propagation d'une onde). Aussi cherchait-il, avant tout, le moyen de rebâtir l'électrodynamique des corps en mouvement en se passant d'emblée de l'éther. C'est ce qu'il a fait en mettant l'accent non pas sur la propagation (que voudrait dire le mot « propagation » si la lumière était vraiment faite de quanta ? rien), mais sur l'idée de vitesse, rapport entre un intervalle d'espace et un intervalle de temps. De ce que la « vitesse » de la lumière était la même dans tous les référentiels, en contradiction avec l'addition algébrique des (vraies) vitesses, il a conclu que cette « vitesse » n'en était pas une ; il lui a donné un nouveau statut : celui de constante structurelle liant l'espace et le temps de la physique, grandeur invariante par définition, gardant la même valeur dans tous les référentiels. On sait comment il a alors transformé les idées fondamentales de temps et d'espace et bâti sa théorie.


Pour terminer, je voudrais insister sur la différence entre les perspectives adoptées par Einstein et par Poincaré (et Lorentz). Poincaré et Lorentz ont consacré trente ans de leur vie à bâtir une théorie électromagnétique libre, autant que possible, de contradiction. Ils y sont formellement arrivés. Einstein, avait trente ans de moins et, en 1905, il n'avait encore investi aucun effort dans cette direction. De plus, Einstein appartenait à l'aire culturelle allemande : il était enthousiaste des méthodes statistiques (il était devenu expert en la matière, grâce à son travail de thèse) ; c'est ce qui l'a mis sur la piste de la quantification de l'énergie lumineuse et lui a donné les arguments physiques qui lui permettaient d'affronter ceux, physiques également, qu'avait avancés Maxwell en faveur de l'éther ; c'est ce qui lui a permis de se placer sur le terrain même de Maxwell, celui de la physique. Einstein, contrairement à Lorentz et Poincaré, attachait de l'importance à l'éther ; bien qu'il ne se soit pas exprimé sur la question, on peut penser qu'au début de l'année 1905, Einstein ne considérait pas (comme le faisait Poincaré) que l'éther tomberait de lui-même, un jour (plus tard, une fois la théorie de Maxwell rendue invariante par changement de référentiel). Pour lui, il fallait commencer par se débarrasser de l'éther, c'est-à-dire s'en passer, de manière à le rendre superflu. A cet égard, d'avoir été formé à l'école statistique lui a rendu d'immenses services, comme j'ai tenté de le montrer en analysant l'article de mars.
On peut dire les choses autrement : Einstein, par sa formation, était enclin à chercher un passage du niveau microscopique au niveau macroscopique, du discontinu au continu ; Poincaré et Lorentz, eux, à force de critique des modèles mécanistes (dans lesquels on cherchait à rendre compte de la propagation de la lumière en termes de mouvements matériels) en étaient venus à se convaincre de la supériorité des théories du continu sur celles du discontinu. Significatif à cet égard est le titre donné par Poincaré à son article de Palerme: « La théorie de l'électron » ; Poincaré cherchait à construire le discontinu comme une accumulation spatiale d'énergie continue. L'ironie de l'affaire est que trente ans plus tard, Einstein lui aussi devait trouver un certain charme à cette idée, prêt à tout pour éviter la théorie quantique qu'il avait lancée mais qui avait pris un cours qui lui déplaisait.

 

VIDEO            CANAL  U              LIEN


(si la  video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

PLASTICITÉ DU MANTEAU TERRESTRE

 

Paris, 03 MARS 2014


La plasticité du manteau terrestre enfin expliquée
Le manteau terrestre constitue une enveloppe solide animée de lents et constants mouvements de convection. Comment les roches se déforment-elles pour permettre un tel mouvement alors que les minéraux tels que l'olivine -constituant principal du manteau supérieur- ne présentent pas assez de défauts dans leur structure cristalline pour expliquer les déformations observées dans la nature ? Une équipe menée par l'Unité matériaux et transformations (CNRS/Université Lille 1/Ecole nationale supérieure de chimie de Lille), vient d'apporter une explication inattendue à cette question. Celle-ci met en jeu des défauts cristallins très mal connus et jusqu'alors jamais pris en compte, appelés « désinclinaisons », situés à l'interface entre les grains minéraux qui composent les roches. En prenant comme cas d'étude l'olivine, les chercheurs sont parvenus pour la première fois à visualiser ces défauts et à modéliser le comportement des joints de grains face à une contrainte mécanique. Ces résultats qui viennent d'être publiés dans Nature dépassent largement le cadre des géosciences : ils apportent un outil nouveau et extrêmement puissant à l'étude de la dynamique des solides et aux sciences des matériaux en général.
La Terre évacue sa chaleur en continu grâce aux mouvements de convection qui animent le manteau terrestre sur lequel reposent les continents. Comprendre cette convection est donc primordial pour l'étude de la tectonique des plaques. Le manteau est constitué de roches solides. Pour que celui-ci puisse s'animer de mouvements de convection, il est nécessaire que la structure cristalline de ses roches puisse se déformer. Ceci constituait jusque-là un paradoxe que la science n'arrivait pas tout à fait à résoudre. En effet, les défauts de la structure des cristaux, appelés dislocations, qui expliquent très bien la plasticité des métaux, n'étaient pas suffisants pour expliquer les déformations que subissent certaines roches du manteau.

Les chercheurs imaginaient bien que la solution était à chercher au niveau des interfaces des grains minéraux qui composent les roches. Cependant, ils manquaient d'outils conceptuels pour décrire et modéliser le rôle joué par ces parois entre les grains dans la plasticité des roches. Les chercheurs de l'Unité matériaux et transformations (CNRS/Université Lille 1/Ecole nationale supérieure de chimie de Lille) en collaboration avec ceux du laboratoire Géosciences Montpellier (CNRS/Université Montpellier 2) et du Laboratoire d'étude des microstructures et de mécanique des matériaux (CNRS/Université de Lorraine/Arts et Métiers ParisTech/Ecole Nationale d'Ingénieurs de Metz) ont réussi à expliquer ce rôle. En effet, ils ont montré que la structure cristalline des interfaces entre les grains présente des défauts très particuliers appelés « désinclinaisons », défauts qui n'avaient jusqu'à présent jamais été pris en compte. Les chercheurs sont parvenus à les observer pour la première fois sur des échantillons d'olivine (qui constitue jusqu'à 60% du manteau supérieur), grâce à un microscope électronique et un traitement spécial des images. Puis, ils sont allés plus loin : à l'aide d'un modèle mathématique de ces « désinclinaisons », ils ont démontré que celles-ci expliquaient la plasticité de l'olivine. En appliquant des contraintes mécaniques, les « désinclinaisons » permettent aux joints de grains de se déplacer, et donc à l'olivine de se déformer dans n'importe quelle direction. Ainsi, écoulement et rigidité du manteau ne sont plus incompatibles.

Ces travaux vont bien au-delà de l'explication de la plasticité des roches du manteau terrestre. Il s'agit d'une avancée majeure en sciences des matériaux. La prise en compte des « désinclinaisons » devrait fournir aux scientifiques un outil nouveau pour expliquer de nombreux phénomènes liés à la mécanique des solides. Les chercheurs veulent poursuivre leur étude de la structure des joints grains sur d'autres minéraux, mais aussi sur d'autres solides comme des métaux.

 

DOCUMENT             CNRS               LIEN

 
 
 
 

NANOFIBRES ET LASER ...

 

Des nanofibres pour une conversion efficace de la longueur d’onde d’un laser


18 juillet 2013


Laser , fibre optique , LCF - UMR 8501 , nanofibre , diffusion Raman , non linéaire
Des physiciens viennent de démontrer la conversion de longueur d’onde d’un faisceau vert en un faisceau rouge par diffusion Raman stimulée avec une efficacité de 50% en le faisant traverser une nanofibre de silice baignant dans de l’éthanol.

Télécharger le PDF

Les processus d’optique non linéaire mis en œuvre pour convertir la longueur d’onde d’un faisceau lumineux requièrent de faire traverser des matériaux spécifiques par un faisceau intense. En concentrant la lumière dans leur cœur sur de grandes distances, les fibres optiques sont potentiellement très bien adaptées à ces processus, mais de nombreux matériaux utilisés pour l’optique non linéaire ne peuvent pas constituer de fibre. Des physiciens du laboratoire Charles Fabry (CNRS/IOGS) et de l’Université de Hangzhou (Chine) viennent de montrer que l’on peut contourner cette difficulté en plaçant le matériau non linéaire autour d’une fibre optique de diamètre nanométrique. Le faisceau lumineux canalisé par cette fibre se trouve en fait essentiellement hors du cœur de silice et interagit donc efficacement avec le milieu non linéaire qui l’entoure. Un rendement de près de 50% a ainsi été obtenu pour la conversion Raman d’un faisceau laser vert traversant de l’éthanol, sur une distance 10 fois plus faible qu’avec une fibre creuse contenant l’éthanol en son cœur. Ce travail est publié dans le Journal of the European Optical Society Rapid Publication.
Les physiciens ont développé une « plateforme d’étirage de fibres » pour étirer les fibres optiques de silice de même type que celles employées dans les réseaux de communication. Cet étirement de la fibre s’accompagne d’un affinement, le diamètre est réduit d’un facteur supérieur à 100, passant des 125 µm de la fibre d’origine à quelques centaines de nanomètres, cela sur une longueur pouvant atteindre 10 centimètres. La nanofibre obtenue se trouve entre deux sections de fibres standard de 125 µm d’un maniement particulièrement aisé pour injecter et récupérer la lumière. Le passage de la fibre standard à la nanofibre s’effectue sans perte et s’accompagne d’un très fort accroissement de l’intensité lumineuse lié à la réduction du diamètre. Bien que le diamètre de la nanofibre soit considérablement plus faible que la longueur d’onde de la lumière, le guidage persiste, mais une partie significative de l’énergie optique se propage hors de la silice et donc dans le milieu qui baigne cette dernière. Après une première expérience utilisant l’éthanol comme milieu non linéaire, les physiciens ont utilisé du toluène dilué dans de l’éthanol. Ils ont alors observé une cascade Raman : le faisceau initial à 532 nm excite le premier ordre Stokes du toluène à 562 nm qui excite à son tour le second ordre Stokes du toluène à 596 nm. Ces premières démonstrations ouvrent la voie à un vaste éventail de nouvelles expériences en optique non linéaire.

 

DOCUMENT             CNRS             LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google