ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

NEUTRINOS

 

Paris, 15 juin 2011

Des neutrinos en flagrant délit de métamorphose
Pour la première fois, les physiciens de l'expérience T2K au Japon, parmi lesquels ceux du CNRS (1) et du CEA/Irfu, annoncent avoir très probablement détecté une transformation de neutrinos muons en neutrinos électrons. L'observation - probable à plus de 99% - de ce phénomène constituerait une découverte majeure pour la compréhension de la physique des particules élémentaires et ouvrirait la voie à de nouvelles études sur l'asymétrie entre la matière et l'antimatière.
Les neutrinos existent sous trois formes ou « saveurs » : les neutrinos électrons, muons et tau. L'expérience T2K, située au Japon, étudie le mécanisme d'oscillation de ces particules, c'est-à-dire la faculté qu'elles ont à se transformer en une autre saveur dans leurs déplacements. Son principe est d'observer les oscillations des neutrinos sur une distance de 295 km, entre les sites de Tokai, où les neutrinos muons sont produits grâce à l'accélérateur de particules de JPARC (2) sur la côte est du Japon, et le détecteur Super-Kamiokande, une cuve d'eau cylindrique de 40 mètres de diamètre et 40 mètres de hauteur située à 1 000 mètres sous terre, près de la côte ouest (d'où son nom T2K, qui signifie « de Tokai à Kamiokande »).

Les analyses des données collectées entre la mise en service de l'expérience en janvier 2010 et mars 2011 (l'expérience a été arrêtée avec le séisme du 11 mars) montrent que durant cette période, le détecteur Super-Kamiokande a enregistré un total de 88 neutrinos, parmi lesquels 6 neutrinos électrons qui proviendraient de la métamorphose de neutrinos muons en neutrinos électrons. Les 82 neutrinos restants seraient essentiellement des neutrinos muons n'ayant subi aucune transformation entre leur point de production et leur détection. Des mesures utilisant un GPS certifient que les neutrinos identifiés par le détecteur Super-Kamiokande ont bel et bien été produits sur la côte est du Japon. Les physiciens estiment ainsi que les résultats obtenus correspondent à une probabilité de 99,3% de découverte de l'apparition des neutrinos électrons.

L'expérience T2K redémarrera dès la fin de cette année. Bien que situés dans une zone sismique proche de l'épicentre du tremblement de terre du 11 mars 2011, le laboratoire JPARC et les détecteurs proches de T2K n'ont subi heureusement que des dégâts minimes. Le prochain objectif de T2K est de confirmer avec davantage de données l'apparition des neutrinos électrons et, mieux encore, de mesurer le dernier « angle de mélange », un paramètre du modèle standard qui ouvrirait la voie aux études de l'asymétrie entre la matière et l'antimatière dans notre Univers.

La collaboration T2K regroupe plus de 500 physiciens de 62 institutions réparties dans 12 pays (Japon, pays européens et États-Unis). Les équipes du CNRS et du CEA/Irfu ont mis au point certains instruments de mesure utilisés dans les détecteurs proches (situés à 280 mètres du point de production des neutrinos et nécessaires à contrôler l'expérience) et participé à la calibration du détecteur Super-Kamiokande. Elles ont également contribué à l'analyse des données.

DOCUMENT         CNRS            LIEN

 
 
 
 

PLANCK ET SA NOUVELLE IMAGE DU BIG BANG

 

Paris, 21 mars 2013

Planck dévoile une nouvelle image du Big Bang
Lancé en 2009, Planck, le satellite de l'Agence spatiale européenne (ESA) dédié à l'étude du rayonnement fossile, livre aujourd'hui les résultats de ses quinze premiers mois d'observations. Ils apportent une moisson de renseignements sur l'histoire et la composition de l'Univers : la carte la plus précise jamais obtenue du rayonnement fossile, la mise en évidence d'un effet prévu par les modèles d'Inflation, une révision à la baisse du rythme de l'expansion de l'Univers, ou encore une nouvelle évaluation de la composition de l'Univers. Bon nombre de ces données ont été obtenues grâce au principal instrument de Planck, HFI, conçu et assemblé sous la direction de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS.
Depuis sa découverte en 1965, le rayonnement fossile constitue une source de connaissance précieuse pour les cosmologistes, véritable « Pierre de Rosette » permettant de décrypter l'histoire de l'Univers depuis le Big Bang. Ce flux de photons détectable sur l'ensemble du ciel, dans la gamme des ondes radio,  témoigne de l'état de l'Univers lors de sa prime jeunesse et recèle les traces des grandes structures qui se développeront par la suite. Produit 380 000 ans après le Big Bang, au moment où se formèrent les premiers atomes, il nous arrive quasi inchangé et permet aux scientifiques d'accéder à l'image de ce que fut le cosmos à sa naissance, voici environ 13.8 milliards d'années. Confronter ces mesures aux modèles théoriques peut nous apporter de multiples informations : non seulement sur l'évolution de l'Univers depuis l'apparition du rayonnement fossile, mais également sur des événements antérieurs qui en sont la cause et pour lesquels les astrophysiciens disposent de peu d'observations.

Une nouvelle carte du rayonnement fossile

C'est l'une de ces fenêtres sur l'Univers primordial que vient d'ouvrir la mission Planck. Lancé en 2009, ce satellite de l'ESA a, durant un an et demi, dressé une carte de ce rayonnement fossile sur l'ensemble du ciel. Planck possède deux instruments dont l'un, l'Instrument haute fréquence HFI, a été conçu et assemblé sous la direction de l'Institut d'Astrophysique Spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS. Grâce à eux, il a pu mesurer avec une sensibilité sans précédent les variations d'intensité lumineuse de l'Univers primordial, venant affiner les observations des missions spatiales COBE (lancée en 1990) et WMAP (en 1998). Ces variations d'intensité lumineuse (qui se présentent sous la forme de taches plus ou moins brillantes) sont précisément l'empreinte des germes des grandes structures actuelles du cosmos et désignent les endroits où la matière s'est par la suite assemblée, puis effondrée sur elle-même, avant de donner naissance aux étoiles, galaxies et amas de galaxies.
 
Selon certaines théories, l'origine de ces « grumeaux » ou « fluctuations » du rayonnement fossile est à chercher du côté de l' « Inflation », un évènement survenu plus tôt dans l'histoire de l'Univers. Durant cet épisode, très violent, qui se serait déroulé environ 10-35 secondes après le « Big Bang », l'Univers aurait connu une brusque phase d'expansion et aurait grossi de manière considérable, au moins d'un facteur 1026. Planck a permis de démontrer la validité de l'une des prédictions essentielles des théories d'Inflation : l'intensité lumineuse des « fluctuations à grande échelle » doit être légèrement supérieure à celle des « fluctuations à petite échelle ». En revanche, pour les plus grandes échelles, l'intensité observée est inférieure de 10% aux prédictions de l'Inflation, un mystère qu'aucune théorie ne parvient à expliquer aujourd'hui. Planck confirme par ailleurs avec certitude l'existence d'autres anomalies observées par le passé comme une mystérieuse asymétrie des températures moyennes observées dans des directions opposées ou l'existence d'un point froid.

Les données de la mission nominale de Planck font l'objet d'une trentaine de publications simultanées disponibles le 21 mars 2013 sur http://sci.esa.int, puis le 22 mars 2013 sur www.arxiv.org.
Parmi ces autres résultats :
-    La confirmation de la « platitude » de l'Univers
-    La révision à la baisse de la constante de Hubble, et donc du rythme d'expansion de l'Univers
-    Une nouvelle évaluation, à partir du seul rayonnement fossile, de la composition de l'Univers : 69.4 % d'énergie noire (contre 72.8 % auparavant), 25.8 % de matière noire (contre 23 %) et 4.8 % de matière ordinaire (contre 4.3 %).
-    Des cartes inédites précieuses pour affiner le scénario de l'histoire de l'Univers et comprendre la physique qui régit son évolution : elles permettent de montrer comment se répartissent la matière noire et la matière ordinaire sur la voûte céleste ; le « fond diffus infrarouge » correspond quant à lui à la lumière émise par les poussières de toutes les galaxies au cours des dix derniers milliards d'années et permet donc d'identifier les zones où se sont concentrés les objets constitués de matière ordinaire.
-    Une première analyse de la polarisation du signal cosmologique, qui montre que les données de Planck sont remarquablement cohérentes avec celles sur l'intensité du rayonnement fossile aux échelles correspondantes aux futurs amas de galaxies ; une analyse plus complète sera fournie en 2014, ainsi que d'autres résultats de la mission Planck.

La contribution de la recherche française dans la mission Planck

La France est leader de l'instrument haute fréquence Planck-HFI, essentiel pour les résultats cosmologiques : sa construction a coûté 140 millions d'euros et mobilisé 80 chercheurs de dix laboratoires du CNRS, du CEA et d'universités, ainsi que de nombreux ingénieurs et techniciens. La France a assuré plus de 50% du financement de cette construction ainsi que celui du traitement de ses données : ce financement provient pour moitié du CNES, pour moitié du  CNRS et des universités. Elle participe également au financement de la mission elle-même via sa contribution financière au programme scientifique de l'ESA, soit 15% du coût de la mission.

Une contribution française essentielle au projet Planck a été la fourniture du système de refroidissement à 0.1 degrés au-dessus du zéro absolu de l'instrument HFI. Ce système, qui a fait l'objet d'un  brevet CNES, a été inventé par Alain Benoît (CNRS), de l'Institut Néel (ce qui lui a valu la médaille de l'innovation 2012 du CNRS) et développé par la société Air Liquide. Grâce à cette innovation, la caméra HFI détient le record de froid pour un instrument spatial, avec un cryostat refroidi pendant près de mille jours à -273,05°C.
(
http://www2.cnrs.fr/presse/communique/2679.htm).

L'exploitation des résultats scientifiques est assurée majoritairement par le CNRS, avec notamment Jean-Loup Puget (de l'IAS), « Principal Investigator » d'HFI, et François Bouchet (de l'IAP), « Co-Principal Investigator ».

DOCUMENT                CNRS              LIEN

 
 
 
 

LES DELS

 

Paris, 25 avril 2013

Pourquoi les DELs perdent leur efficacité lumineuse lorsque l'intensité du courant augmente
Le mystère de la diminution du rendement des diodes électro-luminescentes (DELs) vient d'être résolu par une équipe du Laboratoire de physique de la matière condensée (CNRS/ École polytechnique), en collaboration avec l'Université de Californie à Santa Barbara. Ce phénomène constitue un verrou limitant l'expansion de ces sources de lumière efficaces et économes en énergie. L'équipe franco-américaine vient de montrer que dans une DEL, l'énergie électrique ne sert pas uniquement à émettre de la lumière, mais qu'elle contribue également à exciter des électrons dans la matière. Ces travaux, publiés le 25 avril 2013 dans la revue Physical Review Letters, pourraient permettre de contrer cet effet pour obtenir des DELs plus performantes, fournissant une intensité lumineuse beaucoup plus importante.
L'efficacité d'une DEL correspond à son rendement de transformation de l'énergie électrique en lumière. Or, les chercheurs savent que, lorsque l'intensité du courant qui traverse la DEL dépasse un certain seuil, son efficacité diminue. De ce fait, pour maintenir un rendement élevé, les DELs fabriquées commercialement fonctionnent à des densités de courant relativement faibles. Elles sont, par conséquent, à l'unité, moins intenses que d'autres sources de lumière pourtant moins efficaces, comme les lampes à incandescence. Pour obtenir des intensités lumineuses fortes, les industriels doivent accumuler les DELs dans chaque lampe, ce qui augmente considérablement les coûts. Le phénomène de diminution de l'efficacité des DELs constitue donc un frein important à leur expansion dans des domaines tels que l'illumination d'environnements industriels. 

Lorsqu'un courant électrique traverse une DEL, des paires électron-trou1 sont injectées dans la structure. Des photons sont émis lorsqu'une paire électron-trou se recombine et cède son énergie en émettant de la lumière. C'est ainsi que s'opère la conversion de l'énergie électrique en lumière, dont malheureusement  l'efficacité diminue lorsque l'intensité du courant dépasse un certain seuil. Cette baisse était connue depuis 1999, mais son origine demeurait incertaine. L'équipe franco-américaine vient de montrer de façon directe que l'effet Auger est le principal responsable de cette diminution.

L'effet Auger se manifeste lorsque la densité d'électrons traversant le semi-conducteur est grande. Alors, une paire électron-trou peut ne pas se recombiner en émettant un photon, mais en excitant un deuxième électron sous forme d'énergie cinétique. Ce dernier est appelé électron Auger. Son énergie excédentaire est dissipée sous forme de chaleur. Pour observer l'effet Auger, les chercheurs ont fait passer un courant dans une DEL, puis mesuré l'énergie des électrons après leur émission dans le vide. Ils ont ainsi observé des pics d'électrons à énergie élevée qui apparaissent dès que le seuil de diminution d'efficacité d'émission lumineuse de la DEL est atteint et dépassé. Ces électrons énergétiques correspondent aux électrons Auger. Cette expérience rappelle celle de Heinrich Hertz en 1887 menant à la découverte de l'effet photoélectrique, effet expliqué en 1905 par Einstein par la quantification de la lumière sous forme de quanta de lumière, les photons.

Cette première preuve expérimentale de l'effet Auger dans une diode électroluminescente devrait lancer les recherches pour tenter d'enrayer ce phénomène et éviter la diminution de l'efficacité des DELs. Ceci devrait permettre d'obtenir des DELs beaucoup plus lumineuses, capables de remplacer toutes les sources de lumière des environnements commerciaux et industriels, y compris les tubes néon. L'enjeu est considérable, puisque l'on pourrait ainsi économiser environ 50% de l'électricité utilisée pour l'éclairage, secteur qui représente entre 15 et 22% de la consommation électrique totale suivant les pays.

DOCUMENT         CNRS           LIEN

 
 
 
 

LE NOYEAU ATOMIQUE

 

Paris, 18 juillet 2012

Le noyau atomique : liquide fissile ou molécule vitale ?
Une nouvelle vision unifiant les deux aspects noyau-liquide et noyau-molécule est révélée par une équipe de l'Institut de physique nucléaire d'Orsay (Université Paris-Sud/CNRS) et du CEA, en collaboration avec l'Université de Zagreb. En faisant l'analogie avec les étoiles à neutrons(1), les chercheurs ont mis en évidence, pour la première fois, l'une des conditions nécessaires à la formation, au sein du noyau atomique, de comportements moléculaires. Ces derniers permettent notamment de comprendre la synthèse des éléments indispensables à l'apparition de la vie. Ces travaux sont publiés dans Nature le 19 juillet 2012.
Le noyau atomique est généralement décrit comme une goutte de liquide quantique de l'ordre du millionième de milliardième de mètre de diamètre. Ce comportement de type liquide explique notamment la fission nucléaire, et s'applique préférentiellement aux noyaux lourds, c'est-à-dire ceux contenant beaucoup de nucléons (les neutrons et les protons). En revanche, les noyaux légers(2) peuvent se comporter comme de minuscules « molécules » - ou agrégats - composés de neutrons et de protons à l'échelle du noyau. Cet aspect moléculaire permet de comprendre la synthèse stellaire du carbone-12 ou d'éléments plus lourds, nécessaires à l'apparition de la vie(3).

Jusqu'à présent, les deux visions « noyau-molécule » et « noyau-liquide » co-existaient. Aujourd'hui, une équipe de l'Institut de physique nucléaire d'Orsay (Université Paris-Sud/CNRS) et du CEA, en collaboration avec des chercheurs de l'Université de Zagreb, livre une vision unifiée de ces deux aspects. En résolvant des équations de physique quantique à l'échelle du noyau (et notamment l'équation de Schrödinger), les chercheurs ont démontré que, si un noyau léger peut présenter un comportement de type moléculaire (qui tend vers l'état cristallin), il adopte, lorsqu'il s'alourdit, un comportement de type liquide. Pour établir cette nouvelle théorie, les physiciens se sont inspirés des étoiles à neutrons(1). Plus on s'enfonce à l'intérieur de ces étoiles, plus on passe d'un milieu cristallin à un milieu liquide. Grâce à cette analogie, les physiciens ont identifié un mécanisme de transition de l'état liquide vers l'état cristallin du noyau. Lorsque les interactions entre neutrons et protons ne sont pas assez fortes pour les fixer au sein du noyau, celui-ci est alors dans un état de type liquide quantique où neutrons et protons sont délocalisés. À l'inverse, dans un état cristallin, neutrons et protons seraient fixés à intervalles réguliers dans le noyau. La molécule nucléaire est interprétée comme un état intermédiaire entre le liquide quantique et le cristal. À long terme, il s'agit de comprendre de manière unifiée les différents états du noyau.

DOCUMENT            CNRS               LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google