ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LES DELS

 

Paris, 25 avril 2013

Pourquoi les DELs perdent leur efficacité lumineuse lorsque l'intensité du courant augmente
Le mystère de la diminution du rendement des diodes électro-luminescentes (DELs) vient d'être résolu par une équipe du Laboratoire de physique de la matière condensée (CNRS/ École polytechnique), en collaboration avec l'Université de Californie à Santa Barbara. Ce phénomène constitue un verrou limitant l'expansion de ces sources de lumière efficaces et économes en énergie. L'équipe franco-américaine vient de montrer que dans une DEL, l'énergie électrique ne sert pas uniquement à émettre de la lumière, mais qu'elle contribue également à exciter des électrons dans la matière. Ces travaux, publiés le 25 avril 2013 dans la revue Physical Review Letters, pourraient permettre de contrer cet effet pour obtenir des DELs plus performantes, fournissant une intensité lumineuse beaucoup plus importante.
L'efficacité d'une DEL correspond à son rendement de transformation de l'énergie électrique en lumière. Or, les chercheurs savent que, lorsque l'intensité du courant qui traverse la DEL dépasse un certain seuil, son efficacité diminue. De ce fait, pour maintenir un rendement élevé, les DELs fabriquées commercialement fonctionnent à des densités de courant relativement faibles. Elles sont, par conséquent, à l'unité, moins intenses que d'autres sources de lumière pourtant moins efficaces, comme les lampes à incandescence. Pour obtenir des intensités lumineuses fortes, les industriels doivent accumuler les DELs dans chaque lampe, ce qui augmente considérablement les coûts. Le phénomène de diminution de l'efficacité des DELs constitue donc un frein important à leur expansion dans des domaines tels que l'illumination d'environnements industriels. 

Lorsqu'un courant électrique traverse une DEL, des paires électron-trou1 sont injectées dans la structure. Des photons sont émis lorsqu'une paire électron-trou se recombine et cède son énergie en émettant de la lumière. C'est ainsi que s'opère la conversion de l'énergie électrique en lumière, dont malheureusement  l'efficacité diminue lorsque l'intensité du courant dépasse un certain seuil. Cette baisse était connue depuis 1999, mais son origine demeurait incertaine. L'équipe franco-américaine vient de montrer de façon directe que l'effet Auger est le principal responsable de cette diminution.

L'effet Auger se manifeste lorsque la densité d'électrons traversant le semi-conducteur est grande. Alors, une paire électron-trou peut ne pas se recombiner en émettant un photon, mais en excitant un deuxième électron sous forme d'énergie cinétique. Ce dernier est appelé électron Auger. Son énergie excédentaire est dissipée sous forme de chaleur. Pour observer l'effet Auger, les chercheurs ont fait passer un courant dans une DEL, puis mesuré l'énergie des électrons après leur émission dans le vide. Ils ont ainsi observé des pics d'électrons à énergie élevée qui apparaissent dès que le seuil de diminution d'efficacité d'émission lumineuse de la DEL est atteint et dépassé. Ces électrons énergétiques correspondent aux électrons Auger. Cette expérience rappelle celle de Heinrich Hertz en 1887 menant à la découverte de l'effet photoélectrique, effet expliqué en 1905 par Einstein par la quantification de la lumière sous forme de quanta de lumière, les photons.

Cette première preuve expérimentale de l'effet Auger dans une diode électroluminescente devrait lancer les recherches pour tenter d'enrayer ce phénomène et éviter la diminution de l'efficacité des DELs. Ceci devrait permettre d'obtenir des DELs beaucoup plus lumineuses, capables de remplacer toutes les sources de lumière des environnements commerciaux et industriels, y compris les tubes néon. L'enjeu est considérable, puisque l'on pourrait ainsi économiser environ 50% de l'électricité utilisée pour l'éclairage, secteur qui représente entre 15 et 22% de la consommation électrique totale suivant les pays.

DOCUMENT         CNRS           LIEN

 
 
 
 

LE NOYEAU ATOMIQUE

 

Paris, 18 juillet 2012

Le noyau atomique : liquide fissile ou molécule vitale ?
Une nouvelle vision unifiant les deux aspects noyau-liquide et noyau-molécule est révélée par une équipe de l'Institut de physique nucléaire d'Orsay (Université Paris-Sud/CNRS) et du CEA, en collaboration avec l'Université de Zagreb. En faisant l'analogie avec les étoiles à neutrons(1), les chercheurs ont mis en évidence, pour la première fois, l'une des conditions nécessaires à la formation, au sein du noyau atomique, de comportements moléculaires. Ces derniers permettent notamment de comprendre la synthèse des éléments indispensables à l'apparition de la vie. Ces travaux sont publiés dans Nature le 19 juillet 2012.
Le noyau atomique est généralement décrit comme une goutte de liquide quantique de l'ordre du millionième de milliardième de mètre de diamètre. Ce comportement de type liquide explique notamment la fission nucléaire, et s'applique préférentiellement aux noyaux lourds, c'est-à-dire ceux contenant beaucoup de nucléons (les neutrons et les protons). En revanche, les noyaux légers(2) peuvent se comporter comme de minuscules « molécules » - ou agrégats - composés de neutrons et de protons à l'échelle du noyau. Cet aspect moléculaire permet de comprendre la synthèse stellaire du carbone-12 ou d'éléments plus lourds, nécessaires à l'apparition de la vie(3).

Jusqu'à présent, les deux visions « noyau-molécule » et « noyau-liquide » co-existaient. Aujourd'hui, une équipe de l'Institut de physique nucléaire d'Orsay (Université Paris-Sud/CNRS) et du CEA, en collaboration avec des chercheurs de l'Université de Zagreb, livre une vision unifiée de ces deux aspects. En résolvant des équations de physique quantique à l'échelle du noyau (et notamment l'équation de Schrödinger), les chercheurs ont démontré que, si un noyau léger peut présenter un comportement de type moléculaire (qui tend vers l'état cristallin), il adopte, lorsqu'il s'alourdit, un comportement de type liquide. Pour établir cette nouvelle théorie, les physiciens se sont inspirés des étoiles à neutrons(1). Plus on s'enfonce à l'intérieur de ces étoiles, plus on passe d'un milieu cristallin à un milieu liquide. Grâce à cette analogie, les physiciens ont identifié un mécanisme de transition de l'état liquide vers l'état cristallin du noyau. Lorsque les interactions entre neutrons et protons ne sont pas assez fortes pour les fixer au sein du noyau, celui-ci est alors dans un état de type liquide quantique où neutrons et protons sont délocalisés. À l'inverse, dans un état cristallin, neutrons et protons seraient fixés à intervalles réguliers dans le noyau. La molécule nucléaire est interprétée comme un état intermédiaire entre le liquide quantique et le cristal. À long terme, il s'agit de comprendre de manière unifiée les différents états du noyau.

DOCUMENT            CNRS               LIEN

 
 
 
 

LE GRAPHENE

 

Paris, 28 janvier 2013

La Commission européenne sélectionne le projet phare de recherche Graphène
Le projet Graphène a été retenu le 28 janvier 2013 par la Commission européenne comme l'un des deux premiers « FET Flagships » lancés à ce jour : d'une ampleur sans précédent, ces projets phare européens de recherche devraient bénéficier chacun d'une dotation d'un milliard d'euros au cours des dix prochaines années. L'objectif de ce projet est de développer les applications du graphène, et plus largement de la famille des matériaux bidimensionnels, de révolutionner ainsi de nombreuses industries et de générer à la fois croissance économique et emploi en Europe. La France sera, par le volume des activités de recherche conduites, le premier contributeur scientifique du projet durant sa phase de lancement.
Le graphène fait l'objet de toutes les attentions depuis les expériences capitales réalisées sur ce nouveau matériau il y a moins de dix ans et qui ont valu le Prix Nobel de physique 2010 à Andre Geim et Kostya Novoselov de l'Université de Manchester. Cristal bidimensionnel d'un seul plan atomique de carbone, le graphène possède des propriétés extraordinaires, notamment électriques (plus conducteur que le cuivre) et mécaniques (100 à 300 fois plus résistant à la rupture que l'acier) ; il est de plus imperméable à tous les gaz.

Les technologies à base de graphène permettent d'envisager à court terme des applications comme de nouveaux produits électroniques à la fois rapides, flexibles et résistants comme le papier électronique, et des dispositifs de communication enroulables. À plus long terme, elles pourraient déboucher sur des applications révolutionnaires dans le domaine médical, comme des rétines artificielles. Les systèmes électroniques et optiques rapides, l'électronique flexible, les composants légers et les batteries avancées comptent parmi les plus importantes applications potentielles de ce cristal. Permettre le développement de ces applications, en Europe, sera l'objectif du projet Graphène : les recherches menées iront de la production des matériaux, aux composants et à l'intégration des systèmes, et cibleront un certain nombre d'objectifs spécifiques exploitant les propriétés uniques de ce cristal.

A l'issue d'un processus de sélection de deux années, le projet Graphène a été retenu par la Commission européenne parmi trente-cinq projets initialement en compétition. Il est mené par un consortium de 74 partenaires académiques et industriels issus de 17 pays. Il réunit ainsi 126 groupes de recherche et disposera d'un budget initial de 54 millions d'euros sur 30 mois. Le projet est coordonné par le Professeur Jari Kinaret, de l'Université de technologie de Chalmers à Gothenburg, en Suède. Le Professeur, Jari Kinaret conduira les activités de recherche conjointement avec les responsables des quinze axes du projet : onze axes scientifiques et technologiques (Matériaux – Santé et environnement – Recherche fondamentale sur le graphène et les matériaux bidimensionnels (au-delà du graphène) – Electronique haute-fréquence – Optoélectronique – Spintronique – Capteurs – Electronique flexible – Applications à l'énergie – Nanocomposites – Technologies de production) et 4 axes associés à la gestion du projet et à l'innovation.
L'équipe dirigeante sera assistée par un conseil consultatif d'orientation stratégique composé notamment de quatre Prix Nobel de Physique (Andre Geim (Royaume-Uni), Albert Fert (France), Klaus von Klitzing (Allemagne) et Kostya Novoselov (Royaume-Uni)) et des représentants d'industriels majeurs, Nokia (Finlande) et Airbus (France).

DOCUMENT           CNRS           LIEN

 
 
 
 

PLANCK ET LE BIG BANG

 

Paris, 21 mars 2013

Planck dévoile une nouvelle image du Big Bang
Lancé en 2009, Planck, le satellite de l'Agence spatiale européenne (ESA) dédié à l'étude du rayonnement fossile, livre aujourd'hui les résultats de ses quinze premiers mois d'observations. Ils apportent une moisson de renseignements sur l'histoire et la composition de l'Univers : la carte la plus précise jamais obtenue du rayonnement fossile, la mise en évidence d'un effet prévu par les modèles d'Inflation, une révision à la baisse du rythme de l'expansion de l'Univers, ou encore une nouvelle évaluation de la composition de l'Univers. Bon nombre de ces données ont été obtenues grâce au principal instrument de Planck, HFI, conçu et assemblé sous la direction de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS.
Depuis sa découverte en 1965, le rayonnement fossile constitue une source de connaissance précieuse pour les cosmologistes, véritable « Pierre de Rosette » permettant de décrypter l'histoire de l'Univers depuis le Big Bang. Ce flux de photons détectable sur l'ensemble du ciel, dans la gamme des ondes radio,  témoigne de l'état de l'Univers lors de sa prime jeunesse et recèle les traces des grandes structures qui se développeront par la suite. Produit 380 000 ans après le Big Bang, au moment où se formèrent les premiers atomes, il nous arrive quasi inchangé et permet aux scientifiques d'accéder à l'image de ce que fut le cosmos à sa naissance, voici environ 13.8 milliards d'années. Confronter ces mesures aux modèles théoriques peut nous apporter de multiples informations : non seulement sur l'évolution de l'Univers depuis l'apparition du rayonnement fossile, mais également sur des événements antérieurs qui en sont la cause et pour lesquels les astrophysiciens disposent de peu d'observations.

Une nouvelle carte du rayonnement fossile

C'est l'une de ces fenêtres sur l'Univers primordial que vient d'ouvrir la mission Planck. Lancé en 2009, ce satellite de l'ESA a, durant un an et demi, dressé une carte de ce rayonnement fossile sur l'ensemble du ciel. Planck possède deux instruments dont l'un, l'Instrument haute fréquence HFI, a été conçu et assemblé sous la direction de l'Institut d'Astrophysique Spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS. Grâce à eux, il a pu mesurer avec une sensibilité sans précédent les variations d'intensité lumineuse de l'Univers primordial, venant affiner les observations des missions spatiales COBE (lancée en 1990) et WMAP (en 1998). Ces variations d'intensité lumineuse (qui se présentent sous la forme de taches plus ou moins brillantes) sont précisément l'empreinte des germes des grandes structures actuelles du cosmos et désignent les endroits où la matière s'est par la suite assemblée, puis effondrée sur elle-même, avant de donner naissance aux étoiles, galaxies et amas de galaxies.
 
Selon certaines théories, l'origine de ces « grumeaux » ou « fluctuations » du rayonnement fossile est à chercher du côté de l' « Inflation », un évènement survenu plus tôt dans l'histoire de l'Univers. Durant cet épisode, très violent, qui se serait déroulé environ 10-35 secondes après le « Big Bang », l'Univers aurait connu une brusque phase d'expansion et aurait grossi de manière considérable, au moins d'un facteur 1026. Planck a permis de démontrer la validité de l'une des prédictions essentielles des théories d'Inflation : l'intensité lumineuse des « fluctuations à grande échelle » doit être légèrement supérieure à celle des « fluctuations à petite échelle ». En revanche, pour les plus grandes échelles, l'intensité observée est inférieure de 10% aux prédictions de l'Inflation, un mystère qu'aucune théorie ne parvient à expliquer aujourd'hui. Planck confirme par ailleurs avec certitude l'existence d'autres anomalies observées par le passé comme une mystérieuse asymétrie des températures moyennes observées dans des directions opposées ou l'existence d'un point froid.

Les données de la mission nominale de Planck font l'objet d'une trentaine de publications simultanées disponibles le 21 mars 2013 sur http://sci.esa.int, puis le 22 mars 2013 sur www.arxiv.org.
Parmi ces autres résultats :
-    La confirmation de la « platitude » de l'Univers
-    La révision à la baisse de la constante de Hubble, et donc du rythme d'expansion de l'Univers
-    Une nouvelle évaluation, à partir du seul rayonnement fossile, de la composition de l'Univers : 69.4 % d'énergie noire (contre 72.8 % auparavant), 25.8 % de matière noire (contre 23 %) et 4.8 % de matière ordinaire (contre 4.3 %).
-    Des cartes inédites précieuses pour affiner le scénario de l'histoire de l'Univers et comprendre la physique qui régit son évolution : elles permettent de montrer comment se répartissent la matière noire et la matière ordinaire sur la voûte céleste ; le « fond diffus infrarouge » correspond quant à lui à la lumière émise par les poussières de toutes les galaxies au cours des dix derniers milliards d'années et permet donc d'identifier les zones où se sont concentrés les objets constitués de matière ordinaire.
-    Une première analyse de la polarisation du signal cosmologique, qui montre que les données de Planck sont remarquablement cohérentes avec celles sur l'intensité du rayonnement fossile aux échelles correspondantes aux futurs amas de galaxies ; une analyse plus complète sera fournie en 2014, ainsi que d'autres résultats de la mission Planck.

La contribution de la recherche française dans la mission Planck

La France est leader de l'instrument haute fréquence Planck-HFI, essentiel pour les résultats cosmologiques : sa construction a coûté 140 millions d'euros et mobilisé 80 chercheurs de dix laboratoires du CNRS, du CEA et d'universités, ainsi que de nombreux ingénieurs et techniciens. La France a assuré plus de 50% du financement de cette construction ainsi que celui du traitement de ses données : ce financement provient pour moitié du CNES, pour moitié du  CNRS et des universités. Elle participe également au financement de la mission elle-même via sa contribution financière au programme scientifique de l'ESA, soit 15% du coût de la mission.

Une contribution française essentielle au projet Planck a été la fourniture du système de refroidissement à 0.1 degrés au-dessus du zéro absolu de l'instrument HFI. Ce système, qui a fait l'objet d'un  brevet CNES, a été inventé par Alain Benoît (CNRS), de l'Institut Néel (ce qui lui a valu la médaille de l'innovation 2012 du CNRS) et développé par la société Air Liquide. Grâce à cette innovation, la caméra HFI détient le record de froid pour un instrument spatial, avec un cryostat refroidi pendant près de mille jours à -273,05°C.
(
http://www2.cnrs.fr/presse/communique/2679.htm).

L'exploitation des résultats scientifiques est assurée majoritairement par le CNRS, avec notamment Jean-Loup Puget (de l'IAS), « Principal Investigator » d'HFI, et François Bouchet (de l'IAP), « Co-Principal Investigator ».

DOCUMENT        CNRS          LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google