|
|
|
|
|
|
LE GRAPHENE |
|
|
|
|
|
Paris, 28 janvier 2013
La Commission européenne sélectionne le projet phare de recherche Graphène
Le projet Graphène a été retenu le 28 janvier 2013 par la Commission européenne comme l'un des deux premiers « FET Flagships » lancés à ce jour : d'une ampleur sans précédent, ces projets phare européens de recherche devraient bénéficier chacun d'une dotation d'un milliard d'euros au cours des dix prochaines années. L'objectif de ce projet est de développer les applications du graphène, et plus largement de la famille des matériaux bidimensionnels, de révolutionner ainsi de nombreuses industries et de générer à la fois croissance économique et emploi en Europe. La France sera, par le volume des activités de recherche conduites, le premier contributeur scientifique du projet durant sa phase de lancement.
Le graphène fait l'objet de toutes les attentions depuis les expériences capitales réalisées sur ce nouveau matériau il y a moins de dix ans et qui ont valu le Prix Nobel de physique 2010 à Andre Geim et Kostya Novoselov de l'Université de Manchester. Cristal bidimensionnel d'un seul plan atomique de carbone, le graphène possède des propriétés extraordinaires, notamment électriques (plus conducteur que le cuivre) et mécaniques (100 à 300 fois plus résistant à la rupture que l'acier) ; il est de plus imperméable à tous les gaz.
Les technologies à base de graphène permettent d'envisager à court terme des applications comme de nouveaux produits électroniques à la fois rapides, flexibles et résistants comme le papier électronique, et des dispositifs de communication enroulables. À plus long terme, elles pourraient déboucher sur des applications révolutionnaires dans le domaine médical, comme des rétines artificielles. Les systèmes électroniques et optiques rapides, l'électronique flexible, les composants légers et les batteries avancées comptent parmi les plus importantes applications potentielles de ce cristal. Permettre le développement de ces applications, en Europe, sera l'objectif du projet Graphène : les recherches menées iront de la production des matériaux, aux composants et à l'intégration des systèmes, et cibleront un certain nombre d'objectifs spécifiques exploitant les propriétés uniques de ce cristal.
A l'issue d'un processus de sélection de deux années, le projet Graphène a été retenu par la Commission européenne parmi trente-cinq projets initialement en compétition. Il est mené par un consortium de 74 partenaires académiques et industriels issus de 17 pays. Il réunit ainsi 126 groupes de recherche et disposera d'un budget initial de 54 millions d'euros sur 30 mois. Le projet est coordonné par le Professeur Jari Kinaret, de l'Université de technologie de Chalmers à Gothenburg, en Suède. Le Professeur, Jari Kinaret conduira les activités de recherche conjointement avec les responsables des quinze axes du projet : onze axes scientifiques et technologiques (Matériaux – Santé et environnement – Recherche fondamentale sur le graphène et les matériaux bidimensionnels (au-delà du graphène) – Electronique haute-fréquence – Optoélectronique – Spintronique – Capteurs – Electronique flexible – Applications à l'énergie – Nanocomposites – Technologies de production) et 4 axes associés à la gestion du projet et à l'innovation.
L'équipe dirigeante sera assistée par un conseil consultatif d'orientation stratégique composé notamment de quatre Prix Nobel de Physique (Andre Geim (Royaume-Uni), Albert Fert (France), Klaus von Klitzing (Allemagne) et Kostya Novoselov (Royaume-Uni)) et des représentants d'industriels majeurs, Nokia (Finlande) et Airbus (France).
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
PLANCK ET LE BIG BANG |
|
|
|
|
|
Paris, 21 mars 2013
Planck dévoile une nouvelle image du Big Bang
Lancé en 2009, Planck, le satellite de l'Agence spatiale européenne (ESA) dédié à l'étude du rayonnement fossile, livre aujourd'hui les résultats de ses quinze premiers mois d'observations. Ils apportent une moisson de renseignements sur l'histoire et la composition de l'Univers : la carte la plus précise jamais obtenue du rayonnement fossile, la mise en évidence d'un effet prévu par les modèles d'Inflation, une révision à la baisse du rythme de l'expansion de l'Univers, ou encore une nouvelle évaluation de la composition de l'Univers. Bon nombre de ces données ont été obtenues grâce au principal instrument de Planck, HFI, conçu et assemblé sous la direction de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS.
Depuis sa découverte en 1965, le rayonnement fossile constitue une source de connaissance précieuse pour les cosmologistes, véritable « Pierre de Rosette » permettant de décrypter l'histoire de l'Univers depuis le Big Bang. Ce flux de photons détectable sur l'ensemble du ciel, dans la gamme des ondes radio, témoigne de l'état de l'Univers lors de sa prime jeunesse et recèle les traces des grandes structures qui se développeront par la suite. Produit 380 000 ans après le Big Bang, au moment où se formèrent les premiers atomes, il nous arrive quasi inchangé et permet aux scientifiques d'accéder à l'image de ce que fut le cosmos à sa naissance, voici environ 13.8 milliards d'années. Confronter ces mesures aux modèles théoriques peut nous apporter de multiples informations : non seulement sur l'évolution de l'Univers depuis l'apparition du rayonnement fossile, mais également sur des événements antérieurs qui en sont la cause et pour lesquels les astrophysiciens disposent de peu d'observations.
Une nouvelle carte du rayonnement fossile
C'est l'une de ces fenêtres sur l'Univers primordial que vient d'ouvrir la mission Planck. Lancé en 2009, ce satellite de l'ESA a, durant un an et demi, dressé une carte de ce rayonnement fossile sur l'ensemble du ciel. Planck possède deux instruments dont l'un, l'Instrument haute fréquence HFI, a été conçu et assemblé sous la direction de l'Institut d'Astrophysique Spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS. Grâce à eux, il a pu mesurer avec une sensibilité sans précédent les variations d'intensité lumineuse de l'Univers primordial, venant affiner les observations des missions spatiales COBE (lancée en 1990) et WMAP (en 1998). Ces variations d'intensité lumineuse (qui se présentent sous la forme de taches plus ou moins brillantes) sont précisément l'empreinte des germes des grandes structures actuelles du cosmos et désignent les endroits où la matière s'est par la suite assemblée, puis effondrée sur elle-même, avant de donner naissance aux étoiles, galaxies et amas de galaxies.
Selon certaines théories, l'origine de ces « grumeaux » ou « fluctuations » du rayonnement fossile est à chercher du côté de l' « Inflation », un évènement survenu plus tôt dans l'histoire de l'Univers. Durant cet épisode, très violent, qui se serait déroulé environ 10-35 secondes après le « Big Bang », l'Univers aurait connu une brusque phase d'expansion et aurait grossi de manière considérable, au moins d'un facteur 1026. Planck a permis de démontrer la validité de l'une des prédictions essentielles des théories d'Inflation : l'intensité lumineuse des « fluctuations à grande échelle » doit être légèrement supérieure à celle des « fluctuations à petite échelle ». En revanche, pour les plus grandes échelles, l'intensité observée est inférieure de 10% aux prédictions de l'Inflation, un mystère qu'aucune théorie ne parvient à expliquer aujourd'hui. Planck confirme par ailleurs avec certitude l'existence d'autres anomalies observées par le passé comme une mystérieuse asymétrie des températures moyennes observées dans des directions opposées ou l'existence d'un point froid.
Les données de la mission nominale de Planck font l'objet d'une trentaine de publications simultanées disponibles le 21 mars 2013 sur http://sci.esa.int, puis le 22 mars 2013 sur www.arxiv.org.
Parmi ces autres résultats :
- La confirmation de la « platitude » de l'Univers
- La révision à la baisse de la constante de Hubble, et donc du rythme d'expansion de l'Univers
- Une nouvelle évaluation, à partir du seul rayonnement fossile, de la composition de l'Univers : 69.4 % d'énergie noire (contre 72.8 % auparavant), 25.8 % de matière noire (contre 23 %) et 4.8 % de matière ordinaire (contre 4.3 %).
- Des cartes inédites précieuses pour affiner le scénario de l'histoire de l'Univers et comprendre la physique qui régit son évolution : elles permettent de montrer comment se répartissent la matière noire et la matière ordinaire sur la voûte céleste ; le « fond diffus infrarouge » correspond quant à lui à la lumière émise par les poussières de toutes les galaxies au cours des dix derniers milliards d'années et permet donc d'identifier les zones où se sont concentrés les objets constitués de matière ordinaire.
- Une première analyse de la polarisation du signal cosmologique, qui montre que les données de Planck sont remarquablement cohérentes avec celles sur l'intensité du rayonnement fossile aux échelles correspondantes aux futurs amas de galaxies ; une analyse plus complète sera fournie en 2014, ainsi que d'autres résultats de la mission Planck.
La contribution de la recherche française dans la mission Planck
La France est leader de l'instrument haute fréquence Planck-HFI, essentiel pour les résultats cosmologiques : sa construction a coûté 140 millions d'euros et mobilisé 80 chercheurs de dix laboratoires du CNRS, du CEA et d'universités, ainsi que de nombreux ingénieurs et techniciens. La France a assuré plus de 50% du financement de cette construction ainsi que celui du traitement de ses données : ce financement provient pour moitié du CNES, pour moitié du CNRS et des universités. Elle participe également au financement de la mission elle-même via sa contribution financière au programme scientifique de l'ESA, soit 15% du coût de la mission.
Une contribution française essentielle au projet Planck a été la fourniture du système de refroidissement à 0.1 degrés au-dessus du zéro absolu de l'instrument HFI. Ce système, qui a fait l'objet d'un brevet CNES, a été inventé par Alain Benoît (CNRS), de l'Institut Néel (ce qui lui a valu la médaille de l'innovation 2012 du CNRS) et développé par la société Air Liquide. Grâce à cette innovation, la caméra HFI détient le record de froid pour un instrument spatial, avec un cryostat refroidi pendant près de mille jours à -273,05°C.
(http://www2.cnrs.fr/presse/communique/2679.htm).
L'exploitation des résultats scientifiques est assurée majoritairement par le CNRS, avec notamment Jean-Loup Puget (de l'IAS), « Principal Investigator » d'HFI, et François Bouchet (de l'IAP), « Co-Principal Investigator ».
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
NANOTECHNOLOGIE ET TRANSISTORS |
|
|
|
|
|
Paris, 1er mars 2013
Des transistors à l'assaut de la troisième dimension
Les limites de miniaturisation des composants électroniques pourraient être plus éloignées que ce que l'on pensait. Une équipe du Laboratoire d'analyse et d'architecture des systèmes (LAAS–CNRS, Toulouse) et de l'Institut d'électronique, de microélectronique et de nanotechnologie (CNRS/Université Lille1/Université de Valenciennes et du Hainaut-Cambresis/Isen) viennent de construire un transistor de taille nanométrique au comportement exceptionnel pour un dispositif de cette dimension. Pour y parvenir, les chercheurs ont conçu une architecture originale en trois dimensions composée d'un réseau vertical de nanofils dont la conductivité est contrôlée par une grille de seulement 14 nm de longueur. Ces résultats, publiés dans la revue Nanoscale, ouvrent la voie à des alternatives aux structures planaires des microprocesseurs et des mémoires actuels. Ces transistors 3D permettraient ainsi d'accroître la puissance des dispositifs microélectroniques.
Les transistors, briques de base de la microélectronique, sont composés d'un élément semi-conducteur, dit canal, reliant deux bornes. Le passage du courant entre les bornes est contrôlé par une troisième borne appelée grille : c'est celle-ci qui, tel un interrupteur, détermine si le transistor est ouvert ou fermé. Au cours des 50 dernières années, la taille des transistors n'a cessé de se réduire à un rythme constant et soutenu, permettant la montée en puissance des appareils microélectroniques. Cependant, il est admis qu'avec les architectures de transistors planaires actuelles, la miniaturisation est proche de sa limite. En effet, au-delà d'une taille minimale, le contrôle du canal des transistors par la grille est de moins en moins efficace : on observe notamment des fuites de courant qui perturbent les opérations logiques réalisées par ces ensembles de transistors. Voilà pourquoi les chercheurs du monde entier étudient des alternatives permettant de poursuivre la course à la miniaturisation.
Les chercheurs du LAAS et de l'IEMN ont, pour la première fois, construit un transistor nanométrique véritablement en 3D. Le dispositif est constitué d'un réseau serré de nanofils verticaux d'environ 200 nm de longueur reliant deux plans conducteurs. Une grille, constituée de chrome, entoure complètement chaque nanofil et contrôle le passage du courant. Ainsi, les chercheurs ont obtenu un niveau de commande transistor très élevé pour un dispositif de cette dimension. La longueur de la grille est de seulement 14 nm, contre 28 nm pour les transistors des puces actuelles. Néanmoins, sa capacité à contrôler le passage du courant dans le canal du transistor est compatible avec les besoins de la microélectronique actuelle.
Cette architecture pourrait permettre de construire des microprocesseurs constitués d'un empilement de transistors. L'on pourrait ainsi augmenter considérablement le nombre de transistors dans un espace donné, et, par conséquent, augmenter les performances des microprocesseurs ou la capacité des mémoires. Un autre atout important de ces composants est que leur fabrication est relativement simple et ne nécessite pas de procédés lithographiques1 de haute résolution. De plus, ces transistors pourraient s'intégrer facilement aux éléments microélectroniques classiques utilisés actuellement par l'industrie.
Un brevet a été déposé pour ces transistors. Les scientifiques veulent à présent poursuivre leurs efforts en miniaturisant encore la taille de la grille. Celle-ci pourrait être inférieure à 10 nm tout en offrant encore un contrôle du transistor satisfaisant. De plus, ils veulent commencer à concevoir, de concert avec des industriels, les dispositifs électroniques futurs qui mettront à profit l'architecture 3D de ces transistors.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
ASTROPHYSIQUE |
|
|
|
|
|
Paris, 1er septembre 2011
L'étoile la plus primitive de notre galaxie se joue des théories astrophysiques
Une équipe européenne incluant neuf chercheurs de l'Observatoire de Paris et du CNRS a découvert à 4 000 années-lumière de distance, au cœur de la constellation du Lion, l'étoile la plus primitive connue à ce jour. Cette naine SDSS J102915+172927 située dans notre galaxie, la Voie lactée, a été observée à l'aide du Very Large Telescope de l'ESO. Un peu moins massive qu'un soleil et probablement âgée de plus de 13 milliards d'années, elle se distingue par sa très faible teneur en éléments chimiques lourds, synthétisés après le big bang. Des données qui bousculent les modèles théoriques et les scénarios astrophysiques consacrés. Ces résultats sont publiés le 1er septembre 2011 dans la revue Nature.
La traque aux étoiles primordiales est un sujet astrophysique très ancien. Au sein de l'Observatoire de Paris, une équipe de spécialistes de la composition chimique des étoiles se consacre depuis une dizaine d'années à cette question d'importance pour mieux comprendre comment notre galaxie, la Voie lactée, s'est formée et a évolué. Les modèles les plus communément admis tendent à considérer que les toutes premières étoiles de l'Univers étaient hypermassives et ont rapidement explosé en hypernovae ultralumineuses. Ensuite, sont apparues les étoiles massives ou plus modestes, comme le Soleil, que nous connaissons aujourd'hui.
C'est un nouveau spécimen de cette seconde génération d'astres que les chercheurs du laboratoire Galaxies, Etoiles, Physique et Instrumentation GEPI (Observatoire de Paris, CNRS, Université Paris Diderot), de l'Université de Picardie Jules Verne (Amiens) et du laboratoire Cassiopée (Observatoire de la Côte d'Azur, CNRS, Université de Nice-Sophia Antipolis) viennent de découvrir en collaboration avec des collègues italiens et allemands. Ils l'ont débusqué parmi les 2 899 étoiles identifiées comme potentiellement primitives dans le recensement américain du Sloan Digital Sky Survey (SDSS). A la date de l'observation, un tiers seulement de ces objets essentiellement situés dans l'hémisphère céleste nord étaient accessibles au Very Large Telescope de l'Observatoire européen austral ESO sur le Paranal au Chili. Au final, une sélection plus restreinte de six candidats a été étudiée et l'on s'attend à ce que 5 à 50 étoiles similaires, pauvres en éléments lourds tels que carbone, magnésium, silicium, calcium, fer et strontium, puissent ainsi être identifiées.
Le meilleur des six candidats retenus, l'étoile SDSS J102915+172927, apparaît dans le ciel comme un infime point lumineux de magnitude 17, c'est-à-dire 25 000 fois trop faible pour pouvoir être aperçu à l'œil nu. Les scientifiques ont analysé son rayonnement à l'aide des instruments X-Shooter et Ultraviolet and Visual Echelle Spectrographe (UVES) installés sur Kueyen, l'un des quatre télescopes de 8 mètres de diamètre qui composent le Very Large Telescope. X-Shooter notamment est un spectrographe capable d'étudier en une seule fois toutes les gammes de lumières depuis le proche infrarouge jusqu'à l'ultraviolet. Il est équipé d'une optique à intégrale de champ qui le rend très efficace. Cet élément ainsi que le logiciel de réduction de données ont été conçus et fournis par l'Observatoire de Paris/GEPI (Observatoire de Paris, CNRS, Université Paris Diderot). X-Shooter opère régulièrement sur le ciel depuis 2009.
DOCUMENT CNRS LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante |
|
|
|
|
|
|