|
|
|
|
 |
|
Les nouveaux défis de la spintronique |
|
|
|
|
|
spintronique
24.05.2016, par Sylvain Guilbaud
Spintronique Réseau de structures magnétiques en vortex.
C. PFEIDERER/TUM
Partager
Exploitant à la fois les propriétés électriques et magnétiques des électrons, la spintronique a permis dès les années 1990 une explosion de la capacité de stockage des disques durs. Elle offre aujourd’hui de nouvelles pistes pour le futur des technologies de l’information.
Moins de dix ans ont été nécessaires entre la démonstration en laboratoire par Albert Fert et Peter Grünberg, à la fin des années 1980, de l’effet emblématique de la spintronique, la magnéto-résistance géante, et la commercialisation des premiers disques durs utilisant cette propriété par IBM en 1997. Rarement un transfert de technologie entre la recherche fondamentale et la production de masse aura été aussi rapide. Voilà qui illustre l’évolution fulgurante de la spintronique depuis une vingtaine d’années.
Une électronique du spin
La spintronique est le mariage de l’électronique, qui utilise la charge électrique des électrons pour transmettre de l’information, et du spin, une autre propriété intrinsèque des électrons. Le spin est une caractéristique microscopique purement quantique, qui n’a pas d’équivalent à notre échelle. Mais on peut se représenter, de manière schématique, un électron comme un petit aimant pouvant prendre seulement deux orientations : un spin « vers le haut » ou un spin « vers le bas ». « Cette propriété était connue depuis les débuts de la physique quantique, mais il n’y avait pas eu d’idée pour l’utiliser en électronique », souligne Yannick Dappe, chercheur au Service de physique de l’état condensé (Spec)1 du CEA Saclay. Dans les années 1960-1970, des théories sont élaborées pour décrire comment les courants de spins se déplacent dans les matériaux magnétiques. Dans les années 1980, le développement des nanotechnologies, en particulier la maîtrise des dépôts métalliques, permet de créer des matériaux possédant les couches d’une épaisseur de seulement quelques nanomètres qui sont nécessaires à l’exploitation du spin des électrons.
Spintronique Représentation schématique du spin de l'électron. Dans une image classique, un spin +1/2 correspond à une rotation de l'électron sur son axe, donnant lieu à un moment magnétique, un spin -1/2 correspond à la même rotation en sens inverse, donnant lieu à un moment magnétique de signe opposé.
S. SMOGUNOV; Y.-J. DAPPE/SPEC
Partager
Multiplier par mille la densité de stockage
C’est dans de telles structures, composées d’une couche d’un métal normal, comme le chrome, en sandwich entre deux couches de métal ferromagnétique, comme le fer, que l’effet de magnéto-résistance géante est observé. Les matériaux ferromagnétiques soumis à un champ magnétique alignent leur aimantation dans la direction de ce champ. De plus, dans ces matériaux, les électrons ne rencontrent pas la même résistance en fonction de leur spin. Quand les aimantations des deux couches ferromagnétiques sont parallèles, les électrons qui se propagent bien dans l’une se propagent bien dans l’autre : la résistance globale est faible. Au contraire, si les aimantations des couches ferromagnétiques sont antiparallèles, les électrons qui se propagent bien dans l’une se propageront mal dans l’autre : la résistance globale sera forte. Cette différence de résistance induite par un champ magnétique peut être très forte, d’où le nom de magnéto-résistance géante. Sa découverte vaudra le prix Nobel de physique à Albert Fert et Peter Grünberg en 2007.
Cet effet est employé dans les têtes de lecture des disques durs, dont l’objectif est de lire l’orientation magnétique des domaines qui se présentent successivement à la surface du disque dur et qui constituent les bits d’information. La sensibilité des têtes de lecture à magnéto-résistance géante permet de lire une information codée sur des domaines plus petits, et donc d’augmenter la densité de stockage d’un facteur voisin de 1 000. « Les capteurs de champ magnétique à base de magnéto-résistance géante ont aussi trouvé d’autres applications : dans les voitures pour réaliser des capteurs de mouvements de rotation ou de translation ou en technologie médicale pour analyser des concentrations de molécules marquées par une nanoparticule magnétique », précise Albert Fert.
Spintronique Dispositif permettant le dépôt sur un substrat de couches métalliques magnétiques ultraminces dont l'empilement aboutit à l'effet de magnéto-résistance géante (GMR).
H. RAGUET/CNRS PHOTOTHEQUE
Partager
Des mémoires de plus en plus rapides
Si le disque dur reste la base de la mémoire de nos ordinateurs, il a l’inconvénient d’être lent d’accès. Une milliseconde est nécessaire pour lire une information. La mémoire vive de type RAM, très rapide, le supplée. Mais celle-ci est volatile : il faut lui fournir en permanence de l’énergie sous peine de perdre l’information. Il s’agit là d’une source de consommation très importante des ordinateurs. La spintronique permet de réaliser des « mémoires magnétiques » ou MRAM, non volatiles, rapides et économes en électricité. Les jonctions tunnels magnétiques qui les composent sont également constituées de deux couches ferromagnétiques, séparée cette fois par une barrière isolante. L’effet de magnéto-résistance s’en trouve fortement augmenté. On peut stocker de l’information dans la configuration d’aimantation d’une jonction tunnel et mettre des millions de ces jonctions en réseau pour réaliser une MRAM. La première génération de ces composants est arrivée sur le marché en 2006, mais la densité de stockage n’était pas encore suffisante pour s’imposer dans les ordinateurs. « En revanche, les MRAM ont trouvé leur application dans l’avionique et le spatial, poursuit Albert Fert. Car, contrairement aux mémoires classiques, elles sont peu perturbées par les rayonnements dans la haute atmosphère. »
Ces mémoires
bouleverseront le
paradigme actuel
qui sépare, dans
un ordinateur,
mémoire vive
et mémoire
de stockage.
Le grand espoir vient de la nouvelle génération de MRAM développée actuellement. Elle intègre un autre effet majeur de la spintronique, le transfert de moment de spin. Celui-ci permet de renverser l’aimantation d’une couche, et donc d’écrire une information dans la mémoire, grâce à un simple courant électrique plutôt qu’en appliquant un champ magnétique. « Ces mémoires s’implanteront vraisemblablement dans les ordinateurs d’ici quelques années et bouleverseront alors le paradigme actuel qui sépare, dans un ordinateur, mémoire vive et mémoire de stockage », annonce Martin Bowen, physicien à l’Institut de physique et chimie des matériaux de Strasbourg2.
Spintronique Les mémoires MRAM pourraient à terme remplacer les mémoires Flash actuellement utilisées dans les disques durs SSD.
Ralf ROLETSCHEK/fahrradmonteur.de/WIKIMEDIA COMMONS
Partager
Du stockage à la transmission de l’information
Au-delà de ces applications, la spintronique fait toujours l’objet de recherches fondamentales dont le panorama s’est diversifié. D’une part, les chercheurs tentent d’aller toujours plus loin dans la spintronique « classique », celle employée dans les dispositifs à magnéto-résistance, qui consiste à placer différents matériaux sur le chemin des électrons pour influencer la circulation des spins. « Au lieu d’utiliser des couches de métal normal, comme dans les premiers dispositifs, ou des barrières isolantes, comme dans les jonctions tunnels magnétiques, on peut aussi tester d’autres matériaux, comme des assemblées de molécules, pour filtrer les électrons en fonction de leur spin », explique Yannick Dappe. C’est le principe de la spintronique moléculaire sur lequel le chercheur effectue des travaux théoriques avec son collègue du Spec Alexander Smogunov. Des matériaux comme le graphène sont aussi très étudiés. Plutôt que de simplement stocker l’information, la spintronique pourrait aussi aider à la transmettre. Pour cela, il faut développer des sources performantes de courants polarisés en spin. « Cela nécessite de bien comprendre comment des matériaux dissemblables tels qu’un métal ferromagnétique et des molécules partagent leur charge électronique lorsqu’ils forment une interface, détaille Martin Bowen. Un autre enjeu est de miniaturiser ces concepts à une nano-échelle, par exemple en utilisant les propriétés électroniques des défauts de structure, comme lorsque l’absence d’un atome créé une lacune. »
De nouvelles façons de manipuler les spins ont aussi émergé ces dernières années. L’une d’elle est la spin-orbitronique. L’idée est d’utiliser un effet relativiste, le couplage spin-orbite, très important dans les métaux lourds comme le bismuth ou le platine. Parmi les pistes ouvertes par ce domaine se trouve la possibilité de stocker et transporter de l’information grâce aux skyrmions. « Ce sont des petits nœuds de spins de quelques nanomètres avec lesquels on peut mémoriser une information, comme avec les boules d’un boulier. On peut ensuite déplacer ces skyrmions le long d’une piste jusqu’à un nanocapteur pour lire l’information codée dans un train de skyrmions », explique Albert Fert, dont l’équipe au sein de l’unité mixte de recherche CNRS/Thales se penche en particulier sur ce champ de recherche.
Alors que la fabrication des composants à base de semi-conducteurs commence à atteindre ses limites en termes de miniaturisation, la spintronique s’impose petit à petit comme une technologie complémentaire permettant de dépasser certaines de ces limites et de prendre probablement à moyen terme le relai de l’électronique classique. Outre les nouveaux composants qu’elle propose, comme les MRAM, la spintronique pourrait participer à la définition de nouvelles architectures informatiques, c’est-à-dire de nouvelles façons de faire les calculs. L’électronique neuromorphique propose par exemple de s’inspirer du fonctionnement du cerveau, en particulier des synapses, qui se transforment en fonction de l’information qu’elles reçoivent.
Notes
1. Unité CNRS/CEA.
2. Unité CNRS/Univ. de Strasbourg.
DOCUMENT cnrs le journal LIEN
Inscrivez le titre complet dans la rubrique " cnrs le journal " |
|
|
|
|
 |
|
ONDES GRAVITATIONNELLES |
|
|
|
|
|
Paris, 11 février 2016
Les ondes gravitationnelles détectées 100 ans après la prédiction d'Einstein
LIGO ouvre une nouvelle fenêtre sur l'Univers avec l'observation d'ondes gravitationnelles provenant d'une collision de deux trous noirs. Pour la première fois, des scientifiques ont observé des ondulations de l'espace-temps, appelées ondes gravitationnelles, produites par un événement cataclysmique dans l'Univers lointain atteignant la Terre après un long voyage. Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l'Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d'une telle collision de deux trous noirs avait été prédite, mais ce phénomène n'avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l'Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l'objet d'une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l'Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.
Clin d'œil de l'histoire : c'est 100 ans tout juste après la publication de la théorie de la relativité générale d'Einstein, qu'une équipe internationale vient d'en confirmer l'une des prédictions majeures, en réalisant la première détection directe d'ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.
L'analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d'estimer que les deux trous noirs ont fusionné il y a 1.3 milliard d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil. La comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L'entrée en service d'Advanced Virgo fin 2016 permettra justement cela.
Selon la théorie de la relativité générale, un couple de trous noirs en orbite l'un autour de l'autre perd de l'énergie sous forme d'ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l'ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2. C'est cette bouffée d'ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.
Une preuve indirecte de l'existence des ondes gravitationnelles avait été fournie par l'étude de l'objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d'un pulsar en orbite autour d'une étoile à neutrons. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l'énergie sous la forme d'ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d'années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l'évolution d'un autre système binaire, formé de deux trous noirs, lorsqu'ils ont fusionné en un trou noir unique.
Détecter un phénomène aussi insaisissable1 que les ondes gravitationnelles aura demandé plus de 50 ans d'efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd'hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l'astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu'émettent certains objets astrophysiques, comme les trous noirs.
Autour de LIGO s'est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L'équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), de Leibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff, Birmingham, et d'autres universités du Royaume-Uni, et à l'Université des îles Baléares en Espagne.
Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l'Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l'interféromètre Virgo.
A l'origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d'Alain Brillet et d'Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l'INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu'en 2011.
Le projet Advanced Virgo, financé par le CNRS, l'INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d'ici la fin de l'année. En outre, d'autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd'hui.
En s'engageant depuis plus de vingt ans dans la réalisation de Virgo puis d'Advanced Virgo, la France s'est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l'exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l'analyse des données qu'à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées :
- le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
- le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d'Azur/Université Nice Sophia Antipolis), à Nice ;
- le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
- le Laboratoire d'Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
- le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
- le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.
La découverte a été rendue possible par les capacités accrues d'Advanced LIGO, une version grandement améliorée qui accroit la sensibilité des instruments par rapport à la première génération des détecteurs LIGO. Elle a permis une augmentation notable du volume d'Univers sondé – et la découverte des ondes gravitationnelles dès sa première campagne d'observations. La National Science Foundation des Etats-Unis a financé la plus grande partie d'Advanced LIGO. Des agences de financement allemande (Max Planck Society), britannique (Science and Technology Facilities Council, STFC) et australienne (Australian Research Council) ont aussi contribué de manière significative au projet. Plusieurs des technologies clés qui ont permis d'améliorer très nettement la sensibilité d'Advanced LIGO ont été développées et testées par la collaboration germano-britannique GEO. Des ressources de calcul significatives ont été allouées au projet par le groupe de calcul Atlas de l'AEI à Hanovre, le laboratoire LIGO, l'université de Syracuse et l'Université du Wisconsin à Milwaukee. Plusieurs universités ont conçu, construit et testé des composants clés d'Advanced LIGO : l'université nationale australienne, l'université d'Adélaïde, l'université de Floride, l'université Stanford, l'université Columbia de New York et l'université d'Etat de Louisiane.
DOCUMENT cnrs LIEN |
|
|
|
|
 |
|
VISION INFORMATIQUE DU RELIEF |
|
|
|
|
|
La vision informatique du relief
et aussi - dans mensuel n°318 daté mars 1999 à la page 36 (2289 mots)
Nos deux yeux nous fournissent chacun une image plane, et pourtant le cerveau reconstruit en permanence un monde en trois dimensions. Comment transmettre cette faculté à l'ordinateur? Des techniques intuitives ne donnent pas de résultats convaincants. La réponse est à chercher du côté d'un des domaines mathématiques les plus actifs aujourd'hui.
La photographie est certainement le moyen le plus répandu de partager un souvenir, de faire connaître un endroit. Et demain ? La vidéo, bien sûr ! Envoyer une cassette vidéo par la poste n'est pas aujourd'hui chose courante, encore moins l'équivalent numérique qui consisterait à le faire par Internet : dans les deux cas, c'est encore trop encombrant, peu pratique. Mais demain, ce sera évidemment quotidien. Un petit bonjour ? Un souvenir de vacances ? Un simple clic de souris, et le tout sera expédié par le WEB, son et animation compris...
Troisième dimension. Et pourtant, ce ne sera pas encore une représentation complète de la réalité que recevra le destinataire. Réfléchissez. A l'image fixe de la photographie, la vidéo apporte une dimension supplémentaire, le temps, mais il en manque encore une : la troisième dimension en espace. Tout cela reste désespérément plan. Entendons-nous bien : il existe aujourd'hui plusieurs moyens de donner une sensation de relief, que ce soit en observant la scène d'un point imposé fixé d'avance cinéma en relief ou en s'y déplaçant procédés de réalité virtuelle. Nous ne disposons pas encore de véritables projections tridimensionnelles, sortes d'" hologrammes animés » dont rêvaient les auteurs de science-fiction, mais c'est déjà un premier pas. Non, le vrai problème, celui auquel nous allons nous intéresser ici, c'est l'acquisition de la forme tridimensionnelle du sujet considéré. Lorsque tel réalisateur filme ses comédiens avec deux caméras, il en enregistre deux séries d'images simultanées prises depuis deux emplacements légèrement distincts. Ces séries d'images, une fois reprojetées et observées avec un appareillage adapté lunettes polarisantes ou autres, reproduiront la sensation de relief. C'est, en bien plus sophistiqué, un procédé de stéréoscopie vieux comme la photographie. Qu'il ne prenne pas l'envie au spectateur de voir ce qui se passe de l'autre côté de la scène qui lui est proposée : il ne voit et ne peut voir que le relief qu'il aurait observé, si ses deux yeux avaient été à la place des deux caméras. Un véritable enregistrement tridimensionnel, ce n'est pas saisir deux images d'un même objet pris sous des angles différents. C'est mémoriser l'information tridimensionnelle en elle-même -« il y a un objet à tel endroit de l'espace, il a telle forme, telle couleur, etc. » -, c'est dresser une carte tridimensionnelle complète de ce qui est observé.
Acquérir cette carte, voilà le difficile problème auquel devra se confronter le cinéma du futur. Pourtant, notre cerveau résout ce problème en permanence, justement à partir des images planes qui lui sont transmises : nos deux yeux transmettent deux images différentes du même environnement, images que le cerveau exploite pour extraire de l'information sur la forme et la position de ce que nous voyons. Ce que le cerveau arrive à faire avec nos yeux, il est tentant d'essayer de le réaliser avec un système artificiel fondé sur des caméras reliées à un ordinateur. Imaginez cela : vous venez de filmer votre petit dernier effectuant ses premiers pas. Sitôt connecté au Caméscope, votre PC en extrait les images et commence à reconstituer le tout en trois dimensions. Quelques instants de patience, une petite connexion Internet, et vous pourrez faire admirer en 3D à ses grands-parents les exploits du jeune marcheur.
Retrouver la position d'un point dans l'espace lorsqu'on en possède deux images différentes... A la fois très simple dans le principe et très compliqué dans la pratique. Pourquoi ? Regardez d'un seul oeil ce point M. Vous ne pouvez pas dire où se trouve M exactement, mais vous en savez déjà beaucoup : vous savez dans quelle direction il est. Mais à quelle distance? Il vous faut ouvrir votre deuxième oeil pour obtenir une deuxième direction. Vous saurez ainsi immédiatement que M se situe à l'intersection des deux droites deux droites dans l'espace ne se coupent pas toujours, mais ici, oui. Procédez de la même manière pour tous les points d'un objet observé et vous aurez sa position et sa forme dans l'espace.
Voilà pour le principe. Dans la pratique, la réalisation informatique du procédé soulève un problème. Un seul, mais qui serait suffisant pour réduire tous les espoirs à néant : pour un point m1 donné dans la première image, la machine ne sait pas quel point m2 de la deuxième image lui correspond. Dès lors, impossible de retrouver le point de l'espace dont les points m1 et m2 seraient les images ! Des solutions existent malgré tout. La première consiste à éclairer les objets avec un laser. Seul le point éclairé par le laser sera visible dans les deux images. Pas de doute possible : le point vu dans la première image correspond à celui vu dans la deuxième, d'où la position du point éclairé dans l'espace.
Pour reconstituer tout un objet, il faudra alors le balayer point par point avec le laser : c'est le principe du " plan laser », véritable scanner tridimensionnel. Efficace mais lent ! Imaginez un instant que la nature ait doté l'homme du même système ! Une deuxième solution consiste pour un point m1 donné à rechercher dans la deuxième image quels points m2 lui sont les plus semblables, c'est-à-dire lesquels sont le plus vraisemblablement les images d'un même point de l'espace. Si plusieurs points m2 possibles sont détectés, il faudra que l'ordinateur choisisse tant bien que mal tout seul lequel retenir ou qu'il demande à un opérateur de choisir pour lui. De telles méthodes automatiques ou semi-automatiques sont couramment utilisées, notamment en cartographie à partir d'images aériennes.
Nous sommes pourtant encore loin de l'objectif annoncé : acquérir une carte tridimensionnelle complète de ce qui est observé. Parmi les problèmes en suspens, notons-en deux principaux. Premièrement, ne traiter que deux images d'un objet ne permet de reconstituer que la partie de l'objet qui fait face à l'observateur. Il faudrait donc prévoir un procédé qui puisse reconstruire tout l'objet, à condition bien sûr que l'observateur en fasse tout le tour. Plus subtil est le deuxième problème, à la base de bien des dysfonctionnements de la deuxième des solutions décrites ci-dessus. Lorsqu'on observe un objet, certaines parties en sont cachées, par d'autres objets ou par l'objet lui-même. Ces parties cachées dépendent de la position de l'observateur. Pensez aux murs cachés par les toits dans le cas de la cartographie : sur deux images différentes, ce ne seront pas les mêmes murs qui seront visibles. En conséquence, rechercher absolument un point m2 correspondant à un point m1 donné est parfois source d'erreur. Dans le cas d'un observateur faisant tout le tour d'un ensemble d'objets, ce problème risque fort de devenir le principal obstacle, les objets se cachant les uns les autres et jamais de la même manière.
C'est néanmoins à ces deux problèmes que répond le procédé de reconstruction tridimensionnelle dont nous allons exposer succinctement le principe. Il a été développé conjointement par Olivier Faugeras de l'INRIA de Sophia Antipolis, professeur au Massachusetts Institute of Technology et par l'auteur1. Ce procédé n'a pu aboutir que grâce à de récentes avancées mathématiques sur la théorie des évolutions de surfaces d'une part, et d'autre part, sur leurs méthodes de simulation informatique, c'est-à-dire sur ce que l'on appelle techniquement le domaine des équations aux dérivées partielles EDP, domaine qui a donné à la France l'une de ses récentes médailles Fields en la personne de Pierre-Louis Lions. L'ordinateur travaille en fait sur les surfaces délimitant les objets à reconnaître. Il émet d'abord une hypothèse sur la forme et la position de ce qui est observé, hypothèse consistant en une ou plusieurs surfaces. A partir de là, il vérifie la justesse de l'hypothèse en chacun des points de ces surfaces. Il faut pour cela déterminer, pour un point donné, les caméras qui doivent le voir et celles pour lesquelles il est caché. S'il y a bien un objet au point en question, alors les images qu'en ont les caméras qui le voient doivent être très semblables.
A partir de ces tests en chacun des points de l'hypothèse, les surfaces sont déformées en de nouvelles surfaces dont la mesure de validité est plus grande, et ainsi de suite jusqu'à l'obtention de surfaces stables représentant fidèlement les objets observés.
Tests de validité, puis déformation: en pratique, comment réaliser ces opérations sur ordinateur? Cela suppose d'abord de quantifier précisément les ressemblances entre deux points A et B. En réalité, pour les images numériques, ces points sont des pixels* d'une couleur donnée, composée de trois couleurs élémentaires: vert, rouge et bleu. On pourrait se limiter à l'examen des couleurs en chacun des points A et B, procédé intuitif, mais trop imprécis. Il faut en fait s'intéresser à de petites fenêtres rectangulaires centrées en A et B. Ce sont ces deux fenêtres que l'on compare, et même plus précisément les pixels qui les composent. De plus, même en supposant, ce qui n'est qu'une approximation, qu'un objet émet la même quantité de lumière dans toutes les directions de l'espace, les deux images ne sont pas nécessairement prises dans les mêmes conditions d'éclairage, ni avec des caméras identiques. Il faut donc faire plus qu'une simple comparaison de couleurs des pixels de chaque fenêtre. La solution consiste à calculer ce qu'on appelle un facteur de corrélation normalisé entre les fenêtres, ce qui revient à comparer non plus les couleurs des pixels, mais la façon, dont ces couleurs varient au sein de chaque fenêtre. Ce facteur varie entre 1 pour des fenêtres totalement anti-corrélées et +1 pour des fenêtres totalement corrélées.
Déformer des surfaces. Une fois réglée cette question de corrélation, il reste encore à savoir comment déformer les surfaces. Mathématiquement, elles évoluent suivant une équation aux dérivées partielles, exactement comme nombre de phénomènes physiques variant au cours du temps. Concrètement, on transforme la surface par de petites variations imposées en chacun de ses points. Ces points évoluent selon la normale* à la surface. La longueur du déplacement, appelé vitesse normale, est bien sûr différente en chaque point M. Dans notre cas, elle dépend de la position de M, de la forme de la surface en M et des facteurs de corrélation des différentes caméras voyant M. On fait varier la vitesse normale de telle sorte que le procédé s'arrête aux points où l'objet est détecté elle s'annule quand la corrélation est bonne. De plus, on l'adapte suivant des critères mathématiques rigoureux assurant une évolution « en douceur » de la totalité de la surface vers la solution.
Supposons, pour simplifier, que nous n'ayons plus à déformer une surface dans l'espace, mais une courbe dans un plan, et que cette courbe soit fermée. Une façon naïve de simuler son évolution sur ordinateur consiste à la mémoriser sous la forme d'un ensemble de points, que l'on déforme en faisant bouger les points le long de la normale fig. 1. Cette manière de procéder est mauvaise car très instable : en certains endroits, les points se resserrent tandis qu'en d'autres ils s'écartent. L'approximation numérique devient vite incorrecte, et les résultats, faux. La bonne méthode, appelée « méthode des courbes de niveau », consiste à rajouter une dimension, et à inscrire cette courbe dans une surface évoluant, elle, dans l'espace.
On choisit une surface initiale dont la courbe est le niveau zéro, c'est-à-dire la trace de la surface sur le plan horizontal d'altitude zéro fig. 2. C'est maintenant la surface qu'il s'agit de faire évoluer, mais pas n'importe comment: on veut que son niveau zéro finisse par représenter la solution! C'est là qu'il faut faire appel à la théorie des EDP. Elle fournit en fait une équation qui permet de déformer la surface exactement de sorte que la courbe, elle, évolue vers la solution. Première qualité: en pratique, on est assuré de trouver la bonne solution. Cette technique possède aussi une propriété remarquable : rien n'empêche le niveau zéro de se séparer en plusieurs morceaux fig. 2. La détection d'objets multiples se fait donc sans effort supplémentaire. Enfin et surtout, elle s'étend naturellement aux dimensions supérieures, soit, dans notre cas, à l'évolution d'une surface et non plus d'une courbe il faut alors faire évoluer une hypersurface en dimension 4 dont le niveau zéro est la surface à déformer. Et cela marche! Les étapes successives montrent de premières surfaces approximatives qui se déforment, se précisent et finissent par coller parfaitement aux objets photographiés. Les parties se cachant mutuellement ne trompent en rien l'algorithme.
Jusqu'ici, les méthodes d'acquisition à base de caméras étaient sans justification mathématique rigoureuse, et surtout peu probantes. Elle ne reconstituaient les objets que partiellement, et se trompaient quand ils se cachent mutuellement. Ce nouveau procédé ouvre de nombreux horizons. Nous avons déjà évoqué le cinéma tridimensionnel ou l'acquisition automatique de mondes virtuels. Nous pourrions aussi citer la reconnaissance des formes. Les résultats dans ce domaine seraient grandement améliorés si l'on travaillait sur des données 3D plutôt que sur des images planes. La robotique est également demandeuse2 : un robot mobile autonome doit aujourd'hui se contenter de sonars pour réagir vite et de plans lasers pour les tâches précises. Ces sonars sont d'ailleurs inutilisables dans le vide, donc en exploration spatiale, où pourtant éviter un obstacle est vital! Les spécialistes du trucage et des effets spéciaux seraient ravis de pouvoir extraire toute l'information tridimensionnelle possible d'une séquence filmée. Ils pourraient alors très facilement modifier un acteur, le remplacer par un autre, ou même ajouter des objets ou d'autres acteurs à la séquence. Le résultat serait plus réaliste qu'avec les méthodes actuelles. Ce n'est là qu'une première avancée, car en réalité la véritable motivation de tels travaux est de pouvoir imiter un jour la vision humaine et la remplacer quand elle est déficiente. Le chemin est encore long.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
RADIOACTIVITÉ |
|
|
|
|
|
La radioactivité, le soleil, la terre et la mort de kelvin
autre - par Pascal Richet dans mensuel n°291 daté octobre 1996 à la page 78 (3878 mots)
Quel est l'âge de la Terre ? Longtemps restée mythique, cette question est, dans le dernier quart du XIXe siècle, au coeur d'une vive controverse initiée par un physicien : William Thomson, futur Lord Kelvin. Au tournant du XXe siècle, à la suite des découvertes de Becquerel et des Curie, une nouvelle génération de physiciens vient se mêler de datations géologiques. Avec imprudence, parfois... Au grand dam de Kelvin lui-même, toujours ! Récit des relations tumultueuses entre la géologie et la physique.
A la fin du XIXe siècle, la communauté des géologues est traversée par un intense débat lancé, trente ans plus tôt, par un célèbre physicien écossais. L'un des pères de la thermodynamique, William Thomson, devenu Lord Kelvin of Largs, avait alors entrepris de soumettre les processus géologiques aux lois implacables de sa discipline. Ce faisant, il s'opposait à la conception dominante parmi les géologues : la Terre ne présente pas plus « de vestiges d'un début que de perspectives d'une fin » comme l'affirmait un siècle auparavant le grand géologue écossais Hutton. Kelvin entendait donc nier l'idée d'éternité inspirée aux géologues par l'immensité des terrains lentement transportés du tréfonds de la mer au sommet des montagnes. Pour Kelvin, la Terre a eu un début, elle aura une fin.
Il est vrai que les géologues avaient pris quelques libertés avec la physique. L'uniformitarisme*, en particulier, supposait implicitement l'existence de mouvements perpétuels puisque des cycles géologiques se répétaient, inchangés, depuis la nuit des temps. Et quand les géologues se piquaient de thermodynamique, ils faisaient peu de cas de ses principes. En dépit des lois de conduction de la chaleur établies par Fourier au début du XIXe siècle, les températures mesurées dans les mines étaient audacieusement extrapolées pour donner près de 200 000 °C au centre de la Terre. La Terre apparaissait ainsi comme formée d'un immense océan magmatique surmonté par une croûte solide mince d'une cinquantaine de kilomètres. L'absurdité de cette conception fut démontrée au début des années 1860 par Kelvin : une telle croûte se verrait en effet ballottée au gré des marées de l'énorme masse liquide. A contrario , Kelvin en déduisait que la Terre était donc essentiellement solide, « aussi rigide que l'acier » 1 .
L'idée d'une Terre initialement fondue n'était cependant pas absurde. Déjà évoquée par Descartes ou Leibniz, elle avait été exploitée par Buffon dans ses fameuses expériences qui visaient à dater la Terre d'après la durée de refroidissement de boulets chauffés à blanc. Kelvin reprend ce problème qu'il résoud, mathématiquement, avec les lois de Fourier. En tenant compte des erreurs affectant les paramètres thermiques utilisés, il affirme en 1862 qu'il a fallu de 20 à 400 millions d'années pour que la croûte se forme et refroidisse à sa température actuelle. Il propose 98 millions comme âge le plus probable2. Au fil des années, Kelvin reprend son ouvrage, affine ses paramètres et, peu à peu, réduit ses estimations pour s'en tenir à 24 millions d'années seulement en 18953. La vie terrestre ne pouvait pas être plus ancienne que le Soleil. Il était donc heureux que ces âges soient inférieurs à ceux que Kelvin obtenait pour notre étoile à partir de diverses méthodes, par exemple le taux de dissipation de son énergie sous forme lumineuse.
Bousculés dans leur quête d'éternité, la majorité des géologues avaient fini par admettre les premières estimations d'un Kelvin autoritaire et persuasif. En réinterprétant leurs observations, ils n'identifiaient pas d'incompatibilité majeure avec un âge d'une centaine de millions d'années : une telle durée permet de saler des océans initialement constitués d'eau douce et autorise le dépôt, puis l'érosion des formations sédimentaires accumulées depuis les premiers temps géologiques. Mais les durées de plus en plus courtes consenties par Kelvin posaient de très sérieuses difficultés. La biologie se trouvait également affectée : le cadre temporel qui présidait à l'Evolution se rétrécissait dans des proportions embarrassantes.
Ce fut la découverte de Becquerel, prélude à celle de la radioactivitéI, qui allait conduire à la résolution du conflit au détriment de Kelvin. De prime abord, rien ne laissait pourtant supposer que ce phénomène physique donnerait les premières solutions aux questions du temps géologique et de la dynamique de la Terre et des étoiles. En février 1896, Becquerel se retrouve en effet en terrain inconnu : les rayons X sortent tout juste des limbes, l'électron s'y complaît encore et l'atome reste une entité controversée ne faisant l'unanimité que sur un point, son indivisibilité atome = qui ne peut pas être coupé. Dans une certaine indifférence, Becquerel parvient à attribuer à l'uranium seul la paternité du rayonnement émis par les sels d'urane4, puis il cesse de publier sur ce sujet en mars 1897. Cinq ans plus tard, les publications se compteront par centaines et une compétition serrée aura cours de part et d'autre de l'Atlantique. Que s'est-il passé entre-temps ? Les Curie sont entrés en scène à l'automne de 1897. Mal distinguées des rayons X, même dans les sommaires des Comptes rendus de l'Académie des sciences , ces radiations ont soufflé aux Curie une question très simple : l'uranium est-il le seul élément à en émettre ?
Marie Curie trouve qu'un seul autre élément est actif, le thorium, et découvre que deux minéraux uranifères sont plus actifs que l'uranium lui-même5. De ce constat étonnant, elle conclut que ces minéraux contiennent un élément inconnu beaucoup plus actif que l'uranium. Cinq mois après le polonium, le radium est décrit en décembre 18986. Pour en obtenir quelques dixièmes de gramme sous forme de chlorure, les Curie ont dû traiter des tonnes de pechblende. Ces éléments responsables de la radioactivité élevée des minerais sont donc cent mille fois plus actifs que l'uranium lui-même. Dès l'annonce de ces résultats, l'intérêt immense de la radioactivité devient patent. Après les rayons X, le radium, « la substance la plus mystérieuse du monde » , parvient à son tour à captiver presse et grand public ; une radiomanie s'instaure au point que la radioactivité d'un produit se transforme en argument publicitaire. Cette agitation laisse les géologues indifférents. Certes, le radium et le polonium n'ont été détectés que dans des minéraux, mais la pechblende est une rareté, et non un minéral dont on fait les montagnes...
La situation change radicalement peu après le 16 mars 1903. Ce jour-là7, Pierre Curie et son collaborateur Albert Laborde annoncent que le radium dégage en permanence tant de chaleur qu'il garde une température plus élevée que la matière qui l'entoure. C'est grâce aux gros échantillons de radium purifiés avec tant de peine qu'a pu être mesurée la chaleur produite lorsque les radiations sont absorbées par la matière. Cette profusion d'énergie libérée à longueur d'années est principalement due aux rayons alpha*. Aucune réaction chimique ne peut l'expliquer. Curie et Laborde en déduisent qu'une « transformation profonde » , une « modification de l'atome de radium lui-même » est en jeu. Dans le grand public, jamais mesure calorimétrique n'eut un tel succès d'audience ! A côté de l'émerveillement suscité par ces réserves iné-puisables d'énergie, les Cassandre veillent : pourrait-on un jour concevoir un instrument qui, sous la pression d'un bouton, pulvériserait la Terre et amènerait la fin du monde ? La crainte n'est pas nouvelle, elle fait déjà les gros titres de journaux américains en 1903, un an avant l'Exposition universelle de Saint Louis dont le radium sera la vedette8...
La radioactivité est alors vieille de sept ans. Ses conséquences sur le bilan thermique de la Terre et des étoiles n'ont pas encore été envisagées car ses effets paraissaient beaucoup trop faibles. Après l'expérience de Curie et Laborde, physiciens et astronomes sont prompts à conclure que l'existence d'éléments radioactifs remet en cause les calculs de Kelvin et ses émules. Ces idées reçoivent une base expérimentale avec les mesures faites dans les milieux naturels par les physiciens allemands Elster et Geitel de 1900 à 1905. Des traces de radioactivité sont systématiquement détectées dans les sols et les eaux, provenant principalement du radium et de son émanation non encore identifiée, le radon.
Ces résultats conduisent un spécialiste anglais des rayons alpha, Robert Strutt, fils du physicien Lord Rayleigh, à mesurer la teneur en radium des minéraux et des roches9. Celle-ci augmente, par exemple, d'un facteur dix entre basaltes et granites et, observation importante, les teneurs les plus faibles mesurées par Strutt sont dix fois supérieures à la teneur moyenne requise pour rendre compte du flux de chaleur à la surface de la Terre. Pour ne pas obtenir un flux trop élevé, Strutt doit supposer que le radium est cantonné dans une croûte superficielle de 75 km d'épaisseur. Si le radium était présent en profondeur, la production de chaleur serait telle que la Terre ne serait pas en train de refroidir, mais de s'échauffer ! Quoi qu'il en soit, les géologues ne peuvent plus supposer, comme ils avaient coutume de le faire, que la chaleur exhalée par la Terre provient uniquement de sa condensation initiale. Le retournement de situation est spectaculaire : la physique n'impose plus guère de limites à l'âge de la Terre !
Avant même qu'on se tourne vers la Terre, le Soleil a fait l'objet de spéculations rapides. Pour expliquer l'énergie émise par le Soleil, note l'astronome W.E. Wilson10, il suffit d'y imaginer une concentration en radium de 3,6 grammes par mètre cube. Certes, la présence de radium est douteuse : on ne voit pas les raies caractéristiques de cet élément dans le spectre lumineux du Soleil. Identifié de la sorte pour la toute première fois en 1868, l'hélium est en revanche abondant dans les étoiles. Sur Terre, il n'a été isolé que dans des minerais d'uranium. L'indice est de taille et, dès juillet 1903, les chimistes Ramsay et Soddy rapportent que la désintégration du radium produit effectivement de l'hélium11.
La présence d'hélium dans le Soleil suggère donc l'existence de processus radioactifs qui restent à élucider. Comme l'écrit en 1905 un personnage qu'on va très bientôt retrouver, un certain Ernest Rutherford12, « ß/I Ißl n'est pas improbable que, à la température énorme du Soleil, la fragmentation des éléments en des formes plus simples prenne place à une vitesse plus élevée que sur Terre. Si l'énergie résidant dans les atomes des éléments est disponible, le temps pendant lequel le Soleil peut continuer à émettre au taux actuel peut être au moins 50 fois plus long que la valeur calculée . »
La nouvelle physique semble bien tout permettre, ou presque. Des 12 à 100 millions d'années donnés par l'école de Kelvin, une hypothèse hardie conduit ainsi à une large fourchette de 0,6 à 5 milliards d'années. Seule l'issue finale reste certaine, comme le souligne Rutherford : « L a science n'offre aucune échappatoire à la conclusion de Kelvin et Helmholtz qu'en définitive le Soleil se refroidira et que cette Terre deviendra une planète morte fendant le froid intense du vide de l'espace. »
La radioactivité a en fait plus d'un tour dans son sac. En même temps que surgissent d'inépuisables sources de chaleur, des chronomètres absolus voient le jour. Une nouvelle découverte de Becquerel en est à l'origine en 1900. En séparant chimiquement l'uranium en deux fractions, Becquerel a la surprise d'observer que la radioactivité provient du résidu d'extraction, et non de la fraction principale constituée exclusivement d'uranium. La conclusion paraît évidente : l'élément radioactif n'est pas l'uranium lui-même, mais une impureté accompagnant l'uranium à l'état de tra-ce, aussitôt baptisée uranium X. La situation se complique lorsque, au bout d'un an, Becquerel remarque que l'uranium purifié a retrouvé sa radioactivité tandis que l'uranium X a perdu la sienne ! Quels sont ces éléments changeants qui contreviennent au dogme de l'immuabilité des atomes ? Dès 1902, une réponse retentissante vient de Montréal. Elle devait assurer la célébrité de deux jeunes expatriés, le Néo-Zélandais Rutherford et l'Anglais Soddy13 : ces éléments se transmutent en formant une chaîne d'éléments radioactifs dont le radium est un des termes voir l'encadré « Les chaînes d'éléments radioactifs ». Une « nouvelle alchimie » vient de naître.
Peu avant, Pierre Curie avait observé que l'activité de l'émanation gazeuse produite par le radium décroît exponentiellement : elle diminue de moitié tous les 3 jours, 23 heures et 42 minutes la demi-vie . Dans une conférence donnée en 1902, P. Curie note que de telles lois donnent une mesure absolue du temps, indépendante d'observations astronomiques. Avec sa théorie des désintégrations radioactives, Rutherford peut aller plus loin et tenter les premières datations géologiques. A une époque où le mécanisme des désintégrations n'est compris que de façon très sommaire et où on ne connaît encore les chaînes radioactives que par fragments, la tentative est audacieuse.
La méthode de datation de Rutherford repose sur une mesure de quantité d'hélium. Quand un atome d'uranium se désintègre, il donne un atome d'uranium X en expulsant un rayon alpha : on soupçonne que celui-ci prend les électrons qui lui manquent pour former un atome d'hélium. De même pour d'autres maillons de la chaîne. La quantité d'hélium produite est proportionnelle au nombre de désintégrations subies par l'uranium, et donc au temps. Pour sa toute première datation radioactive, Rutherford prend pour cobaye un minéral riche en uranium, une fergusonite, dont les teneurs en hélium et en uranium sont déjà connues. Un seul paramètre reste à déterminer avant de calculer un âge, c'est le taux annuel de pro- duction d'hélium par l'uranium. Avec le taux qu'il estime en 1905, Rutherford obtient un âge de 140 millions d'années14. Le minéral de Rutherford est plus ancien que la Terre de Kelvin ! Une simple règle de trois semble ruiner les savants calculs du plus grand physicien vivant...
Bien sûr, une seule détermination ne permet pas de conclure. Entre 1905 et 1910, Strutt mesure la quantité d'hélium incluse dans des minéraux contenant de l'uranium ou du thorium. Les âges obtenus souffrent, d'une part, des incertitudes affectant le taux de production d'hélium par ces deux éléments et, d'autre part, de la diffusion du gaz hors des minéraux au cours du temps. Des minéraux très réfractaires sphène et zircon de roches précambriennes avouent ensuite des âges allant jusqu'à 700 millions d'années15. Pour obtenir des résultats plus précis, Strutt mesure directement le taux de production d'hélium par des minéraux riches en uranium ou thorium : une fois de plus, il obtient des âges élevés, à savoir 250 et 280 millions d'années. Il arrêta là ses datations16 pour se consacrer à d'autres travaux.
Une autre méthode est mise en oeuvre par Bertram Boltwood, un chimiste de Yale avec lequel Rutherford collabore après le départ de Soddy pour Oxford en 1903. Boltwood s'intéresse à la Terre en tant que laboratoire naturel où l'immensité du temps a permis d'accumuler en quantité mesurable les maillons tant recherchés des chaînes radioactives. Il constate d'abord que les minéraux uranifères sont systématiquement riches en plomb. De plus, le rapport entre les abondances du plomb et de l'uranium augmente avec l'ancienneté géologique des minéraux. Ceci suggère que le plomb est le terme final, stable, de la chaîne débutant par l'uranium. L'âge d'un minéral uranifère peut alors être déduit de sa teneur en plomb : il « suffit » de connaître le taux annuel de formation du plomb à partir de l'uranium, à condition, bien sûr, que la teneur initiale en plomb ait été nulle et que nul plomb n'ait été perdu au cours du temps voir l'encadré « L'astuce de Boltwood ».
Boltwood attend de mieux connaître ce taux avant de publier ses résultats en 190717. Les âges s'échelonnent de 410 à 2 200 millions d'années et - fait important - se classent dans un ordre cohérent avec les données géologiques. Sa méthode confirme que des minéraux peuvent avoir des âges supérieurs à 100 millions d'années. Toutefois, en chimiste prudent, Boltwood ne fait pas le moindre commentaire sur ses datations. A ces temps écoulés depuis la formation des minéraux, il faut bien sûr ajouter le temps passé depuis les tout premiers instants de la Terre. Comme l'hélium, le plomb indique donc pour la Terre entière une antiquité dépassant de loin la durée allouée par Kelvin. Est-ce assez pour convaincre les géologues de la validité des nouvelles méthodes ? La radioactivité leur offre un avantage indéniable : elle ne donne pas seulement un instrument pour dater les phénomènes géologiques, elle fournit également l'explication de cette antiquité.
La Terre est bien plus vieille que ne l'indiquent les calculs de Kelvin, non pas parce que ces derniers reposent sur des données incorrectes, mais parce qu'ils postulent l'absence de sources de chaleur internes dans la Terre. Or ce sont les éléments radioactifs de longue période, comme l'uranium et le thorium, qui constituent le moteur thermique de notre planète. Sans ces sources, les montagnes ne s'élèveraient pas, les volcans seraient réduits à l'état de fossiles et les tremblements de terre n'évoqueraient tout au plus que des cicatrices estompées. Sans elles, comme Kelvin l'avait calculé, la Terre serait bien morte en une centaine de millions d'années, ou moins, avant que la vie n'ait eu le temps d'apparaître !
A son passif, la radioactivité bouleverse les résultats de l'ancienne physique en manipulant des principes étranges, des méthodes balbutiantes et des données incertaines. Le premier minéral considéré par Rutherford voit ainsi son âge croître de 40 à 400 millions d'années de 1904 à 190618. Moins téméraire, Boltwood attendit de connaître raisonnablement bien le taux de formation de plomb pour publier ses datations. Il eut aussi raison de laisser à d'autres le soin de gloser sur les 2,2 milliards d'années de son plus vieux minéral : les analyses modernes ne lui en concèdent que 400 millions. Du fait de l'existence des isotopes, les chaînes de désintégrations sont en effet beaucoup plus compliquées que Boltwood et Rutherford ne pouvaient le craindre...
En quelques décennies, les géologues venaient de se plier à l'autorité de la thermodynamique et d'ajuster leurs échelles de temps pour se conformer à ses règles. Ce patient travail devait-il être mis en cause par des âges obtenus par deux personnes pour quelques minéraux radioactifs ? Mieux valait y regarder à deux fois...
Dans un débat qui fut assez long à s'amorcer, la position du géologue américain Becker19 résume la démonstration par l'absurde avancée par les adversaires des méthodes radioactives. Avec la méthode de Boltwood, Becker obtient en 1908 des âges allant de 1,6 à 11,5 milliards d'années pour divers minéraux dont la teneur en uranium et plomb est connue : résultat évidemment inacceptable ! D'autre part, les teneurs en radium postulées par Strutt rendent bien compte du flux de chaleur global de la Terre, mais la concentration du radium dans une mince croûte conduit à un gradient géothermique trop élevé près de la surface : les roches devraient fondre à des profondeurs qui semblent beaucoup trop faibles. Becker en conclut donc que la radioactivité est présente dans une couche encore plus mince, peut-être concentrée localement, et que sa contribution ne dépasse pas 10 % du flux de chaleur terrestre. Pour les âges comme pour le flux de chaleur, conclut Becker, la radioactivité joue un rôle encore obscur, bien que certainement mineur. On ne doit la prendre en compte qu'à la condition d'obtenir des résultats comparables aux âges « purement » géologiques.
De l'autre côté de l'Atlantique, la position du géologue irlandais Joly est intéressante à un autre titre. Joly est le premier à souligner les incidences possibles de la radioactivité sur l'activité géologique. Il participe aux discussions animées de 1904 sur l'origine du radium et est, avec Strutt, le seul à s'impliquer dans des mesures de radioactivité dans les matériaux terrestres. A cette occasion, il découvre en 1907 que les minéraux fortement radioactifs produisent autour d'eux des halos colorés dus aux défauts créés par le bombardement continu de rayons alpha.
En collaboration avec Rutherford, des comparaisons entre minéraux naturels et artificiellement irradiés lui permettront d'utiliser l'intensité de ces halos pour dater les minéraux affectés20. Dès 1909, il écrit un livre, Radioactivity and Geology , où il discute les nouvelles méthodes de datations radioactives et passe en revue les implications de la radioactivité sur la géodynamique. En dépit de cette ouverture d'esprit, Joly préférait les âges tirés des vitesses de sédimentation et des teneurs en sel des océans.
Des autorités comme Joly et Becker influencent évidemment leurs collègues géologues novices en matière de radioactivité. Le dialogue avec les physiciens ou les chimistes s'amorce difficilement. Rutherford, pour qui les datations ne sont qu'une distraction, s'attache à fonder la physique nucléaire en exploitant l'énergie prodigieuse des rayons alpha. Et les pionniers des datations se consacrent à leur discipline : Boltwood déchiffre les chaînes radioactives et Strutt s'occupe de décharges électriques.
Face à des horloges radioactives d'humeur changeante, une majorité de géologues reste attentiste, voire indifférente : si les physiciens, Kelvin en tête, ont pu nous tromper une fois, pourquoi ne le feraient-ils pas une seconde ? Cette attitude prévaut en Europe continentale où l'influence de Kelvin est moins forte qu'en Angleterre ou aux Etats-Unis. Un cas extrême est celui de L. de Launay, un influent ingénieur en chef des Mines, qui passe la radioactivité sous silence dans son traité paru en 1905, la Science géologique . A propos des calculs de Kelvin, il note encore que « n'étaient les noms des savants qui les ont établis, ces chiffres ne mériteraient aucune attention, tant on a accumulé pour les obtenir d'invraisemblables hypothèses ». La géologie s'est constituée en une discipline solide à qui bien d'autres problèmes se posent, reléguant la question mythique de l'âge de la Terre au deuxième plan. Les chaînes de montagnes ou les bassins sédimentaires constituent en eux-mê-mes des champs d'étude assez vastes !
Pour les observateurs contemporains de cette controverse, la situation est compliquée par la position de Kelvin lui-même. Car le grand physicien s'oppose irréductiblement à la théorie des désintégrations radioactives ! Il suit de près les nouveaux travaux et sait se faire craindre de ses contradicteurs.
Une anecdote célèbre le met en scène avec Rutherford à l'occasion d'une conférence organisée sur le radium à Londres, en 190421 : Kelvin dort pendant l'exposé de son jeune collègue et se réveille en lui jetant un regard sinistre au moment où Rutherford aborde la question épineuse de l'âge de la Terre. Dans un moment d'inspiration, Rutherford dit alors que « Lord Kelvin avait limité l'âge de la Terre à la condition qu'aucune nouvelle source de chaleur ne soit découverte. Cette déclaration prophétique se rapporte à ce que nous considérons ce soir, le radium ! » Satisfait d'avoir en quelque sorte prédit la radioactivité, Kelvin se serait épanoui...
Rutherford a-t-il enjolivé l'histoire ? Le fait est qu'en 1906 Kelvin conteste toujours le principe des transmutations et nie le rôle de la radioactivité dans le flux de chaleur terrestre. Il meurt l'année suivante à l'âge de 83 ans. D'après la légende, il n'aurait jamais répudié ses calculs géologiques. Il le fit toutefois en privé, confiant au physicien J.J. Thomson qu'il avait considéré son travail sur l'âge de la Terre comme étant le plus important de tous avant que la découverte du radium ne rende ses hypothèses indéfendables22. Mais pourquoi son acharnement à nier publiquement l'évidence en physique, à combattre le principe même des transmutations ?
Comme le défendait Becker, négliger les sources radioactives de chaleur aurait pu ne pas avoir de conséquences notables en géologie. Il faudra en fait plusieurs années pour que les géologues mettent en cause les estimations de Kelvin, puis vingt-cinq ans d'efforts d'une jeune génération menée par le géologue anglais Arthur Holmes pour établir définitivement l'imposante antiquité de la Terre*. Kelvin héritera alors de l'image imméritée du vilain dans une histoire naturelle que, bien avant tout autre, il avait pourtant entrepris de conter avec les mots de la physique
Par Pascal Richet
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante |
|
|
|
|
|
|