|
|
|
|
 |
|
ROBOTS |
|
|
|
|
|
Quand les robots imitent la nature
robotique - par Alcherio Martinoli Guy Theraulaz et Jean-Louis Deneubourg dans mensuel n°358 daté novembre 2002 à la page 56 (2508 mots)
Nul besoin d'individus sophistiqués pour accomplir des tâches complexes. Des chercheurs se sont inspirés de découvertes faites en éthologie au milieu des années 1980 pour la mise au point de robots simples mais doués d'un sens aigu de la communication. En leur laissant, à l'image des animaux, la latitude de se tromper.
Avez-vous déjà observé la façon dont les fourmis conçoivent leurs cimetières ? Dans nombre de sociétés, elles rassemblent les cadavres des ouvrières à l'extérieur de leur nid et forment des petits tas. Si l'on disperse aléatoirement des cadavres ou des morceaux de cadavres sur la fourmilière, on voit également les ouvrières constituer en quelques heures des petits tas qui vont peu à peu s'organiser dans l'espace voir figure p. 61. En observant de plus près, on s'aperçoit que le comportement des fourmis consiste à amplifier localement les dépôts : plus il y a de cadavres dans un tas, plus la probabilité qu'une fourmi y dépose le cadavre qu'elle transporte est importante. En outre, plus un tas est volumineux, plus la probabilité qu'une fourmi prenne un cadavre sur ce tas est faible [1]. Deux éléments étonnants : seul un petit nombre de fourmis participe à ce « rituel », et aucun ordre n'est donné aux ouvrières pour leur dicter la façon de s'organiser.
Cette observation ne serait restée qu'un trait intéressant du comportement des fourmis si une équipe de chercheurs des universités de Bielefeld, de Bristol et de Bruxelles ne s'en était pas directement inspirée pour concevoir des robots capables de rassembler des palets éparpillés sur le sol, et ce, sans qu'ils aient besoin de communiquer entre eux [2]. Seule l'interaction entre le robot et le tas de palets importe : plus celui-ci est gros, plus il est facile pour le robot de le trouver et d'y déposer un nouveau palet.
Cette expérience a été conduite au début des années 1990, alors que la robotique collective n'en était qu'à ses débuts. Encouragés par les résultats prometteurs obtenus dans un premier temps avec un seul robot notamment par Rodney Brooks, pionnier de la robotique autonome, deux chercheurs du laboratoire d'intelligence artificielle du Massachusetts Institute of Technology MIT, Maja Mataric et Lynne Parker, ont formalisé les problèmes inhérents à la coordination des actions d'un petit groupe d'individus [3].
Question posée : comment commander des robots pour qu'ils parviennent à accomplir une tâche collectivement ? Réponse : il y a deux façons de faire.
La première est de centraliser les informations sur l'état et la position acquise par exemple via un GPS de chaque robot au moyen d'un ordinateur extérieur qui dispose d'une vue globale du groupe. L'ordinateur devient le maître du jeu : il envoie à chacun les instructions nécessaires pour que sa mission soit remplie. Mais on peut aussi s'affranchir de l'ordinateur central. Chaque robot transmet alors directement ses informations à tous les membres du groupe. Tous disposent ainsi d'une vue d'ensemble et peuvent, à partir de là, décider individuellement des actions à entreprendre.
Cette approche, récemment validée par Lynne Parker [4], est très efficace pour les petits groupes de robots. En revanche, elle se révèle beaucoup moins performante dès que le nombre d'individus ou leur charge de travail deviennent trop importants. En effet, le réseau radio qui permet aux robots d'échanger les informations constitue un véritable goulet d'étranglement : dans la plupart des cas, tous se partagent une seule fréquence. Le problème est d'autant plus épineux que, lorsque le nombre d'acteurs s'accroît, la coordination des mouvements et des actions se complique, tandis que les risques de collisions et d'interférences radio augmentent.
Compte tenu de cet obstacle technique, il est intéressant de constater que les insectes sociaux termites, fourmis, guêpes sont, eux, capables de s'organiser au sein de colonies qui comptent jusqu'à plusieurs millions d'individus. D'où l'idée, suggérée par plusieurs spécialistes de ces animaux dont Rémy Chauvin, l'un des précurseurs de prendre ces insectes comme modèle pour la robotique collective.
Depuis le milieu des années 1980, de nombreuses découvertes en éthologie avaient révélé comment, pour accomplir certaines tâches collectives, les insectes s'organisaient spontanément en faisant agir une multitude d'interactions entre eux et avec l'environnement [5]. Ces comportements collectifs mouvements coordonnés, synchronisation d'activités, constructions collectives, division du travail, etc. ne sont pas forcément le résultat d'une complexité comportementale et cognitive propre à chaque individu : ils peuvent spontanément émerger d'interactions entre des insectes qui n'ont qu'une vue partielle de l'action du groupe et qui ne sont capables que de comportements simples.
Autre découverte importante qui incite à prendre les insectes sociaux comme modèle pour la robotique : dans leurs sociétés, il n'existe pas de contrôle hiérarchique ou centralisé des activités de chacun. Les problèmes d'engorgement autour d'un élément central ou au sein d'un réseau de communication global disparaissent de ce fait, et ce, quel que soit le nombre d'individus.
Le modèle peut même dépasser le cadre des insectes sociaux puisqu'il est capable de s'inspirer d'autres espèces : les oiseaux, lorsqu'ils effectuent un vol en formation, ou les poissons, lorsqu'ils se déplacent par bancs, ont des comportements collectifs similaires aux insectes.
Des essaims d'insectes à la robotique en essaim
Forts de ces observations, les chercheurs n'avaient plus qu'à les transposer à la robotique pour inventer ce que l'on appelle aujourd'hui la robotique en essaim swarm robotics , en anglais. Son principe : laisser à chaque robot le soin d'agir selon des règles comportementales simples, en fonction de la perception qu'il a de son environnement immédiat. Ainsi, dans l'expérience de l'agrégation des palets, chaque robot perçoit les palets qui l'entourent grâce à ses capteurs, et agit suivant des règles comportementales du type : s'il y a plus de trois objets dans le tas, je les laisse en place ; s'il y en a un ou deux, je les prends avec ma pince.
Evidemment, pas question pour un robot de mettre en oeuvre un signal chimique, comme pourrait le faire une fourmi ! Il optera en revanche pour des signaux mécaniques ou électromagnétiques : par exemple, la force exercée par un tas d'objets sur la pince, ou l'intensité d'un signal infrarouge. Ainsi, les robots doivent-ils être dotés de moyens sensoriels élémentaires capteurs d'obstacle, compte-tours pour chaque roue, etc. leur permettant de réagir simplement aux changements de leur environnement et de communiquer de manière sommaire avec leurs équipiers. Chaque robot synchronise ses activités avec celles de ses voisins, en fonction de la tâche à accomplir et des contraintes de l'environnement dans lequel il est plongé : densité d'équipiers, nombre d'objets à manipuler, présence d'obstacles, etc.
Quels sont les traits essentiels de cette robotique en essaim ? Elle repose sur le parallélisme plusieurs robots travaillent de manière autonome et simultanément à la même mission, le contrôle distribué chaque robot prend des décisions localement sans en référer à un contrôleur central, ainsi que sur des formes de communication explicites d'un individu à l'autre, par exemple via un signal infrarouge ou implicites indirectement, en modifiant l'environnement, par exemple en changeant la distribution des palets. Les informations échangées par les individus via des signaux mécaniques ou lumineux d'intensités différentes varient en fonction de la tâche à accomplir : elles peuvent être directement liées à une perception environnementale l'estimation de la taille d'un tas d'objets ou à un état interne un seuil de réponse à un stimulus de construction ou de destruction d'un tas. Les contraintes physiques ou géométriques de l'environnement la longueur d'un bâton à manipuler, la présence d'obstacles, les dimensions de l'enceinte expérimentale affectent directement la propagation des signaux échangés par les robots et, par là même, agissent sur les réponses individuelles et sur le reste du groupe.
Une fois acquises ces règles comportementales inspirées des animaux, la première expérience suggérée par les cimetières de fourmis n'est pas restée sans suite. Une équipe de l'université d'Alberta, au Canada, a ainsi montré que plusieurs robots pouvaient pousser une boîte sans aucune communication explicite entre équipiers [6]. A l'Ecole polytechnique fédérale de Lausanne EPFL, Francesco Mondada et l'un d'entre nous Alcherio Martinoli ont fait construire des murs de briques à un groupe de Khepera un robot mobile miniature de 5,5 centimètres de diamètre qui peut être équipé d'une pince, et extraire un bâton d'un trou. Cela à partir des seules interactions indirectes avec l'environnement [7].
Les spectaculaires progrès de la miniaturisation ont permis à l'équipe de l'EPFL de réaliser toutes leurs expériences sur une simple table. Ces différents exemples ont pratiquement tous leur équivalent biologique, si ce n'est que la taille des robots n'a plus grand rapport avec lui.
Les insectes, en somme, ont beaucoup appris aux roboticiens. Et bien plus encore que l'on ne l'avait imaginé au départ : les chercheurs ont aussi découvert que, comme l'information n'est pas traitée de la même façon au niveau individuel et à l'échelle collective, le groupe d'insectes ou de robots qui s'auto-organise peut, face à un problème, trouver une solution inaccessible à des individus isolés. Et cela sans faire appel à une quelconque représentation de l'environnement.
Exemple de « succès collectif », qui passe par un processus dit de recrutement : un individu qui découvre un site intéressant « encourage » ses congénères à l'exploiter en émettant un signal simple par exemple, un signal infrarouge. Ceux-ci, après avoir visité le site, recruteront à leur tour d'autres individus. La découverte faite par un robot est ainsi « amplifiée ». De plus, une véritable compétition s'instaure entre les différentes découvertes, notamment en raison des contraintes imposées par l'environnement le chemin pour atteindre l'une des sources pouvant être plus long ou plus tortueux que celui qui mène à l'autre.
Une « sélection naturelle » des découvertes
Les groupes de robots peuvent aussi trouver des solutions inattendues. En particulier parce que les signaux qu'ils émettent peuvent être réfléchis ou arrêtés par un obstacle, les récepteurs mal orientés, etc. Or, il arrive qu'un message mal compris permette d'atteindre des solutions optimales qu'il serait peu probable, voire impossible, d'obtenir avec des communications parfaites. Le jeu du hasard et les problèmes de communication conduisent à une véritable « sélection naturelle » des découvertes et des solutions [8] que les chercheurs tentent d'exploiter au maximum.
Cette compétition entre les découvertes, ces solutions inattendues et cette « sélection naturelle » ont conduit Gérardo Beni, de l'université de Californie à Riverside [9], à parler d'intelligence en essaim swarm intelligence, en anglais [10] pour décrire le comportement des robots : les robots sont dotés de capacités cognitives restreintes mais, collectivement, ils peuvent avoir des comportements « intelligents ». Aujourd'hui, après avoir beaucoup progressé et dans l'attente d'une prochaine révolution technologique ou conceptuelle, la robotique collective en est au stade de l'évaluation et de la validation des outils qu'elle a développés.
Parmi les tests les plus récents : les parties de football entre robots voir l'encadré : « Les robots se mettent au football » ou de nouvelles expériences inspirées par les fourmis en quête de nourriture. Dans ce second exemple, le but, pour un robot, est de récolter sa « nourriture », des petits cylindres en plastique, en fonction de la quantité de cylindres déjà présente dans le « nid » à un instant donné. Les résultats sont spectaculaires, mais le temps qu'il aura fallu aux chercheurs pour les obtenir a dissuadé d'autres équipes de poursuivre dans la même voie [11].
S'il ne fait guère de doute que l'invention de la robotique en essaim a montré la voie à suivre pour commander un grand groupe de robots, les premières expériences ont permis d'affirmer de façon tout aussi certaine que la recherche empirique de solutions par les robots devenait trop fastidieuse lorsque leur mission est complexe.
Pour franchir cet obstacle, les roboticiens n'ont eu d'autre choix que de se lancer dans le développement d'outils de modélisation : comme c'est la règle en ingénierie, il leur fallait avoir une idée du comportement de leurs robots et l'optimiser avant de les fabriquer. Les premières tentatives de modélisation ont été menées en 1997 dans le cadre d'un projet commun entre l'EPFL et l'IDSIA Instituto Dalle Molle di Studi sull'Intelligenza Artificiale, à Lugano en Suisse. Aujourd'hui, c'est notamment au California Institute of Technology Caltech que les chercheurs poursuivent dans cette voie.
On peut désormais modéliser le comportement d'un groupe qui compte jusqu'à plusieurs centaines de robots [12,13]. Pour concevoir et optimiser des systèmes de commande de robots, on fait appel depuis peu aux algorithmes génétiques ou à l'apprentissage par renforcement [14]. Les résultats sont là : dans une expérience de recherche d'un nuage odorant par exemple, une fuite de gaz d'une installation chimique, un groupe qui compte jusqu'à six robots est, après optimisation, deux fois plus rapide que lorsqu'il cherche une solution de façon empirique [15,16]. Plusieurs défis restent aujourd'hui à relever. Le premier est de combiner les avantages de l'intelligence en essaim avec ceux de la communication explicite de robot à robot échange radio des états, des positions, etc.. Cette combinaison devra être optimisée selon la tâche à accomplir et le nombre de robots. Les résultats seront très différents selon qu'il s'agira d'explorer une nouvelle planète où l'on ne disposera pas de signal GPS ou des surfaces agricoles où le GPS et les communications radio seront disponibles.
Demain, un robot chien de berger ?
Second défi, la conception et le contrôle de systèmes collectifs composés de centaines, voire de milliers de robots. Pour l'heure, les travaux n'ont porté que sur des groupes composés, au maximum, d'une vingtaine de robots - essentiellement pour des questions de coût. Il est probable que, avec un grand nombre d'unités, les avantages de l'intelligence en essaim nous apparaîtront en premier lieu pour des robots de petite taille, car, de fait, la complexité de ceux-ci sera minimale.
Troisième défi, la mise au point de méthodologies de conception et de modélisation applicables à toutes les tailles de groupes de robots ainsi qu'à tout type de système distribué interagissant avec l'environnement. L'enjeu est ici de disposer d'outils qui pourraient se révéler utiles pour étudier d'autres systèmes ayant des caractéristiques similaires à celles des groupes de robots : voitures ou bus intelligents, essaims de microsatellites, etc.
Si le succès est au bout du chemin, il y aura peut-être, demain, des robots capables de surveiller l'état de nos réseaux d'eau ou de gaz, ou d'explorer des environnements lointains... D'autres applications seraient encore plus inattendues : par exemple, transformer un robot en chien de berger pour diriger un troupeau de moutons ou emmener des vaches brouter dans un champ déterminé. Ou encore concevoir un robot capable d'empêcher les paniques collectives dans certains élevages avicoles [17] .
EN DEUX MOTS : Commander un groupe de robots en pilotant de façon centralisée les positions et les mouvements de chacun aboutit rapidement à une impasse technique. En s'inspirant du comportement de certains animaux, les spécialistes de la robotique ont mis au point des robots qui peuvent décider eux-mêmes de leurs actions à partir de la perception locale qu'ils ont de leur environnement, selon des règles de comportements simples. Par un échange de signaux simples, chaque robot synchronise ses actions avec celles de ses congénères. Le groupe adopte ainsi des comportements «intelligents». L'inévitable imprécision des communications se révèle fructueuse car elle peut conduire le groupe à opter pour des actions non envisageables avec des communications déterministes. Il en résulte une « sélection naturelle » des découvertes et des solutions.
Par Alcherio Martinoli Guy Theraulaz et Jean-Louis Deneubourg
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
MÉTAUX ET TERRE PRIMITIVE |
|
|
|
|
|
Métaux précieux et Terre primitive
terre - par François Guyot dans mensuel n°341 daté avril 2001 à la page 18 (1167 mots) | Gratuit
Empreinte de l'histoire lointaine de la Terre, la teneur en métaux précieux des roches du manteau terrestre résulte-t-elle d'un bombardement extraterrestre très ancien ? De nouveaux outils d'analyse et le regard du minéralogiste renforcent cette théorie en expliquant des observations apparemment contradictoires.
Plus connus pour leur valeur économique, les métaux précieux nobles, osmium, iridium, platine, or, ruthénium, rhodium, palladium, argent et rhénium, pour tous les citer sont aussi des témoins privilégiés des débuts de l'histoire de la Terre . Ace titre, ils sont au centre d'un débat scientifique auquel des chercheurs français et australiens donnent un nouveau relief1.
Selon un scénario communément admis, la Terre, née il y 4,5 milliards d'années de l'accrétion de petites planètes, s'est aussitôt différenciée, sous l'effet de la gravité, en un noyau central de fer entouré d'un manteau de roches silicatées. Lors de cette ségrégation, l'essentiel de la masse des métaux nobles, plus de 99 %, a été séquestré au-dessous de 2 900 kilomètres de profondeur, dans le noyau. En effet, ces éléments ont une très forte affinité pour le fer - ils sont sidérophiles. Les roches du manteau n'en ont donc conservé que le résidu. Mais, même en très faible quantité, les métaux nobles y sont l'empreinte de cette séparation précoce.
Hérité ou bombardé ? Les géochimistes s'y intéressent depuis les années 1970. Les premières mesures réalisées dans les roches du manteau exhumées par des phénomènes tectoniques ou volcaniques se sont révélées énigmatiques2. Les abondances des métaux nobles y sont plus de cent fois supérieures à celles prévues. Et surtout, leurs rapports d'abondances relatives sont très proches de ceux mesurés dans les chondrites primitives et indifférenciées, les météorites qui ont formé la Terre. Or le degré d'attirance pour le fer n'est pas le même pour tous les métaux nobles. Le contact avec un matériau riche en fer plongeant vers le centre de la Terre par gravité aurait donc dû inévitablement produire des différences importantes. Le palladium Pd, par exemple, moins attiré par le fer que l'iridium Ir, devrait être relativement plus abondant dans le manteau actuel que dans le matériau initial, alors que le rapport Pd/Ir observé y est identique à celui de la matière primitive.
Ce paradoxe a conduit à la théorie du « vernis tardif3 » selon laquelle de 0,4 % à 1 % de la masse de la Terre s'est en fait accrété après la fin de la ségrégation complète du noyau métallique, qui s'est déroulée en moins de cent millions d'années. Cet ajout limité de matière chondritique, ce vernis tardif riche en métaux nobles, expliquerait leur surabondance dans le manteau et les rapports observés. Cette théorie, remarquablement consensuelle pour des événements si anciens, revêt un intérêt tout particulier car, outre les métaux nobles, ce vernis pourrait avoir apporté à la Terre presque toute son eau, une bonne partie de son carbone et de son azote4, ainsi que de nombreuses molécules organiques. En bref, l'ensemble des ingrédients nécessaires à l'émergence de la vie.
Ce cadre d'interprétation de l'histoire primitive de la Terre n'a cessé d'être confronté aux observations. Mais les métaux précieux étant très peu concentrés de l'ordre du nanogramme par gramme de roche, leurs quantités absolues et relatives sont en fait très difficiles à mesurer. A la fin des années 1980, les méthodes de séparation des éléments chimiques et une nouvelle technique de spectrométrie de masse sur plasma ICP-MS* ont permis d'atteindre des précisions d'analyse approchant le pour-cent. Ces progrès se sont immédiatement traduits par la détection dans plusieurs échantillons de manteau de rapports d'abondances proches mais significativement différents de ceux de la matière primitive5. Certes, les roches du manteau sont continuellement façonnées par de la fusion partielle ou par la circulation de fluides, autant de processus capables d'affecter différemment certains de ces éléments - le palladium est par exemple bien plus soluble que l'iridium dans les fluides profonds. Mais, curieusement, même des roches apparemment vierges de toute trace d'altération présentaient parfois des abondances clairement différentes de celles des météorites primitives. Fallait-il alors remettre en question ou réviser la théorie du vernis tardif ? Devait-on imaginer que des morceaux de noyau piégés dans le manteau expliqueraient les signatures anormales, conduisant du même coup à une découverte majeure en matière de dynamique de la planète et d'échanges entre ses enveloppes ?
Grâce à une démarche originale, Olivier Alard de l'université Macquarie de Sydney et ses collègues permettent de réconcilier les observations avec la théorie du vernis tardif. Géochimistes mais d'abord minéralogistes, ces chercheurs ont découvert que les métaux nobles sont concentrés dans des minéraux très peu abondants, les sulfures, et surtout, plus inattendu, qu'ils sont systématiquement portés par deux familles de sulfures, aux caractères minéralogiques bien distincts. C'est en combinant la spectrométrie de masse ICP-MS à l'ablation par laser qu'ils ont pu analyser des zones de quelques millièmes de millimètres. Et montrer qu'au cours de l'histoire géologique, les métaux nobles se répartissent différemment dans les deux types de sulfures. Les éléments proches de l'iridium se concentrent dans les inclusions à l'intérieur des minéraux principaux du manteau, tandis que ceux apparentés au palladium se retrouvent préférentiellement dans des sulfures précipités entre les grains, témoins de circulations de fluides profonds.
Cette nouvelle vision à l'échelle du minéral met donc en lumière des détails de la distribution des éléments chimiques, produits par les processus géologiques du manteau, insoupçonnés à plus grande échelle, et conduit à la découverte fondamentale de ce travail. Elle révèle en effet que non seulement les rapports relatifs d'abondance des métaux nobles dans les deux familles minérales sont différents de ceux mesurés dans la matière primitive, mais qu'ils sont aussi différents entre eux. Ils sont en quelque sorte complémentaires, au sens où leur moyenne correspond aux rapports mesurés dans les météorites primitives. Ainsi une analyse à une échelle plus globale, comprenant les deux types de sulfures, aboutit le plus souvent à des valeurs identiques à celle des matériaux du système solaire naissant. Cependant cette complémentarité n'est pas systématique : même très limitées et indétectables par d'autres moyens, des circulations de fluides aqueux ou de magmas peuvent faire varier finement les proportions relatives des deux familles de sulfures, et ainsi des différents métaux nobles.
La théorie du vernis tardif n'est donc pas incompatible avec des observations locales a priori contradictoires. Inversement, la détection de rapports différents de ceux du matériau primitif indifférencié dans des roches apparemment non altérées est un moyen nouveau et très sensible pour décele=pr les circulations de fluides dans le manteau profond.
En quête de témoins. Cette nouvelle découverte signifie aussi que nos chances d'observer des témoins directs du vernis tardif sur Terre, non affectés par des processus géologiques, sont réduites. Bien sûr la quête de roches du manteau ayant conservé la mémoire inaltérée de cet événement doit tout même se poursuivre. Mais les meilleures informations sur l'histoire primitive de la Terre et de la vie viendront probablement d'observations dans les roches collectées sur des objets planétaires géologiquement moins actifs que la Terre, tels que Mars ou des astéroïdes, si nous avons la chance de pouvoir en disposer dans nos laboratoires.
Par François Guyot
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LA BOMBE À HYDROGÈNE |
|
|
|
|
|
Docteur Edward & Mister Teller
physique - par Alan Lightman dans mensuel n°359 daté décembre 2002 à la page 60 (4528 mots)
Père de la bombe à hydrogène américaine et soutien inconditionnel du projet de « Guerre des étoiles » lancé par Ronald Reagan, Edward Teller est le représentant par excellence de la face sombre de la physique. Son autobiographie suggère toutefois une personnalité complexe, fidèle dans certaines amitiés et intransigeant vis-à-vis du communisme soviétique.
A la fin 1951, dans un train de nuit qui l'emmenait de Chicago à Washington, Edward Teller rêva qu'il se trouvait seul, dans l'une de ces tranchées qui l'avaient tant effrayé alors qu'il était enfant, pendant la guerre, en Hongrie. Dans son rêve, ses assaillants étaient au nombre de neuf, soit un de plus que les balles contenues dans son arme - une froide analyse mathématique, même au milieu de la confusion d'un cauchemar.
Le rêve de Teller était peut-être simplement causé par l'anxiété que lui procurait son imminent passage devant la Commission pour l'énergie atomique AEC*, auprès de laquelle il plaidait la création d'un nouveau laboratoire de recherche en armement. Mais, plus profondément, ce rêve révèle le sentiment, qui l'habita toute sa vie, d'être assiégé, assailli, et de livrer seul la bataille du bien contre ses nombreux ennemis et contre les forces du mal. À l'époque où il travaillait à Los Alamos sur le Projet Manhattan*, poursuivant ses propres objectifs plutôt que ceux assignés à son équipe, Teller « commença lentement à comprendre... que ses opinions divergeaient de celles de la majorité » concernant notamment sa peur de la Russie communiste et son soutien inconditionnel à une suprématie militaire des États-Unis, bien au-delà de la Seconde Guerre mondiale.
Bientôt, l'amitié de Teller avec Robert Oppenheimer et Hans Bethe, deux de ses éminents collègues à Los Alamos, s'aigrit, et ils commencèrent à se critiquer mutuellement, un scénario qui allait se répéter tout au long de la vie de Teller. Après la réussite de la bombe atomique et la fin de la guerre, Oppenheimer, Bethe et de nombreux autres physiciens retournèrent à leurs enseignements universitaires et à des recherches pacifiques. Teller ressentit alors son isolement dans le soutien au développement de la bombe à hydrogène. Les meilleurs scientifiques, pensait-il, « s'efforçaient de démontrer l'impossibilité de construire une bombe à hydrogène ». Il reprochait notamment à Norris Bradbury, successeur d'Oppenheimer à la tête du laboratoire d'armement de Los Alamos, son manque d'enthousiasme au sujet de la bombe à hydrogène, appelée la « Super » à cause de sa puissance et de son pouvoir destructeur potentiellement illimités. Teller accusait par ailleurs Carson Mark, le nouveau chef du département de physique théorique poste précédemment occupé par Bethe de « prendre un malin plaisir à m'agacer de manière subtile » lire « Au diable les torpilles », p. 66. Bref, Teller semblait entouré d'ennemis.
Le lien fragile entre Teller et ses collègues se brisa finalement au moment de son témoignage très contesté contre Robert Oppenheimer lors des auditions qui se déroulèrent en 1954, en plein maccarthysme. Le brillant et charismatique Oppenheimer se vit retirer son accréditation militaire, et Teller fut à tout jamais désavoué par une grande partie de la communauté scientifique. Peu de temps après les auditions, Teller aperçut à l'occasion d'une réunion un physicien, ami de longue date, et il se dirigea vers lui pour le saluer, mais ce dernier « me lança un regard froid, ignora la main que je lui tendis, et tourna les talons ». Teller avait déjà été contraint deux fois à l'exil pour échapper à des gouvernements tyranniques et à l'antisémitisme : il avait fui la Hongrie au début de l'année 1926, et l'Allemagne en 1933. « Alors, à l'âge de 47 ans, se souvient-il, j'ai été forcé une nouvelle fois à m'exiler. »
Une influence sociale indiscutable
Parmi les grands physiciens qui ont fait entrer le monde dans l'ère nucléaire moderne, seuls trois sont encore en vie : Edward Teller, 94 ans, Hans Bethe, 95 ans, et John Wheeler, 90 ans. Ernest Rutherford, James Chadwick, Niels Bohr, Werner Heisenberg, Lise Meitner, Otto Hahn, Eugene Wigner, Enrico Fermi et bien d'autres ont disparu. Comparés à Teller, le méticuleux Bethe et le modeste Wheeler ont mené des vies monacales. L'imposante personnalité publique et l'influence de Teller ne sont égalées que par une poignée de scientifiques du XXe siècle, parmi lesquels Albert Einstein, Linus Pauling et James Watson. Quant à son caractère toujours sur la défensive et polémique, il demeure sans pareil. Edward Teller, l'un des pères de la nouvelle physique quantique, l'un des principaux architectes de la bombe à hydrogène, fondateur et pilier du laboratoire géant de Livermore, farouche partisan de la puissance nucléaire et de la défense anti-missile, professeur et conférencier charismatique, pianiste amateur et interprète de Beethoven et de Bach, lecteur de Platon, doit être considéré comme un visionnaire et comme l'initiateur de progrès gigantesques, quoi que l'on puisse par ailleurs penser de ses prises de position politiques, de son attitude tyrannique et de ses faux-fuyants.
Ses mémoires, publiées récemment sous le titre Memoirs : A Twentieth-Century Journey in Science and Politics témoignent de son étonnante énergie, de ses facultés mentales, ainsi que de sa vivacité d'esprit. Certains souvenirs de Memoirs contredisent de manière flagrante les propos d'autres personnes, tandis que d'autres sont simplement enjolivés ou déformés. Heureusement, de nombreux récits critiques, comme The Making of the Atomic Bomb et Dark Sun de Richard Rhodes, Tellers War de William Broad, et une abondante documentation nous permettent de cerner le véritable Edward Teller. Après avoir étudié les nombreuses incohérences et contradictions de sa personnalité, j'en suis arrivé à la conclusion qu'il existe deux Edward Teller. D'un côté, un Teller chaleureux, vulnérable, honnêtement torturé et idéaliste ; de l'autre, un Teller maniaque, dangereux et sournois. En outre, à l'instar du Dr Jekyll, Teller est pleinement conscient du côté sombre de sa personnalité. Et cette prise de conscience, que l'on devine dans Memoirs derrière ses mensonges et son auto-satisfaction, justifie l'angoisse existentielle de Teller et lui donne toute sa dimension tragique.
Teller se souvient d'« avoir éprouvé pour la première fois un sentiment de sécurité le jour où [il] découvri[t] la cohérence des chiffres ». Or, ce sentiment de sécurité fut à maintes reprises ébranlé. Lorsque, en 1919, les communistes s'emparèrent brièvement du pouvoir en Hongrie, le père de Teller fut considéré comme un capitaliste et devint un paria avec sa famille. Cette pénible expérience fut le premier contact de Teller, alors âgé de 11 ans, avec le communisme. Des années plus tard, en 1939, la haine de Teller pour le communisme fut exacerbée quand Staline jeta en prison son ami le physicien russe Lev Landau, accusé de trahison. Landau en sortit un an plus tard, complètement brisé. En 1962, au plus fort de la guerre froide, Teller écrira : « Avec le communisme russe, nous sommes face à un ennemi plus puissant, plus patient, et de loin plus dangereux que le nazisme allemand. »
Teller garde un très mauvais souvenir de ses années de lycée, où ses camarades de classe se moquaient de lui et le surnommaient « Coco », en allusion à un clown simple d'esprit. Quand il voulut changer d'école, il fut refusé parce qu'il n'était pas catholique.
Le jeune Teller conçut une passion pour la science. À l'automne 1929, il partit à Leipzig pour commencer son doctorat sous la direction de Werner Heisenberg, l'un des pères de la mécanique quantique. À seulement 27 ans, Heisenberg était déjà une légende. Il était entouré d'un groupe cosmopolite d'une vingtaine de jeunes gens passionnés, qui se réunissaient une soirée par semaine pour jouer au ping-pong ou aux échecs, et boire du thé. Sept jours par semaine, ils discutaient de physique, d'art et de la vie.
Teller et Heisenberg étaient très proches. Le mentor et son élève interprétaient tour à tour des préludes et fugues extraits du Clavier bien tempéré de Bach sur le magnifique piano à queue qui trônait dans l'appartement de Heisenberg. Après la Seconde Guerre mondiale, alors que la majorité de la communauté scientifique condamna Heisenberg pour avoir essayé de construire une bombe atomique pour le compte des nazis, Teller fut le seul à prendre la défense de son ami, écrivant avec indulgence, et peut-être aussi naïveté : « Il est inconcevable pour moi que Heisenberg ait jamais fait des recherches sur une telle [arme]. Il aimait son pays, mais il haïssait les nazis. »
Au cours des années qui suivirent, Teller épousa son amour d'enfance, passa un an à Copenhague pour travailler avec le grand Niels Bohr*, puis deux ans à l'University College de Londres.
La physique de la bombe
Un souvenir de son séjour à Copenhague prouve que Teller était conscient de la facilité avec laquelle il s'emportait et de sa propension à exagérer la vérité, des traits de sa personnalité qui lui causeront, ainsi qu'à d'autres, de graves ennuis tout au long de sa vie. Un jour, au cours d'une conversation informelle, Teller reprit une erreur dans une remarque de Bohr. Le physicien danois répliqua alors : « Si je ne peux pas exagérer, je ne peux pas m'exprimer. » Aujourd'hui, à 94 ans, Teller écrit : « J'ai cité [Bohr] dans de nombreuses discussions pour justifier mon droit à l'exagération. » Toutefois, les exagérations de Teller allaient avoir des conséquences bien plus graves, car elles concerneraient la course à l'arme nucléaire et coûteraient des milliards de dollars.
Teller se souvient aussi d'avoir discuté de la classification des caractères selon Aristote avec Carl Friedrich von Weizsäcker, un physicien allemand qui, par la suite, travaillera avec Heisenberg sur la bombe A allemande. « Carl Friedrich, raconte-t-il, avait correctement cerné mon tempérament, ni sanguin, comme certains de mes détracteurs l'affirmaient, ni mélancolique, comme je me sens parfois, mais colérique, un défaut contre lequel je me suis battu pendant ma jeunesse. »
À l'invitation du physicien George Gamow*, Teller émigra aux États-Unis en 1935. Il y passera le reste de sa vie, d'abord à l'université George Washington, pendant cinq ans, puis à l'université de Chicago, au laboratoire de Los Alamos, au laboratoire de Livermore, à Berkeley, et enfin à l'institut Hoover pour l'étude de la guerre, de la révolution et de la paix de Stanford. En 1935, la mécanique quantique, clé pour la compréhension de l'atome, en était encore à ses premiers balbutiements, et Teller comptait parmi la centaine de spécialistes de physique théorique qui s'y intéressaient. Déjà, il avait effectué des calculs complètement originaux sur la structure et la vibration des molécules.
Les événements politiques et scientifiques mondiaux allaient pourtant bientôt conduire Teller loin des amphithéâtres. En 1938, Hitler envahit l'Autriche. Un peu plus tard, cette même année, les chimistes allemands Otto Hahn et Fritz Strassmann démontrèrent que le noyau d'uranium pouvait être fractionné en deux « fissionné » s'il était bombardé par un minuscule neutron, ce qui libérait du même coup dix millions de fois plus d'énergie par gramme de matière qu'aucune autre réaction chimique. En fait, on allait se rendre compte ultérieurement qu'un type rare d'uranium, un isotope, appelé uranium 235, est extrêmement instable et prêt à fissionner.
Peu de temps après la découverte de Hahn et Strassmann, Leo Szilárd, un autre physicien hongrois et un proche de Teller, proposa que si la fission d'un noyau d'uranium libérait plusieurs neutrons en plus des deux moitiés de noyau, alors chacun de ces nouveaux neutrons pouvait à son tour provoquer la fission d'un autre noyau d'uranium proche, et ainsi de suite : on déclencherait une « réaction en chaîne ». Szilárd tint à effectuer lui-même l'expérience pour s'en assurer. Un soir, un mois plus tard, alors que Teller interprétait une sonate de Mozart, il reçut un appel à longue distance de Szilárd, qui lui annonça : « J'ai trouvé les neutrons. » Et Teller d'écrire : « Lorsque je me suis rassis au piano, je savais que le monde allait changer de manière radicale. »
Bientôt, le président Roosevelt reçut la fameuse lettre d'Einstein le mettant en garde contre l'existence éventuelle d'une bombe atomique et, surtout, d'une bombe atomique aux mains des Allemands. On demanda alors à Teller et à d'autres physiciens prestigieux de former un comité consultatif pour étudier la faisabilité d'une telle bombe. Parmi les formidables problèmes qui restaient à résoudre figurait la séparation de l'uranium 235, l'isotope d'uranium fissile, de l'autre isotope d'uranium bien plus répandu, l'uranium 238. Il fallait aussi trouver le moyen de mettre rapidement les matériaux fissiles de la bombe en contact, afin d'obtenir une « masse critique » d'uranium.
À l'automne 1940, alors que le concept de bombe atomique était encore sujet à discussion, Enrico Fermi fit une remarque décisive à Teller. Comme ils se rendaient à pied au laboratoire de physique de l'université de Columbia, Fermi demanda à Teller si, à son avis, la chaleur extrême dégagée par une bombe atomique ne risquait pas d'entraîner la fusion des atomes d'hydrogène, libérant ainsi une nouvelle source d'énergie. On savait en effet déjà que les atomes d'hydrogène ordinaires du Soleil fusionnent lentement et forment de l'hélium, et que cette réaction lente et constante, appelée réaction thermonucléaire, constitue la source d'énergie du Soleil et de nombreuses étoiles.
Fermi suggéra en outre que le deutérium, le plus rare des isotopes de l'hydrogène, pourrait fusionner beaucoup plus rapidement, donnant alors naissance à une bombe et non à une simple étoile. Une bombe atomique, placée à proximité ou au coeur du deutérium, pourrait servir de « détonateur ». Une bombe à hydrogène aussi appelée bombe thermonucléaire ou bombe à fusion serait nettement différente d'une bombe à uranium aussi appelée bombe atomique ou bombe à fission. Au coeur du noyau atomique, deux forces fondamentales s'opposent : la force électrique répulsive entre les protons, et la force nucléaire attractive entre les protons et les neutrons. Les protons qui se repoussent les uns les autres sont comme des ressorts comprimés, dans l'attente d'être libérés. Seule la force nucléaire attractive les empêche de s'éloigner les uns des autres à grande vitesse. La première force, qui prédomine lorsqu'un gros noyau d'uranium 235 est légèrement déformé après une collision avec un neutron, procure l'énergie de la bombe atomique. La seconde force, qui domine dans les petits noyaux lorsque les protons et les neutrons sont assez rapprochés, fournit la puissance de la bombe à hydrogène. Celle-ci ne peut être amorcée qu'en présence d'une chaleur élevée, parce que les noyaux de deutérium composés chacun d'un proton et d'un neutron doivent être rapprochés de force, de façon à ce que l'attraction nucléaire puisse vaincre la force électrique répulsive et réunir les noyaux.
L'idée de Fermi obséda Teller. Contrairement à une sphère d'uranium 235, qui est instable et doit donc être maintenue au-dessous de sa « masse critique », l'explosion d'une sphère de deutérium, quelle que soit la taille de celle-ci, ne peut être déclenchée que par une chaleur et par une compression extrêmes. Ainsi, il n'existe pas de masse critique, ni de taille maximale pour une bombe à hydrogène, contrairement à la bombe atomique. Les Soviétiques ont fait exploser une fois une bombe H d'une taille équivalente à 100 millions de tonnes de TNT, ou 100 mégatonnes. De plus, pour une même masse de matériau explosif, une bombe à hydrogène libère dix fois plus d'énergie qu'une bombe atomique. Enfin, le deutérium est abondant dans l'eau de mer, et il est beaucoup plus facile de le séparer de l'hydrogène ordinaire que de séparer l'uranium 235 de l'uranium 238. En résumé, une bombe H serait bien plus puissante et moins coûteuse qu'une bombe A.
Au printemps 1943, au milieu du désert aride du NouveauMexique, le laboratoire atomique secret de Los Alamos vit le jour, Robert Oppenheimer à sa tête. Son objectif : la mise au point d'une bombe atomique. Teller espérait être nommé chef du département de physique théorique, qui comptait 30 physiciens, mais Oppenheimer lui préféra Hans Bethe.
Bien que Teller ait fait plusieurs suggestions pertinentes concernant la bombe à fission, il refusa de collaborer à des calculs détaillés lorsque Bethe le sollicita. Teller, conformément à son désir, fut officiellement relevé de toute responsabilité précise, et il put ainsi se consacrer à la bombe à hydrogène.
Après la fin de la guerre, Leo Szilárd et d'autres brillants spécialistes de l'atome ne souhaitèrent pas poursuivre leurs recherches sur les bombes : Bethe, Fermi et Bohr, ainsi qu'Oppenheimer, qui, quelques années plus tard, s'opposa au développement de la bombe à hydrogène de Teller dans un rapport destiné au comité général consultatif de la Commission pour l'énergie atomique. Teller se sentit énormément frustré de n'être soutenu ni par le monde scientifique ni par le gouvernement, et de constater que ses collègues avaient « [perdu] leur envie de travailler sur les armes ».
Une arme encore plus puissante
Entre 1946 et 1951, Teller se lança dans une croisade personnelle pour défendre son projet de super bombe, alors que de nombreux physiciens mettaient en doute la faisabilité de cette dernière, même du point de vue théorique. Méfiant à l'égard du « pacifisme » d'Oppenheimer et de son manque de soutien, Teller chercha des appuis auprès de personnalités du monde politique et scientifique, dont l'Amiral Lewis Strauss, membre comme Oppenheimer de l'AEC, et le physicien Ernest O. Lawrence, lauréat du prix Nobel en 1939 pour l'invention du cyclotron.
Lorsque le mathématicien et physicien polonais Stanislas Ulam prouva en 1950 que Teller se fondait sur des données erronées, Teller devint, selon les propres termes d'Ulam « blanc de rage ». Fait étonnant, moins d'un an plus tard, Ulam et Teller découvrirent un nouveau concept qui fonctionna. Teller ne reconnut jamais la contribution d'Ulam contribution pourtant spécifique et essentielle, saluée par les physiciens de l'époque : il avait démontré que la compression extrême du deutérium résoudrait certains problèmes, et notamment éviterait la perte sous forme de radiation de la chaleur nécessaire au déclenchement de la fusion. Teller et Ulam se détestaient ouvertement. Dans Memoirs, Teller écrit même avec un certain mépris que « Ulam ne comprenait pas mon nouveau projet et disait à qui voulait l'entendre qu'il ne fonctionnerait jamais ».
Le refus catégorique de Teller d'attribuer à Ulam le mérite qui lui revient est difficilement excusable, mais il est au moins en partie explicable par l'investissement personnel de Teller dans la bombe à fusion pendant des années, preuve d'une passion personnelle, d'un engagement affectif et d'une possessivité, courants chez les chercheurs. Il ne fait aucun doute que sa peur des Russes, son sens du devoir, et sa conviction que la paix ne serait garantie que par des armes puissantes, étaient sincères et véritables. Toutefois, son ambition personnelle semble avoir été encore plus forte.
Malgré un enthousiasme croissant pour l'idée de Teller et d'Ulam concernant la bombe à fusion, Teller lui-même avait le sentiment que seule la création d'un deuxième laboratoire atomique concurrent, placé bien entendu sous son contrôle, pallierait l'ambiance hostile et timorée qui régnait à Los Alamos. Dans Memoirs, Teller nie avoir fait campagne pour le nouveau laboratoire avant de quitter Los Alamos, en octobre 1951 : « Il serait inconvenant de préconiser la création d'un second laboratoire tout en travaillant à Los Alamos. » Pourtant, selon le journal de Gordon Dean, alors directeur de la puissante AEC, Teller le rencontra à Washington le 4 avril 1951, et plaida pour la création d'un nouveau laboratoire atomique.
Avec l'aide déterminante d'Ernest Lawrence, de l'université de Californie à Berkeley, et celle de l'AEC, le nouveau laboratoire atomique de Teller vit le jour à Livermore, en Californie, en 1952. Avec ses milliers d'employés, il devait devenir aussi gigantesque que celui de Los Alamos. Le laboratoire a formé de nombreux jeunes chercheurs sur les questions touchant aux armes atomiques, et il a constitué, en association avec l'université de Californie à Davis, un Département de sciences appliquées novateur, pour la formation des étudiants de troisième cycle. Teller, qui évoque avec une tendresse presque paternelle ses jeunes disciples de Livermore, écrit « de toutes les choses que j'ai faites dans ma vie, c'est de mon rôle dans la création et le travail du laboratoire de Livermore dont je suis le plus fier. »
Si le laboratoire Livermore demeure la plus grande fierté de Teller, son témoignage aux auditions d'Oppenheimer en 1954 constitua sa plus terrible erreur, qu'il avoue aujour-d'hui regretter. L'affaire débuta à la fin de 1953, lorsque William Borden, ancien directeur de l'un des comités de l'AEC, écrivit à J. Edgar Hoover, alors directeur du FBI, qu'Oppenheimer était peut-être un agent communiste, ou du moins qu'il soutenait des agents communistes, et que l'on ne pouvait donc pas lui faire confiance à propos des secrets militaires. Hoover transmit la lettre de Borden au président Eisenhower.
D'après les retranscriptions des entretiens avec le FBI et d'autres archives de cette époque, Teller ne pensait pas que « Oppie » était subversif ni traître, mais qu'il avait mal conseillé le gouvernement au sujet de la mise au point des bombes, notamment en s'opposant à la bombe H et à la création du laboratoire de Livermore. Teller reproche à Eisenhower d'avoir ordonné des auditions qui ressemblaient à une chasse aux sorcières, et il écrit : « Avec le recul, je me rends compte que j'aurais dû dire au début de mon témoignage que ces auditions étaient une sale affaire, et que je ne dirais rien. » En fait, Teller déclara qu'il « aimerai[t] voir les intérêts vitaux de ce pays entre des mains qu'[il] compren[d] mieux, et donc en lesquelles [il a] une plus grande confiance ».
Dans Memoirs, Teller donne une explication alambiquée et biaisée des circonstances et des motifs de son témoignage. L'explication la plus fiable se trouve peut-être dans les notes d'une réunion que Teller eut, six jours avant son témoignage, avec Charter Heslep, du Service d'information des États-Unis. Dans un compte rendu de cette rencontre destiné à Lewis Strauss, Heslep écrit que Teller « regrette que l'affaire soit placée sur le plan de la sûreté de l'État parce qu'il a le sentiment qu'elle est indéfendable... Cela étant, Teller se demande s'il existe un moyen "d'alourdir les charges" pour ajouter des documents prouvant que Oppenheimer a "en permanence donné des mauvais conseils" ». Ce compte rendu suggère clairement que Teller avait décidé d'utiliser les auditions, aussi injustifiées soient-elles à ses yeux, pour évincer un ennemi puissant qui s'était opposé à lui depuis les premiers jours de sa présence à Los Alamos, et qui avait tenté de contrecarrer bon nombre de ses projets.
Au-delà de l'aveu de Teller selon lequel il a été « stupide » et a eu tort de témoigner dans des auditions qui n'auraient jamais dû avoir lieu, au-delà de son angoisse consécutive à la perte de collègues et d'amis qui en a résulté, on sent qu'il était en proie à un conflit intérieur sur la conduite à adopter. Concernant l'affaire Oppenheimer, on peut dire que, dans une certaine mesure, Teller apparaît autant comme victime que comme coupable.
Se protéger contre les missiles
Il est assez surprenant de constater à quel point les amis de Teller comptaient pour lui. Certains d'entre eux, comme Leo Szilárd, John von Neumann, John Wheeler et Maria Mayer, tous d'éminents physiciens ou mathématiciens, lui restèrent proches pendant et après l'affaire Oppenheimer.
En se fondant sur les récits de certains d'entre eux et sur le livre de Teller, celui-ci apparaît comme capable d'être à la fois un bon ami et un ennemi redouté, simple et sincère à un moment, se transformant en bonimenteur l'instant d'après, combatif et vulnérable, un politique sournois et naïf, honnête et malhonnête. Et, de temps à autre, conscient de ces traits de caractère contradictoires.
Au début des années quatre-vingt, bien longtemps après avoir été nommé professeur honoraire de l'université de Californie, bien longtemps après avoir pris sa retraite du laboratoire de Livermore, Teller se trouva impliqué dans la dernière grande polémique de sa vie : l'Initiative de défense stratégique IDS, plus connue sous le nom de « Guerre des étoiles ». Depuis des décennies, Teller s'était intéressé de près à la défense contre les bombes nucléaires, et notamment les bombes montées sur des missiles. L'idée d'un « laser à rayons X », une bombe nucléaire lancée dans l'espace qui produirait un intense faisceau laser à rayons X capable de se focaliser rapidement sur des missiles et de les détruire peu de temps après leur lancement, avait passionné des chercheurs à Livermore. Teller soutint avec ferveur le concept, et il le soumit à son ami, le président Reagan. Lorsque ce dernier demanda à l'enthousiaste Teller si un tel bouclier anti-missile pouvait fonctionner, Teller lui répondit : « Nous avons de bonnes raisons de croire que oui. » Le président Reagan prononça alors son fameux discours sur l'IDS du 23 mars 1983, par lequel il engagea implicitement des milliards de dollars.
En réalité, les raisons de croire que le laser à rayons X pourrait fonctionner étaient minces, et elles ne s'appuyaient que sur des expériences préliminaires peu concluantes. Rien ne prouve encore de manière incontestable qu'un tel système est scientifiquement possible, et même s'il l'était, de nombreux analystes estiment qu'un laser à rayons X ne pourrait jamais être intégré dans un système de défense utilisable.
En 1962, Teller écrivait : « Dans un monde hostile, nous n'obtiendrons la paix que si nous sommes forts. » Un tel credo militaire est certainement défendable, mais dans les mains de Teller et d'autres il a abouti à des demandes inconsidérées concernant les capacités de certaines armes. Par ailleurs, il a été utilisé pour exiger non seulement une force militaire « suffisante », mais aussi une force maximale et supérieure, sans aucune limitation. Comme de nombreux analystes l'ont souligné, la sécurité pourrait être beaucoup mieux assurée, pour un coût raisonnable, avec une force plus modeste mais suffisante pour contrer des dangers réalistes, et surveillée par des traités de contrôle des armes. Globalement, les quelques traités d'armement que nous avons signés avec l'ex-Union soviétique sont des succès.
À la lecture des nombreuses déclarations de Teller, et en prenant en considération son opposition permanente et inflexible aux traités sur le contrôle de l'armement malgré les changements géopolitiques radicaux des quinze dernières années, on peut se demander si son véritable but n'est pas la suprématie mondiale plutôt que l'obtention d'une force militaire suffisante.
À l'occasion d'une réception à la Maison-Blanche en l'honneur du numéro un soviétique Mikhaïl Gorbatchev, le 8 décembre 1987, le président Reagan présenta Teller à son invité en disant : « Voici le Dr Teller. » Teller tendit la main, Gorbatchev resta de marbre. Reagan précisa : « Voici le célèbre Dr Teller. » Toujours immobile, Gorbatchev répondit : « Il y a beaucoup de Teller. » Il avait vu juste.
CONTEXTE Edward Teller a participé, à partir de la fin des années vingt, à la révolution quantique, avec des mentors aussi prestigieux que Heisenberg ou Bohr. Poussé hors d'Europe par le nazisme, il a assez naturellement rejoint les concepteurs de la bombe atomique américaine. Mais contrairement à la plupart de ses confrères il a poursuivi dans cette voie après la fin de la Seconde Guerre mondiale : il n'a jamais cessé de défendre la nécessité d'une suprématie militaire des États-Unis. Ses positions lui ont valu de nombreuses et violentes critiques, et son effigie a même été brûlée lors de manifestations pacifistes dans les années soixante. À l'occasion de la publication de son autobiographie, Alan Lightman nous livre une analyse nuancée du personnage. La Recherche propose aussi un extrait traduit de l'ouvrage.
Par Alan Lightman
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LE L H C ... |
|
|
|
|
|
LHC, un défi technologique sans précédent
physique - par Jacques-Olivier Baruch dans mensuel n°358 daté novembre 2002 à la page 68 (2689 mots) | Gratuit
Dans les 27 kilomètres de tunnel du futur LHC, les faisceaux de protons lancés à 7 milliards d'électrons-volts entreront en collision frontale pour recréer des conditions voisines du Big Bang. Les physiciens espèrent vérifier leurs théories, mais s'attendent aussi à quelques surprises. Le projet prend du retard et dépasse les 2 milliards d'euros.
Le pari est encore loin d'être gagné. Mais aujourd'hui, au pied des monts du Jura, près de Genève, à la frontière franco-suisse, les 2 600 physiciens, ingénieurs, informaticiens et techniciens du CERN, le laboratoire européen pour la physique des particules, oeuvrent ensemble pour mettre en oeuvre ce qui sera le plus grand accélérateur de particules au monde : le Large Hadron Collider LHC. Promoteur de ce projet gigantesque, le CERN a promis son ouverture pour l'année 2007.
Bâtir le LHC ? Une tâche difficile, ardue. Huit ans après la décision officielle, le projet a accumulé deux ans de retard et dépassé de 18 % son budget initial de 2,8 milliards de francs suisses environ 2 milliards d'euros. Témoin des difficultés que les ingénieurs et les physiciens du CERN rencontrent dans la mise au point de leur nouvel outil pour sonder la matière. Il faut dire qu'accélérer des centaines de milliards de protons à des vitesses proches de celle de la lumière, les faire se rencontrer 1 034 fois par seconde et analyser ces chocs dont l'énergie avoisine les 14 TeV* en détectant toutes les particules secondaires qui en ressortent, n'est pas une mince affaire sur le plan technologique. Surtout en ces temps de restrictions budgétaires pour les vingt Etats membres du laboratoire européen et cela malgré les apports financiers des Etats-Unis, du Japon, de la Russie, de l'Inde ou du Canada. Mais le LHC ne représente pas moins l'avenir du CERN, a estimé, le 21 juin dernier à Genève, le Conseil du laboratoire européen, qui a mobilisé à cet effet tout le personnel du centre de recherche. Le boson de Higgs, qui véhiculerait la masse des particules, n'a qu'à bien se terrer ! Le LHC pourra, espérons-le, aider les concepteurs de Susy, la théorie supersymétrique, à supplanter le modèle standard de la physique des particules et à résoudre la question de la masse manquante de l'Univers. De même, il pourrait se révéler un outil indispensable aux théoriciens des cordes pour dévoiler au monde les dimensions cachées de l'Univers.
Les physiciens en rêvent, mais ils n'en sont pas encore là. Pour l'heure, les bâtisseurs du LHC doivent faire face à des difficultés technologiques qui n'ont pu être totalement aplanies malgré les très nombreuses études qui se sont succédé depuis le début des années 1980. Quand, en 1994, la décision de construction est prise, le CERN se soucie d'économie : pas d'habitacle sur mesure pour le LHC mais une installation du nouvel accélérateur dans le tunnel du LEP, le collisionneur électron-positon, que l'on démontera. Premier défi technologique remporté par les ingénieurs : depuis février dernier, le tunnel circulaire de 26,659 kilomètres de circonférence, enfoui à environ 100 mètres sous la frontière franco-suisse, est vide après le démontage des derniers éléments du LEP.
Collision de protons
Ce ne seront donc plus des électrons et leurs anti-particules, les positons, qui seront lancés les uns contre les autres à une vitesse proche de celle de la lumière, mais des protons, 1 840 fois plus massifs. Dans le LHC, ils circuleront en sens inverse le long de deux faisceaux séparés qui ne se rejoindront qu'en quatre « places fortes » : les détecteurs ATLAS*, CMS*, ALICE* et LHC-b*. Les deux premiers détecteurs rechercheront le boson de Higgs, tandis qu'ALICE étudiera le plasma de quarks et de gluons né des interactions très énergiques entre des noyaux de plomb. LHC-b, quant à lui, recueillera des données sur l'apparent déséquilibre entre matière et antimatière.
Faire une place à ATLAS et CMS s'est révélé une tâche particulièrement complexe : notamment, les spécialistes du génie civil ont dû travailler alors que le LEP était encore en fonctionnement. Pour loger les deux dispositifs, deux gigantesques cavernes - et quatre puits de descente - ont dû être aménagées à même la molasse jurassienne un mélange de grès et de marne. 450 000 tonnes de déchets ont été évacuées et l'on a dû, parfois, congeler le sol pour éviter les infiltrations des sources souterraines. Les travaux d'excavation de la caverne d'ATLAS - 35 mètres de large, 55 mètres de long sur 40 mètres de hauteur - se sont terminés fin avril dernier. Non sans mal. Car, avec une telle hauteur de plafond, il a fallu creuser la caverne en deux fois ! Les entreprises suisse, allemande et autrichienne qui s'y sont attelées ont d'abord creusé le sol sur 12 mètres afin de pouvoir fabriquer la voûte, constituée de 11 000 tonnes de béton. Avant de continuer à creuser les 28 mètres restants, la voûte a été suspendue par 38 filins d'acier fixés dans des galeries d'ancrage situées 25 mètres plus haut. Reste aujourd'hui à terminer le bétonnage des murs de la caverne sur laquelle la voûte sera fixée définitivement... Et à commencer, à la fin 2003, à descendre les énormes détecteurs.
Supraconducteurs
Les quatre expériences devraient être prêtes pour l'ouverture du LHC en 2007, malgré de nombreux retards pris dans leur construction. Quant à préciser cette échéance... Tout dépendra de l'état d'avancement du coeur battant du nouvel accélérateur, l'anneau « lanceur » de protons. Le choix de ces particules massives, qui seront à la fois arme et cible, a un avantage... et beaucoup d'inconvénients. L'avantage est énorme : l'utilisation des protons permettra aux physiciens d'atteindre l'énergie colossale de 14 TeV par collision à comparer à la limite absolue d'environ 0,2 TeV atteinte par le LEP, le collisionneur circulaire d'électrons et de positons. Mais, revers de la médaille, la masse importante des protons a posé de nombreux problèmes technologiques lorsque l'on a envisagé leur accélération et leur maintien dans un faisceau étroit et circulaire de quelques millimètres de diamètre. Avec des aimants « normaux », la circonférence d'un accélérateur circulaire dévolu à cette tâche aurait dû avoisiner les 120 kilomètres ! Impossible, si l'on ne veut pas faire exploser les coûts. Dans le « petit » anneau circulaire de 27 kilomètres du CERN, la solution passe par la mise en oeuvre de champs magnétiques très puissants 8,33 teslas, susceptibles de dévier la trajectoire des protons de 0,6 millimètre par mètre. Même si cela ne s'est jamais fait à cette échelle, les ingénieurs n'avaient qu'une solution pour ne pas consommer trop d'énergie : les 1 248 aimants dipolaires de 15 mètres de long seront supraconducteurs. Ils n'opposeront ainsi aucune résistance au passage du courant intense requis de 50 ampères.
« Ce sont des objets technologiques extrêmement complexes », prévient le physicien du CERN Daniel Froidevaux. C'est le cas aussi des autres aimants - quadripolaires, sextupolaires ou octupolaires - qui doivent refocaliser les faisceaux de protons ou éliminer les courants de Foucault* induits dans les bobines. Il a fallu du temps - il en faut encore - pour concevoir et fabriquer en série ces dipôles supraconducteurs dont la bobine est constituée de câbles tressés de fils en niobium-titane insérés dans une matrice de cuivre. Pour la première fois dans l'histoire presque cinquantenaire du CERN, les prototypes ont été élaborés en collaboration avec des industriels qui ont évidemment remporté les marchés de leur fabrication. « Cette stratégie nous a permis d'obtenir une qualité très poussée tout en diminuant les coûts », affirme Luciano Maiani, le directeur général du CERN.
Le casse-tête technologique ne s'est pas arrêté là. L'un des aspects les plus ardus de l'entreprise LHC a consisté à se procurer 7 000 kilomètres de fils de bobines et à les tresser en câbles trapézoïdaux. Soit un poids total de 1 200 tonnes, ce qui représente, sur cinq ans, environ 30 % de la production mondiale de ces fils habituellement destinés aux appareils d'IRM imagerie par résonance magnétique nucléaire. Mais la qualité demandée pour l'accélérateur pureté, homogénéité, tressage des brins est bien supérieure. Sans compter que les 1 248 aimants doivent être identiques à 0,01 % près pour toutes leurs caractéristiques. Et, comme si la difficulté n'était pas assez grande, le câble doit être d'un seul tenant sur sa longueur de 650 mètres par aimant. S'il se cassait, comme cela s'est déjà produit, des morceaux d'au moins 165 mètres peuvent néanmoins servir aux câbles des aimants quadripolaires dont les spécifications ont été modifiées, dans ce sens, en 1995 : la récupération a du bon !
Hélium superfluide
Bris de câble ou de machine, problèmes de mise au point, défaut d'approvisionnement des fils, toutes ces raisons ont été invoquées pour justifier le retard d'environ un an pris par les industriels français Alstom-Jeumont, allemand Vaccumschmelze, italien Europa Metali, finlandais Outokumpu avec le Suisse Brugg et américain IGC. « Seul le Japonais Furokawa est ponctuel », précise Philippe Lebrun, le chef de la division LHC au CERN. Arrivés sur le site genevois, les câbles sont vérifiés, assemblés et retournés, avec tôles et divers composants, à Alstom-Jeumont, Noell ou Ansaldo afin qu'ils puissent finir d'assembler les aimants. Ce n'est pas aisé, car, pour cette première application des supraconducteurs pour des courants forts 50 ampères et des champs magnétiques pouvant atteindre 8,33 teslas, les bobines et les masses qui sont à leur contact doivent être immergées dans un bain d'hélium superfluide à 1,9 K - 271,3°C. Mis au point par un labo du CEA à Grenoble, le système de cryogénie est alimenté par une usine installée sur le centre genevois par l'Allemand Linde et le Français Air Liquide qui fournissent le fluide et le matériel acheté aux Tchèques et aux Japonais. Avec ses 27 kilomètres de tuyaux et ses 94 tonnes d'hélium, ce sera le plus grand centre de cryogénie au monde. Ses ingénieurs devront être attentifs au moindre changement de température pour conserver aux aimants leurs propriétés supraconductrices. Auparavant, il aura fallu ausculter les aimants un par un afin d'éviter que des points chauds ne se forment dans les bobines, rompant ainsi la supraconductivité et affaiblissant l'intensité du champ magnétique. Ces défauts sont habituels pour des câbles dont le tressage n'est pas exactement parfait. Avant de les déclarer bons pour le service, les ingénieurs du CERN doivent faire « quencher les aimants », c'est-à-dire provoquer l'apparition de ces points chauds afin que les fils supraconducteurs prennent leur place définitive et idéale. « On escompte bien obtenir 100 % de réussite. Mais on verra à la fin », avance le responsable des tests, Roberto Saban.
Ces tests sur aimants produits en série pour l'anneau accélérateur ne sont pourtant que routine par rapport à la mise en oeuvre de quelques exemplaires bien particuliers : les aimants des grandes expériences ATLAS et CMS. Leur conception a été internationale. Des travaux franco-anglais du CEA, de l'IN2P3 et du Rutherford Laboratory ont posé les bases, tandis que d'autres centres - INFN italien, ITH de Zürich Suisse, Fermilab américain - se sont chargés d'une partie des études de détail. Cette répartition des tâches résulte du système de financement de ces deux grandes expériences. Car, contrairement à l'accélérateur, le CERN n'est pas leur seul bailleur de fonds. Une grande partie de l'argent provient de pays volontairement contributeurs. Ainsi, ATLAS est le fruit du travail de 1 700 scientifiques issus de 150 laboratoires de 34 pays différents. CMS, pour sa part, n'a que 32 pays contributeurs. Un match met en compétition ces deux expériences similaires : il s'agit de rechercher le boson de Higgs et les éventuelles « sparticules » inventées dans le cadre de la théorie supersymétrique SUSY.
D'immenses détecteurs
Le gigantisme des deux installations est à l'image du défi à relever. Avec ses 12 500 tonnes, CMS est aussi massif que la tour Eiffel, aussi grand qu'un immeuble de cinq étages. Comme sa demi-soeur ATLAS, ce monstre ne doit rien perdre des quelque 100 000 particules issues de chaque collision proton-proton. Pour être le plus étanche possible, les énormes masses de métal et les instruments sont jointifs à quelques millimètres près. Une distance qui se réduit à rien, ou presque, quand les masses se déforment sous la force des champs magnétiques de 4 teslas 1 tesla pour ATLAS créés lors du fonctionnement du détecteur. ATLAS comme CMS sont formés de divers instruments installés en pelure d'oignon dans le but de détecter les diverses particules. Au centre, un trajectographe ou « tracker » détermine la trajectoire des particules chargées, leur vitesse, le signe de leur charge électrique et leur temps de vol depuis le point d'interaction. Viennent ensuite les calorimètres hadronique et électromagnétique. C'est par scintillation dans des cristaux transparents de tungstène et d'oxyde de plomb pour CMS, par ionisation dans un mille-feuilles de plomb plongé dans l'argon liquide pour ATLAS que seront détectés les électrons ou les photons issus de la désintégration du boson de Higgs... s'il existe. Seuls les neutrinos et les muons parviendront à s'échapper du système. Pas pour longtemps en ce qui concerne ces derniers. Une dernière couche les identifiera et mesurera leur impulsion et leur charge, tandis que les neutrinos seront comptabilisés par défaut en calculant la différence entre l'énergie de collision et la somme des énergies des particules détectées. Là encore, supraconductivité oblige, le tout est immergé dans un bain glacé à 4,5 K. Différence majeure entre les deux expériences ? Encore les aimants. Celui d'ATLAS est formé de trois fois huit bobines en forme de tore dont les plus grandes mesurent 25 mètres de long, une première mondiale pour la partie externe, et d'un solénoïde plus petit 2 teslas et 2 mètres de diamètre. Celui de CMS est plus classique mais plus robuste que ce qui a été fait auparavant : c'est un unique solénoïde, une grosse bobine de 7 mètres de diamètre fournissant un champ magnétique de 4 teslas. Afin de dissiper la chaleur, son câble de 2,5 kilomètres de long est inséré dans une matrice en aluminium pur à 99,998 %, elle-même enrobée de résine.
Garder la mémoire
Les obstacles ne sont pas seulement technologiques. Ils peuvent être aussi humains. Car un projet d'une telle envergure met à contribution plus de la moitié des physiciens des particules du monde : il faut communiquer, se comprendre, réaliser les documentations explicatives en même temps que les divers instruments. « Le LHC intègre des composants techniques réalisés dans toutes les régions du monde, avec des normes et des savoir-faire différents », écrit Philippe Lebrun [1]. La mémoire technique est un enjeu fondamental dont il a fallu tenir compte dès le commencement : la plupart des physiciens-concepteurs partiront à la retraite avant l'arrêt de leur expérience ! De plus, les méthodes de travail diffèrent d'un pays à l'autre. Ce que les chercheurs connaissent depuis longtemps, les ingénieurs ont dû l'apprendre sur place. « Je reviens de Russie, raconte Jean-Pierre Rifflet, ingénieur au CEA. Outre la langue, les études effectuées ne sont pas conduites de la même façon. Mais on s'y fait grâce à la documentation ». D'où l'importance de la mise en place d'une mémoire du projet, baptisée EDMS Engineering data management system. Elle fera le lien entre les générations : en 2015, par exemple, le successeur d'un ingénieur russe qui a mis au point, au Fermilab américain, un aimant supraconducteur installé au LHC genevois pourra, grâce à ce système, prendre note des divers paramètres de fabrication et des éventuelles modifications et formuler des recommandations.
Avec ses aimants, sa cryogénie, le nombre de chercheurs impliqués dans ses expériences, le CERN aura collectionné les records. Ses concepteurs ont eu aussi la folie des grandeurs... informatiques. Afin de gérer les 1015 octets de données reçus chaque seconde lors du fonctionnement des expériences, il a fallu trouver des systèmes de sélection, de stockage, mais surtout de calcul. Les ordinateurs du CERN ne suffisant pas, les physiciens veulent utiliser tous les ordinateurs de la planète : grâce au concept de grille Grid testé actuellement, chaque événement pourra être analysé par l'un des ordinateurs disponibles dans les laboratoires de la planète les créateurs de l'Internet et beaucoup d'autres spécialistes se sont engagés dans leur mise en réseau. En somme, quand on n'a pas la possibilité de réaliser seul ses projets, autant utiliser les moyens des autres : cette simple loi s'impose à tous, y compris aux nouveaux pharaons des particules.
Par Jacques-Olivier Baruch
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante |
|
|
|
|
|
|