|
|
|
|
|
|
ONDES GRAVITATIONNELLES |
|
|
|
|
|
Paris, 11 février 2016
Les ondes gravitationnelles détectées 100 ans après la prédiction d'Einstein
LIGO ouvre une nouvelle fenêtre sur l'Univers avec l'observation d'ondes gravitationnelles provenant d'une collision de deux trous noirs. Pour la première fois, des scientifiques ont observé des ondulations de l'espace-temps, appelées ondes gravitationnelles, produites par un événement cataclysmique dans l'Univers lointain atteignant la Terre après un long voyage. Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l'Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d'une telle collision de deux trous noirs avait été prédite, mais ce phénomène n'avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l'Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l'objet d'une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l'Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.
Clin d'œil de l'histoire : c'est 100 ans tout juste après la publication de la théorie de la relativité générale d'Einstein, qu'une équipe internationale vient d'en confirmer l'une des prédictions majeures, en réalisant la première détection directe d'ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.
L'analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d'estimer que les deux trous noirs ont fusionné il y a 1.3 milliard d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil. La comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L'entrée en service d'Advanced Virgo fin 2016 permettra justement cela.
Selon la théorie de la relativité générale, un couple de trous noirs en orbite l'un autour de l'autre perd de l'énergie sous forme d'ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l'ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2. C'est cette bouffée d'ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.
Une preuve indirecte de l'existence des ondes gravitationnelles avait été fournie par l'étude de l'objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d'un pulsar en orbite autour d'une étoile à neutrons. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l'énergie sous la forme d'ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d'années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l'évolution d'un autre système binaire, formé de deux trous noirs, lorsqu'ils ont fusionné en un trou noir unique.
Détecter un phénomène aussi insaisissable1 que les ondes gravitationnelles aura demandé plus de 50 ans d'efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd'hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l'astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu'émettent certains objets astrophysiques, comme les trous noirs.
Autour de LIGO s'est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L'équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), de Leibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff, Birmingham, et d'autres universités du Royaume-Uni, et à l'Université des îles Baléares en Espagne.
Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l'Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l'interféromètre Virgo.
A l'origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d'Alain Brillet et d'Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l'INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu'en 2011.
Le projet Advanced Virgo, financé par le CNRS, l'INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d'ici la fin de l'année. En outre, d'autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd'hui.
En s'engageant depuis plus de vingt ans dans la réalisation de Virgo puis d'Advanced Virgo, la France s'est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l'exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l'analyse des données qu'à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées :
- le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
- le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d'Azur/Université Nice Sophia Antipolis), à Nice ;
- le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
- le Laboratoire d'Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
- le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
- le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.
La découverte a été rendue possible par les capacités accrues d'Advanced LIGO, une version grandement améliorée qui accroit la sensibilité des instruments par rapport à la première génération des détecteurs LIGO. Elle a permis une augmentation notable du volume d'Univers sondé – et la découverte des ondes gravitationnelles dès sa première campagne d'observations. La National Science Foundation des Etats-Unis a financé la plus grande partie d'Advanced LIGO. Des agences de financement allemande (Max Planck Society), britannique (Science and Technology Facilities Council, STFC) et australienne (Australian Research Council) ont aussi contribué de manière significative au projet. Plusieurs des technologies clés qui ont permis d'améliorer très nettement la sensibilité d'Advanced LIGO ont été développées et testées par la collaboration germano-britannique GEO. Des ressources de calcul significatives ont été allouées au projet par le groupe de calcul Atlas de l'AEI à Hanovre, le laboratoire LIGO, l'université de Syracuse et l'Université du Wisconsin à Milwaukee. Plusieurs universités ont conçu, construit et testé des composants clés d'Advanced LIGO : l'université nationale australienne, l'université d'Adélaïde, l'université de Floride, l'université Stanford, l'université Columbia de New York et l'université d'Etat de Louisiane.
DOCUMENT cnrs LIEN |
|
|
|
|
|
|
VISION INFORMATIQUE DU RELIEF |
|
|
|
|
|
La vision informatique du relief
et aussi - dans mensuel n°318 daté mars 1999 à la page 36 (2289 mots)
Nos deux yeux nous fournissent chacun une image plane, et pourtant le cerveau reconstruit en permanence un monde en trois dimensions. Comment transmettre cette faculté à l'ordinateur? Des techniques intuitives ne donnent pas de résultats convaincants. La réponse est à chercher du côté d'un des domaines mathématiques les plus actifs aujourd'hui.
La photographie est certainement le moyen le plus répandu de partager un souvenir, de faire connaître un endroit. Et demain ? La vidéo, bien sûr ! Envoyer une cassette vidéo par la poste n'est pas aujourd'hui chose courante, encore moins l'équivalent numérique qui consisterait à le faire par Internet : dans les deux cas, c'est encore trop encombrant, peu pratique. Mais demain, ce sera évidemment quotidien. Un petit bonjour ? Un souvenir de vacances ? Un simple clic de souris, et le tout sera expédié par le WEB, son et animation compris...
Troisième dimension. Et pourtant, ce ne sera pas encore une représentation complète de la réalité que recevra le destinataire. Réfléchissez. A l'image fixe de la photographie, la vidéo apporte une dimension supplémentaire, le temps, mais il en manque encore une : la troisième dimension en espace. Tout cela reste désespérément plan. Entendons-nous bien : il existe aujourd'hui plusieurs moyens de donner une sensation de relief, que ce soit en observant la scène d'un point imposé fixé d'avance cinéma en relief ou en s'y déplaçant procédés de réalité virtuelle. Nous ne disposons pas encore de véritables projections tridimensionnelles, sortes d'" hologrammes animés » dont rêvaient les auteurs de science-fiction, mais c'est déjà un premier pas. Non, le vrai problème, celui auquel nous allons nous intéresser ici, c'est l'acquisition de la forme tridimensionnelle du sujet considéré. Lorsque tel réalisateur filme ses comédiens avec deux caméras, il en enregistre deux séries d'images simultanées prises depuis deux emplacements légèrement distincts. Ces séries d'images, une fois reprojetées et observées avec un appareillage adapté lunettes polarisantes ou autres, reproduiront la sensation de relief. C'est, en bien plus sophistiqué, un procédé de stéréoscopie vieux comme la photographie. Qu'il ne prenne pas l'envie au spectateur de voir ce qui se passe de l'autre côté de la scène qui lui est proposée : il ne voit et ne peut voir que le relief qu'il aurait observé, si ses deux yeux avaient été à la place des deux caméras. Un véritable enregistrement tridimensionnel, ce n'est pas saisir deux images d'un même objet pris sous des angles différents. C'est mémoriser l'information tridimensionnelle en elle-même -« il y a un objet à tel endroit de l'espace, il a telle forme, telle couleur, etc. » -, c'est dresser une carte tridimensionnelle complète de ce qui est observé.
Acquérir cette carte, voilà le difficile problème auquel devra se confronter le cinéma du futur. Pourtant, notre cerveau résout ce problème en permanence, justement à partir des images planes qui lui sont transmises : nos deux yeux transmettent deux images différentes du même environnement, images que le cerveau exploite pour extraire de l'information sur la forme et la position de ce que nous voyons. Ce que le cerveau arrive à faire avec nos yeux, il est tentant d'essayer de le réaliser avec un système artificiel fondé sur des caméras reliées à un ordinateur. Imaginez cela : vous venez de filmer votre petit dernier effectuant ses premiers pas. Sitôt connecté au Caméscope, votre PC en extrait les images et commence à reconstituer le tout en trois dimensions. Quelques instants de patience, une petite connexion Internet, et vous pourrez faire admirer en 3D à ses grands-parents les exploits du jeune marcheur.
Retrouver la position d'un point dans l'espace lorsqu'on en possède deux images différentes... A la fois très simple dans le principe et très compliqué dans la pratique. Pourquoi ? Regardez d'un seul oeil ce point M. Vous ne pouvez pas dire où se trouve M exactement, mais vous en savez déjà beaucoup : vous savez dans quelle direction il est. Mais à quelle distance? Il vous faut ouvrir votre deuxième oeil pour obtenir une deuxième direction. Vous saurez ainsi immédiatement que M se situe à l'intersection des deux droites deux droites dans l'espace ne se coupent pas toujours, mais ici, oui. Procédez de la même manière pour tous les points d'un objet observé et vous aurez sa position et sa forme dans l'espace.
Voilà pour le principe. Dans la pratique, la réalisation informatique du procédé soulève un problème. Un seul, mais qui serait suffisant pour réduire tous les espoirs à néant : pour un point m1 donné dans la première image, la machine ne sait pas quel point m2 de la deuxième image lui correspond. Dès lors, impossible de retrouver le point de l'espace dont les points m1 et m2 seraient les images ! Des solutions existent malgré tout. La première consiste à éclairer les objets avec un laser. Seul le point éclairé par le laser sera visible dans les deux images. Pas de doute possible : le point vu dans la première image correspond à celui vu dans la deuxième, d'où la position du point éclairé dans l'espace.
Pour reconstituer tout un objet, il faudra alors le balayer point par point avec le laser : c'est le principe du " plan laser », véritable scanner tridimensionnel. Efficace mais lent ! Imaginez un instant que la nature ait doté l'homme du même système ! Une deuxième solution consiste pour un point m1 donné à rechercher dans la deuxième image quels points m2 lui sont les plus semblables, c'est-à-dire lesquels sont le plus vraisemblablement les images d'un même point de l'espace. Si plusieurs points m2 possibles sont détectés, il faudra que l'ordinateur choisisse tant bien que mal tout seul lequel retenir ou qu'il demande à un opérateur de choisir pour lui. De telles méthodes automatiques ou semi-automatiques sont couramment utilisées, notamment en cartographie à partir d'images aériennes.
Nous sommes pourtant encore loin de l'objectif annoncé : acquérir une carte tridimensionnelle complète de ce qui est observé. Parmi les problèmes en suspens, notons-en deux principaux. Premièrement, ne traiter que deux images d'un objet ne permet de reconstituer que la partie de l'objet qui fait face à l'observateur. Il faudrait donc prévoir un procédé qui puisse reconstruire tout l'objet, à condition bien sûr que l'observateur en fasse tout le tour. Plus subtil est le deuxième problème, à la base de bien des dysfonctionnements de la deuxième des solutions décrites ci-dessus. Lorsqu'on observe un objet, certaines parties en sont cachées, par d'autres objets ou par l'objet lui-même. Ces parties cachées dépendent de la position de l'observateur. Pensez aux murs cachés par les toits dans le cas de la cartographie : sur deux images différentes, ce ne seront pas les mêmes murs qui seront visibles. En conséquence, rechercher absolument un point m2 correspondant à un point m1 donné est parfois source d'erreur. Dans le cas d'un observateur faisant tout le tour d'un ensemble d'objets, ce problème risque fort de devenir le principal obstacle, les objets se cachant les uns les autres et jamais de la même manière.
C'est néanmoins à ces deux problèmes que répond le procédé de reconstruction tridimensionnelle dont nous allons exposer succinctement le principe. Il a été développé conjointement par Olivier Faugeras de l'INRIA de Sophia Antipolis, professeur au Massachusetts Institute of Technology et par l'auteur1. Ce procédé n'a pu aboutir que grâce à de récentes avancées mathématiques sur la théorie des évolutions de surfaces d'une part, et d'autre part, sur leurs méthodes de simulation informatique, c'est-à-dire sur ce que l'on appelle techniquement le domaine des équations aux dérivées partielles EDP, domaine qui a donné à la France l'une de ses récentes médailles Fields en la personne de Pierre-Louis Lions. L'ordinateur travaille en fait sur les surfaces délimitant les objets à reconnaître. Il émet d'abord une hypothèse sur la forme et la position de ce qui est observé, hypothèse consistant en une ou plusieurs surfaces. A partir de là, il vérifie la justesse de l'hypothèse en chacun des points de ces surfaces. Il faut pour cela déterminer, pour un point donné, les caméras qui doivent le voir et celles pour lesquelles il est caché. S'il y a bien un objet au point en question, alors les images qu'en ont les caméras qui le voient doivent être très semblables.
A partir de ces tests en chacun des points de l'hypothèse, les surfaces sont déformées en de nouvelles surfaces dont la mesure de validité est plus grande, et ainsi de suite jusqu'à l'obtention de surfaces stables représentant fidèlement les objets observés.
Tests de validité, puis déformation: en pratique, comment réaliser ces opérations sur ordinateur? Cela suppose d'abord de quantifier précisément les ressemblances entre deux points A et B. En réalité, pour les images numériques, ces points sont des pixels* d'une couleur donnée, composée de trois couleurs élémentaires: vert, rouge et bleu. On pourrait se limiter à l'examen des couleurs en chacun des points A et B, procédé intuitif, mais trop imprécis. Il faut en fait s'intéresser à de petites fenêtres rectangulaires centrées en A et B. Ce sont ces deux fenêtres que l'on compare, et même plus précisément les pixels qui les composent. De plus, même en supposant, ce qui n'est qu'une approximation, qu'un objet émet la même quantité de lumière dans toutes les directions de l'espace, les deux images ne sont pas nécessairement prises dans les mêmes conditions d'éclairage, ni avec des caméras identiques. Il faut donc faire plus qu'une simple comparaison de couleurs des pixels de chaque fenêtre. La solution consiste à calculer ce qu'on appelle un facteur de corrélation normalisé entre les fenêtres, ce qui revient à comparer non plus les couleurs des pixels, mais la façon, dont ces couleurs varient au sein de chaque fenêtre. Ce facteur varie entre 1 pour des fenêtres totalement anti-corrélées et +1 pour des fenêtres totalement corrélées.
Déformer des surfaces. Une fois réglée cette question de corrélation, il reste encore à savoir comment déformer les surfaces. Mathématiquement, elles évoluent suivant une équation aux dérivées partielles, exactement comme nombre de phénomènes physiques variant au cours du temps. Concrètement, on transforme la surface par de petites variations imposées en chacun de ses points. Ces points évoluent selon la normale* à la surface. La longueur du déplacement, appelé vitesse normale, est bien sûr différente en chaque point M. Dans notre cas, elle dépend de la position de M, de la forme de la surface en M et des facteurs de corrélation des différentes caméras voyant M. On fait varier la vitesse normale de telle sorte que le procédé s'arrête aux points où l'objet est détecté elle s'annule quand la corrélation est bonne. De plus, on l'adapte suivant des critères mathématiques rigoureux assurant une évolution « en douceur » de la totalité de la surface vers la solution.
Supposons, pour simplifier, que nous n'ayons plus à déformer une surface dans l'espace, mais une courbe dans un plan, et que cette courbe soit fermée. Une façon naïve de simuler son évolution sur ordinateur consiste à la mémoriser sous la forme d'un ensemble de points, que l'on déforme en faisant bouger les points le long de la normale fig. 1. Cette manière de procéder est mauvaise car très instable : en certains endroits, les points se resserrent tandis qu'en d'autres ils s'écartent. L'approximation numérique devient vite incorrecte, et les résultats, faux. La bonne méthode, appelée « méthode des courbes de niveau », consiste à rajouter une dimension, et à inscrire cette courbe dans une surface évoluant, elle, dans l'espace.
On choisit une surface initiale dont la courbe est le niveau zéro, c'est-à-dire la trace de la surface sur le plan horizontal d'altitude zéro fig. 2. C'est maintenant la surface qu'il s'agit de faire évoluer, mais pas n'importe comment: on veut que son niveau zéro finisse par représenter la solution! C'est là qu'il faut faire appel à la théorie des EDP. Elle fournit en fait une équation qui permet de déformer la surface exactement de sorte que la courbe, elle, évolue vers la solution. Première qualité: en pratique, on est assuré de trouver la bonne solution. Cette technique possède aussi une propriété remarquable : rien n'empêche le niveau zéro de se séparer en plusieurs morceaux fig. 2. La détection d'objets multiples se fait donc sans effort supplémentaire. Enfin et surtout, elle s'étend naturellement aux dimensions supérieures, soit, dans notre cas, à l'évolution d'une surface et non plus d'une courbe il faut alors faire évoluer une hypersurface en dimension 4 dont le niveau zéro est la surface à déformer. Et cela marche! Les étapes successives montrent de premières surfaces approximatives qui se déforment, se précisent et finissent par coller parfaitement aux objets photographiés. Les parties se cachant mutuellement ne trompent en rien l'algorithme.
Jusqu'ici, les méthodes d'acquisition à base de caméras étaient sans justification mathématique rigoureuse, et surtout peu probantes. Elle ne reconstituaient les objets que partiellement, et se trompaient quand ils se cachent mutuellement. Ce nouveau procédé ouvre de nombreux horizons. Nous avons déjà évoqué le cinéma tridimensionnel ou l'acquisition automatique de mondes virtuels. Nous pourrions aussi citer la reconnaissance des formes. Les résultats dans ce domaine seraient grandement améliorés si l'on travaillait sur des données 3D plutôt que sur des images planes. La robotique est également demandeuse2 : un robot mobile autonome doit aujourd'hui se contenter de sonars pour réagir vite et de plans lasers pour les tâches précises. Ces sonars sont d'ailleurs inutilisables dans le vide, donc en exploration spatiale, où pourtant éviter un obstacle est vital! Les spécialistes du trucage et des effets spéciaux seraient ravis de pouvoir extraire toute l'information tridimensionnelle possible d'une séquence filmée. Ils pourraient alors très facilement modifier un acteur, le remplacer par un autre, ou même ajouter des objets ou d'autres acteurs à la séquence. Le résultat serait plus réaliste qu'avec les méthodes actuelles. Ce n'est là qu'une première avancée, car en réalité la véritable motivation de tels travaux est de pouvoir imiter un jour la vision humaine et la remplacer quand elle est déficiente. Le chemin est encore long.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
RADIOACTIVITÉ |
|
|
|
|
|
La radioactivité, le soleil, la terre et la mort de kelvin
autre - par Pascal Richet dans mensuel n°291 daté octobre 1996 à la page 78 (3878 mots)
Quel est l'âge de la Terre ? Longtemps restée mythique, cette question est, dans le dernier quart du XIXe siècle, au coeur d'une vive controverse initiée par un physicien : William Thomson, futur Lord Kelvin. Au tournant du XXe siècle, à la suite des découvertes de Becquerel et des Curie, une nouvelle génération de physiciens vient se mêler de datations géologiques. Avec imprudence, parfois... Au grand dam de Kelvin lui-même, toujours ! Récit des relations tumultueuses entre la géologie et la physique.
A la fin du XIXe siècle, la communauté des géologues est traversée par un intense débat lancé, trente ans plus tôt, par un célèbre physicien écossais. L'un des pères de la thermodynamique, William Thomson, devenu Lord Kelvin of Largs, avait alors entrepris de soumettre les processus géologiques aux lois implacables de sa discipline. Ce faisant, il s'opposait à la conception dominante parmi les géologues : la Terre ne présente pas plus « de vestiges d'un début que de perspectives d'une fin » comme l'affirmait un siècle auparavant le grand géologue écossais Hutton. Kelvin entendait donc nier l'idée d'éternité inspirée aux géologues par l'immensité des terrains lentement transportés du tréfonds de la mer au sommet des montagnes. Pour Kelvin, la Terre a eu un début, elle aura une fin.
Il est vrai que les géologues avaient pris quelques libertés avec la physique. L'uniformitarisme*, en particulier, supposait implicitement l'existence de mouvements perpétuels puisque des cycles géologiques se répétaient, inchangés, depuis la nuit des temps. Et quand les géologues se piquaient de thermodynamique, ils faisaient peu de cas de ses principes. En dépit des lois de conduction de la chaleur établies par Fourier au début du XIXe siècle, les températures mesurées dans les mines étaient audacieusement extrapolées pour donner près de 200 000 °C au centre de la Terre. La Terre apparaissait ainsi comme formée d'un immense océan magmatique surmonté par une croûte solide mince d'une cinquantaine de kilomètres. L'absurdité de cette conception fut démontrée au début des années 1860 par Kelvin : une telle croûte se verrait en effet ballottée au gré des marées de l'énorme masse liquide. A contrario , Kelvin en déduisait que la Terre était donc essentiellement solide, « aussi rigide que l'acier » 1 .
L'idée d'une Terre initialement fondue n'était cependant pas absurde. Déjà évoquée par Descartes ou Leibniz, elle avait été exploitée par Buffon dans ses fameuses expériences qui visaient à dater la Terre d'après la durée de refroidissement de boulets chauffés à blanc. Kelvin reprend ce problème qu'il résoud, mathématiquement, avec les lois de Fourier. En tenant compte des erreurs affectant les paramètres thermiques utilisés, il affirme en 1862 qu'il a fallu de 20 à 400 millions d'années pour que la croûte se forme et refroidisse à sa température actuelle. Il propose 98 millions comme âge le plus probable2. Au fil des années, Kelvin reprend son ouvrage, affine ses paramètres et, peu à peu, réduit ses estimations pour s'en tenir à 24 millions d'années seulement en 18953. La vie terrestre ne pouvait pas être plus ancienne que le Soleil. Il était donc heureux que ces âges soient inférieurs à ceux que Kelvin obtenait pour notre étoile à partir de diverses méthodes, par exemple le taux de dissipation de son énergie sous forme lumineuse.
Bousculés dans leur quête d'éternité, la majorité des géologues avaient fini par admettre les premières estimations d'un Kelvin autoritaire et persuasif. En réinterprétant leurs observations, ils n'identifiaient pas d'incompatibilité majeure avec un âge d'une centaine de millions d'années : une telle durée permet de saler des océans initialement constitués d'eau douce et autorise le dépôt, puis l'érosion des formations sédimentaires accumulées depuis les premiers temps géologiques. Mais les durées de plus en plus courtes consenties par Kelvin posaient de très sérieuses difficultés. La biologie se trouvait également affectée : le cadre temporel qui présidait à l'Evolution se rétrécissait dans des proportions embarrassantes.
Ce fut la découverte de Becquerel, prélude à celle de la radioactivitéI, qui allait conduire à la résolution du conflit au détriment de Kelvin. De prime abord, rien ne laissait pourtant supposer que ce phénomène physique donnerait les premières solutions aux questions du temps géologique et de la dynamique de la Terre et des étoiles. En février 1896, Becquerel se retrouve en effet en terrain inconnu : les rayons X sortent tout juste des limbes, l'électron s'y complaît encore et l'atome reste une entité controversée ne faisant l'unanimité que sur un point, son indivisibilité atome = qui ne peut pas être coupé. Dans une certaine indifférence, Becquerel parvient à attribuer à l'uranium seul la paternité du rayonnement émis par les sels d'urane4, puis il cesse de publier sur ce sujet en mars 1897. Cinq ans plus tard, les publications se compteront par centaines et une compétition serrée aura cours de part et d'autre de l'Atlantique. Que s'est-il passé entre-temps ? Les Curie sont entrés en scène à l'automne de 1897. Mal distinguées des rayons X, même dans les sommaires des Comptes rendus de l'Académie des sciences , ces radiations ont soufflé aux Curie une question très simple : l'uranium est-il le seul élément à en émettre ?
Marie Curie trouve qu'un seul autre élément est actif, le thorium, et découvre que deux minéraux uranifères sont plus actifs que l'uranium lui-même5. De ce constat étonnant, elle conclut que ces minéraux contiennent un élément inconnu beaucoup plus actif que l'uranium. Cinq mois après le polonium, le radium est décrit en décembre 18986. Pour en obtenir quelques dixièmes de gramme sous forme de chlorure, les Curie ont dû traiter des tonnes de pechblende. Ces éléments responsables de la radioactivité élevée des minerais sont donc cent mille fois plus actifs que l'uranium lui-même. Dès l'annonce de ces résultats, l'intérêt immense de la radioactivité devient patent. Après les rayons X, le radium, « la substance la plus mystérieuse du monde » , parvient à son tour à captiver presse et grand public ; une radiomanie s'instaure au point que la radioactivité d'un produit se transforme en argument publicitaire. Cette agitation laisse les géologues indifférents. Certes, le radium et le polonium n'ont été détectés que dans des minéraux, mais la pechblende est une rareté, et non un minéral dont on fait les montagnes...
La situation change radicalement peu après le 16 mars 1903. Ce jour-là7, Pierre Curie et son collaborateur Albert Laborde annoncent que le radium dégage en permanence tant de chaleur qu'il garde une température plus élevée que la matière qui l'entoure. C'est grâce aux gros échantillons de radium purifiés avec tant de peine qu'a pu être mesurée la chaleur produite lorsque les radiations sont absorbées par la matière. Cette profusion d'énergie libérée à longueur d'années est principalement due aux rayons alpha*. Aucune réaction chimique ne peut l'expliquer. Curie et Laborde en déduisent qu'une « transformation profonde » , une « modification de l'atome de radium lui-même » est en jeu. Dans le grand public, jamais mesure calorimétrique n'eut un tel succès d'audience ! A côté de l'émerveillement suscité par ces réserves iné-puisables d'énergie, les Cassandre veillent : pourrait-on un jour concevoir un instrument qui, sous la pression d'un bouton, pulvériserait la Terre et amènerait la fin du monde ? La crainte n'est pas nouvelle, elle fait déjà les gros titres de journaux américains en 1903, un an avant l'Exposition universelle de Saint Louis dont le radium sera la vedette8...
La radioactivité est alors vieille de sept ans. Ses conséquences sur le bilan thermique de la Terre et des étoiles n'ont pas encore été envisagées car ses effets paraissaient beaucoup trop faibles. Après l'expérience de Curie et Laborde, physiciens et astronomes sont prompts à conclure que l'existence d'éléments radioactifs remet en cause les calculs de Kelvin et ses émules. Ces idées reçoivent une base expérimentale avec les mesures faites dans les milieux naturels par les physiciens allemands Elster et Geitel de 1900 à 1905. Des traces de radioactivité sont systématiquement détectées dans les sols et les eaux, provenant principalement du radium et de son émanation non encore identifiée, le radon.
Ces résultats conduisent un spécialiste anglais des rayons alpha, Robert Strutt, fils du physicien Lord Rayleigh, à mesurer la teneur en radium des minéraux et des roches9. Celle-ci augmente, par exemple, d'un facteur dix entre basaltes et granites et, observation importante, les teneurs les plus faibles mesurées par Strutt sont dix fois supérieures à la teneur moyenne requise pour rendre compte du flux de chaleur à la surface de la Terre. Pour ne pas obtenir un flux trop élevé, Strutt doit supposer que le radium est cantonné dans une croûte superficielle de 75 km d'épaisseur. Si le radium était présent en profondeur, la production de chaleur serait telle que la Terre ne serait pas en train de refroidir, mais de s'échauffer ! Quoi qu'il en soit, les géologues ne peuvent plus supposer, comme ils avaient coutume de le faire, que la chaleur exhalée par la Terre provient uniquement de sa condensation initiale. Le retournement de situation est spectaculaire : la physique n'impose plus guère de limites à l'âge de la Terre !
Avant même qu'on se tourne vers la Terre, le Soleil a fait l'objet de spéculations rapides. Pour expliquer l'énergie émise par le Soleil, note l'astronome W.E. Wilson10, il suffit d'y imaginer une concentration en radium de 3,6 grammes par mètre cube. Certes, la présence de radium est douteuse : on ne voit pas les raies caractéristiques de cet élément dans le spectre lumineux du Soleil. Identifié de la sorte pour la toute première fois en 1868, l'hélium est en revanche abondant dans les étoiles. Sur Terre, il n'a été isolé que dans des minerais d'uranium. L'indice est de taille et, dès juillet 1903, les chimistes Ramsay et Soddy rapportent que la désintégration du radium produit effectivement de l'hélium11.
La présence d'hélium dans le Soleil suggère donc l'existence de processus radioactifs qui restent à élucider. Comme l'écrit en 1905 un personnage qu'on va très bientôt retrouver, un certain Ernest Rutherford12, « ß/I Ißl n'est pas improbable que, à la température énorme du Soleil, la fragmentation des éléments en des formes plus simples prenne place à une vitesse plus élevée que sur Terre. Si l'énergie résidant dans les atomes des éléments est disponible, le temps pendant lequel le Soleil peut continuer à émettre au taux actuel peut être au moins 50 fois plus long que la valeur calculée . »
La nouvelle physique semble bien tout permettre, ou presque. Des 12 à 100 millions d'années donnés par l'école de Kelvin, une hypothèse hardie conduit ainsi à une large fourchette de 0,6 à 5 milliards d'années. Seule l'issue finale reste certaine, comme le souligne Rutherford : « L a science n'offre aucune échappatoire à la conclusion de Kelvin et Helmholtz qu'en définitive le Soleil se refroidira et que cette Terre deviendra une planète morte fendant le froid intense du vide de l'espace. »
La radioactivité a en fait plus d'un tour dans son sac. En même temps que surgissent d'inépuisables sources de chaleur, des chronomètres absolus voient le jour. Une nouvelle découverte de Becquerel en est à l'origine en 1900. En séparant chimiquement l'uranium en deux fractions, Becquerel a la surprise d'observer que la radioactivité provient du résidu d'extraction, et non de la fraction principale constituée exclusivement d'uranium. La conclusion paraît évidente : l'élément radioactif n'est pas l'uranium lui-même, mais une impureté accompagnant l'uranium à l'état de tra-ce, aussitôt baptisée uranium X. La situation se complique lorsque, au bout d'un an, Becquerel remarque que l'uranium purifié a retrouvé sa radioactivité tandis que l'uranium X a perdu la sienne ! Quels sont ces éléments changeants qui contreviennent au dogme de l'immuabilité des atomes ? Dès 1902, une réponse retentissante vient de Montréal. Elle devait assurer la célébrité de deux jeunes expatriés, le Néo-Zélandais Rutherford et l'Anglais Soddy13 : ces éléments se transmutent en formant une chaîne d'éléments radioactifs dont le radium est un des termes voir l'encadré « Les chaînes d'éléments radioactifs ». Une « nouvelle alchimie » vient de naître.
Peu avant, Pierre Curie avait observé que l'activité de l'émanation gazeuse produite par le radium décroît exponentiellement : elle diminue de moitié tous les 3 jours, 23 heures et 42 minutes la demi-vie . Dans une conférence donnée en 1902, P. Curie note que de telles lois donnent une mesure absolue du temps, indépendante d'observations astronomiques. Avec sa théorie des désintégrations radioactives, Rutherford peut aller plus loin et tenter les premières datations géologiques. A une époque où le mécanisme des désintégrations n'est compris que de façon très sommaire et où on ne connaît encore les chaînes radioactives que par fragments, la tentative est audacieuse.
La méthode de datation de Rutherford repose sur une mesure de quantité d'hélium. Quand un atome d'uranium se désintègre, il donne un atome d'uranium X en expulsant un rayon alpha : on soupçonne que celui-ci prend les électrons qui lui manquent pour former un atome d'hélium. De même pour d'autres maillons de la chaîne. La quantité d'hélium produite est proportionnelle au nombre de désintégrations subies par l'uranium, et donc au temps. Pour sa toute première datation radioactive, Rutherford prend pour cobaye un minéral riche en uranium, une fergusonite, dont les teneurs en hélium et en uranium sont déjà connues. Un seul paramètre reste à déterminer avant de calculer un âge, c'est le taux annuel de pro- duction d'hélium par l'uranium. Avec le taux qu'il estime en 1905, Rutherford obtient un âge de 140 millions d'années14. Le minéral de Rutherford est plus ancien que la Terre de Kelvin ! Une simple règle de trois semble ruiner les savants calculs du plus grand physicien vivant...
Bien sûr, une seule détermination ne permet pas de conclure. Entre 1905 et 1910, Strutt mesure la quantité d'hélium incluse dans des minéraux contenant de l'uranium ou du thorium. Les âges obtenus souffrent, d'une part, des incertitudes affectant le taux de production d'hélium par ces deux éléments et, d'autre part, de la diffusion du gaz hors des minéraux au cours du temps. Des minéraux très réfractaires sphène et zircon de roches précambriennes avouent ensuite des âges allant jusqu'à 700 millions d'années15. Pour obtenir des résultats plus précis, Strutt mesure directement le taux de production d'hélium par des minéraux riches en uranium ou thorium : une fois de plus, il obtient des âges élevés, à savoir 250 et 280 millions d'années. Il arrêta là ses datations16 pour se consacrer à d'autres travaux.
Une autre méthode est mise en oeuvre par Bertram Boltwood, un chimiste de Yale avec lequel Rutherford collabore après le départ de Soddy pour Oxford en 1903. Boltwood s'intéresse à la Terre en tant que laboratoire naturel où l'immensité du temps a permis d'accumuler en quantité mesurable les maillons tant recherchés des chaînes radioactives. Il constate d'abord que les minéraux uranifères sont systématiquement riches en plomb. De plus, le rapport entre les abondances du plomb et de l'uranium augmente avec l'ancienneté géologique des minéraux. Ceci suggère que le plomb est le terme final, stable, de la chaîne débutant par l'uranium. L'âge d'un minéral uranifère peut alors être déduit de sa teneur en plomb : il « suffit » de connaître le taux annuel de formation du plomb à partir de l'uranium, à condition, bien sûr, que la teneur initiale en plomb ait été nulle et que nul plomb n'ait été perdu au cours du temps voir l'encadré « L'astuce de Boltwood ».
Boltwood attend de mieux connaître ce taux avant de publier ses résultats en 190717. Les âges s'échelonnent de 410 à 2 200 millions d'années et - fait important - se classent dans un ordre cohérent avec les données géologiques. Sa méthode confirme que des minéraux peuvent avoir des âges supérieurs à 100 millions d'années. Toutefois, en chimiste prudent, Boltwood ne fait pas le moindre commentaire sur ses datations. A ces temps écoulés depuis la formation des minéraux, il faut bien sûr ajouter le temps passé depuis les tout premiers instants de la Terre. Comme l'hélium, le plomb indique donc pour la Terre entière une antiquité dépassant de loin la durée allouée par Kelvin. Est-ce assez pour convaincre les géologues de la validité des nouvelles méthodes ? La radioactivité leur offre un avantage indéniable : elle ne donne pas seulement un instrument pour dater les phénomènes géologiques, elle fournit également l'explication de cette antiquité.
La Terre est bien plus vieille que ne l'indiquent les calculs de Kelvin, non pas parce que ces derniers reposent sur des données incorrectes, mais parce qu'ils postulent l'absence de sources de chaleur internes dans la Terre. Or ce sont les éléments radioactifs de longue période, comme l'uranium et le thorium, qui constituent le moteur thermique de notre planète. Sans ces sources, les montagnes ne s'élèveraient pas, les volcans seraient réduits à l'état de fossiles et les tremblements de terre n'évoqueraient tout au plus que des cicatrices estompées. Sans elles, comme Kelvin l'avait calculé, la Terre serait bien morte en une centaine de millions d'années, ou moins, avant que la vie n'ait eu le temps d'apparaître !
A son passif, la radioactivité bouleverse les résultats de l'ancienne physique en manipulant des principes étranges, des méthodes balbutiantes et des données incertaines. Le premier minéral considéré par Rutherford voit ainsi son âge croître de 40 à 400 millions d'années de 1904 à 190618. Moins téméraire, Boltwood attendit de connaître raisonnablement bien le taux de formation de plomb pour publier ses datations. Il eut aussi raison de laisser à d'autres le soin de gloser sur les 2,2 milliards d'années de son plus vieux minéral : les analyses modernes ne lui en concèdent que 400 millions. Du fait de l'existence des isotopes, les chaînes de désintégrations sont en effet beaucoup plus compliquées que Boltwood et Rutherford ne pouvaient le craindre...
En quelques décennies, les géologues venaient de se plier à l'autorité de la thermodynamique et d'ajuster leurs échelles de temps pour se conformer à ses règles. Ce patient travail devait-il être mis en cause par des âges obtenus par deux personnes pour quelques minéraux radioactifs ? Mieux valait y regarder à deux fois...
Dans un débat qui fut assez long à s'amorcer, la position du géologue américain Becker19 résume la démonstration par l'absurde avancée par les adversaires des méthodes radioactives. Avec la méthode de Boltwood, Becker obtient en 1908 des âges allant de 1,6 à 11,5 milliards d'années pour divers minéraux dont la teneur en uranium et plomb est connue : résultat évidemment inacceptable ! D'autre part, les teneurs en radium postulées par Strutt rendent bien compte du flux de chaleur global de la Terre, mais la concentration du radium dans une mince croûte conduit à un gradient géothermique trop élevé près de la surface : les roches devraient fondre à des profondeurs qui semblent beaucoup trop faibles. Becker en conclut donc que la radioactivité est présente dans une couche encore plus mince, peut-être concentrée localement, et que sa contribution ne dépasse pas 10 % du flux de chaleur terrestre. Pour les âges comme pour le flux de chaleur, conclut Becker, la radioactivité joue un rôle encore obscur, bien que certainement mineur. On ne doit la prendre en compte qu'à la condition d'obtenir des résultats comparables aux âges « purement » géologiques.
De l'autre côté de l'Atlantique, la position du géologue irlandais Joly est intéressante à un autre titre. Joly est le premier à souligner les incidences possibles de la radioactivité sur l'activité géologique. Il participe aux discussions animées de 1904 sur l'origine du radium et est, avec Strutt, le seul à s'impliquer dans des mesures de radioactivité dans les matériaux terrestres. A cette occasion, il découvre en 1907 que les minéraux fortement radioactifs produisent autour d'eux des halos colorés dus aux défauts créés par le bombardement continu de rayons alpha.
En collaboration avec Rutherford, des comparaisons entre minéraux naturels et artificiellement irradiés lui permettront d'utiliser l'intensité de ces halos pour dater les minéraux affectés20. Dès 1909, il écrit un livre, Radioactivity and Geology , où il discute les nouvelles méthodes de datations radioactives et passe en revue les implications de la radioactivité sur la géodynamique. En dépit de cette ouverture d'esprit, Joly préférait les âges tirés des vitesses de sédimentation et des teneurs en sel des océans.
Des autorités comme Joly et Becker influencent évidemment leurs collègues géologues novices en matière de radioactivité. Le dialogue avec les physiciens ou les chimistes s'amorce difficilement. Rutherford, pour qui les datations ne sont qu'une distraction, s'attache à fonder la physique nucléaire en exploitant l'énergie prodigieuse des rayons alpha. Et les pionniers des datations se consacrent à leur discipline : Boltwood déchiffre les chaînes radioactives et Strutt s'occupe de décharges électriques.
Face à des horloges radioactives d'humeur changeante, une majorité de géologues reste attentiste, voire indifférente : si les physiciens, Kelvin en tête, ont pu nous tromper une fois, pourquoi ne le feraient-ils pas une seconde ? Cette attitude prévaut en Europe continentale où l'influence de Kelvin est moins forte qu'en Angleterre ou aux Etats-Unis. Un cas extrême est celui de L. de Launay, un influent ingénieur en chef des Mines, qui passe la radioactivité sous silence dans son traité paru en 1905, la Science géologique . A propos des calculs de Kelvin, il note encore que « n'étaient les noms des savants qui les ont établis, ces chiffres ne mériteraient aucune attention, tant on a accumulé pour les obtenir d'invraisemblables hypothèses ». La géologie s'est constituée en une discipline solide à qui bien d'autres problèmes se posent, reléguant la question mythique de l'âge de la Terre au deuxième plan. Les chaînes de montagnes ou les bassins sédimentaires constituent en eux-mê-mes des champs d'étude assez vastes !
Pour les observateurs contemporains de cette controverse, la situation est compliquée par la position de Kelvin lui-même. Car le grand physicien s'oppose irréductiblement à la théorie des désintégrations radioactives ! Il suit de près les nouveaux travaux et sait se faire craindre de ses contradicteurs.
Une anecdote célèbre le met en scène avec Rutherford à l'occasion d'une conférence organisée sur le radium à Londres, en 190421 : Kelvin dort pendant l'exposé de son jeune collègue et se réveille en lui jetant un regard sinistre au moment où Rutherford aborde la question épineuse de l'âge de la Terre. Dans un moment d'inspiration, Rutherford dit alors que « Lord Kelvin avait limité l'âge de la Terre à la condition qu'aucune nouvelle source de chaleur ne soit découverte. Cette déclaration prophétique se rapporte à ce que nous considérons ce soir, le radium ! » Satisfait d'avoir en quelque sorte prédit la radioactivité, Kelvin se serait épanoui...
Rutherford a-t-il enjolivé l'histoire ? Le fait est qu'en 1906 Kelvin conteste toujours le principe des transmutations et nie le rôle de la radioactivité dans le flux de chaleur terrestre. Il meurt l'année suivante à l'âge de 83 ans. D'après la légende, il n'aurait jamais répudié ses calculs géologiques. Il le fit toutefois en privé, confiant au physicien J.J. Thomson qu'il avait considéré son travail sur l'âge de la Terre comme étant le plus important de tous avant que la découverte du radium ne rende ses hypothèses indéfendables22. Mais pourquoi son acharnement à nier publiquement l'évidence en physique, à combattre le principe même des transmutations ?
Comme le défendait Becker, négliger les sources radioactives de chaleur aurait pu ne pas avoir de conséquences notables en géologie. Il faudra en fait plusieurs années pour que les géologues mettent en cause les estimations de Kelvin, puis vingt-cinq ans d'efforts d'une jeune génération menée par le géologue anglais Arthur Holmes pour établir définitivement l'imposante antiquité de la Terre*. Kelvin héritera alors de l'image imméritée du vilain dans une histoire naturelle que, bien avant tout autre, il avait pourtant entrepris de conter avec les mots de la physique
Par Pascal Richet
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
ROBOTS |
|
|
|
|
|
Quand les robots imitent la nature
robotique - par Alcherio Martinoli Guy Theraulaz et Jean-Louis Deneubourg dans mensuel n°358 daté novembre 2002 à la page 56 (2508 mots)
Nul besoin d'individus sophistiqués pour accomplir des tâches complexes. Des chercheurs se sont inspirés de découvertes faites en éthologie au milieu des années 1980 pour la mise au point de robots simples mais doués d'un sens aigu de la communication. En leur laissant, à l'image des animaux, la latitude de se tromper.
Avez-vous déjà observé la façon dont les fourmis conçoivent leurs cimetières ? Dans nombre de sociétés, elles rassemblent les cadavres des ouvrières à l'extérieur de leur nid et forment des petits tas. Si l'on disperse aléatoirement des cadavres ou des morceaux de cadavres sur la fourmilière, on voit également les ouvrières constituer en quelques heures des petits tas qui vont peu à peu s'organiser dans l'espace voir figure p. 61. En observant de plus près, on s'aperçoit que le comportement des fourmis consiste à amplifier localement les dépôts : plus il y a de cadavres dans un tas, plus la probabilité qu'une fourmi y dépose le cadavre qu'elle transporte est importante. En outre, plus un tas est volumineux, plus la probabilité qu'une fourmi prenne un cadavre sur ce tas est faible [1]. Deux éléments étonnants : seul un petit nombre de fourmis participe à ce « rituel », et aucun ordre n'est donné aux ouvrières pour leur dicter la façon de s'organiser.
Cette observation ne serait restée qu'un trait intéressant du comportement des fourmis si une équipe de chercheurs des universités de Bielefeld, de Bristol et de Bruxelles ne s'en était pas directement inspirée pour concevoir des robots capables de rassembler des palets éparpillés sur le sol, et ce, sans qu'ils aient besoin de communiquer entre eux [2]. Seule l'interaction entre le robot et le tas de palets importe : plus celui-ci est gros, plus il est facile pour le robot de le trouver et d'y déposer un nouveau palet.
Cette expérience a été conduite au début des années 1990, alors que la robotique collective n'en était qu'à ses débuts. Encouragés par les résultats prometteurs obtenus dans un premier temps avec un seul robot notamment par Rodney Brooks, pionnier de la robotique autonome, deux chercheurs du laboratoire d'intelligence artificielle du Massachusetts Institute of Technology MIT, Maja Mataric et Lynne Parker, ont formalisé les problèmes inhérents à la coordination des actions d'un petit groupe d'individus [3].
Question posée : comment commander des robots pour qu'ils parviennent à accomplir une tâche collectivement ? Réponse : il y a deux façons de faire.
La première est de centraliser les informations sur l'état et la position acquise par exemple via un GPS de chaque robot au moyen d'un ordinateur extérieur qui dispose d'une vue globale du groupe. L'ordinateur devient le maître du jeu : il envoie à chacun les instructions nécessaires pour que sa mission soit remplie. Mais on peut aussi s'affranchir de l'ordinateur central. Chaque robot transmet alors directement ses informations à tous les membres du groupe. Tous disposent ainsi d'une vue d'ensemble et peuvent, à partir de là, décider individuellement des actions à entreprendre.
Cette approche, récemment validée par Lynne Parker [4], est très efficace pour les petits groupes de robots. En revanche, elle se révèle beaucoup moins performante dès que le nombre d'individus ou leur charge de travail deviennent trop importants. En effet, le réseau radio qui permet aux robots d'échanger les informations constitue un véritable goulet d'étranglement : dans la plupart des cas, tous se partagent une seule fréquence. Le problème est d'autant plus épineux que, lorsque le nombre d'acteurs s'accroît, la coordination des mouvements et des actions se complique, tandis que les risques de collisions et d'interférences radio augmentent.
Compte tenu de cet obstacle technique, il est intéressant de constater que les insectes sociaux termites, fourmis, guêpes sont, eux, capables de s'organiser au sein de colonies qui comptent jusqu'à plusieurs millions d'individus. D'où l'idée, suggérée par plusieurs spécialistes de ces animaux dont Rémy Chauvin, l'un des précurseurs de prendre ces insectes comme modèle pour la robotique collective.
Depuis le milieu des années 1980, de nombreuses découvertes en éthologie avaient révélé comment, pour accomplir certaines tâches collectives, les insectes s'organisaient spontanément en faisant agir une multitude d'interactions entre eux et avec l'environnement [5]. Ces comportements collectifs mouvements coordonnés, synchronisation d'activités, constructions collectives, division du travail, etc. ne sont pas forcément le résultat d'une complexité comportementale et cognitive propre à chaque individu : ils peuvent spontanément émerger d'interactions entre des insectes qui n'ont qu'une vue partielle de l'action du groupe et qui ne sont capables que de comportements simples.
Autre découverte importante qui incite à prendre les insectes sociaux comme modèle pour la robotique : dans leurs sociétés, il n'existe pas de contrôle hiérarchique ou centralisé des activités de chacun. Les problèmes d'engorgement autour d'un élément central ou au sein d'un réseau de communication global disparaissent de ce fait, et ce, quel que soit le nombre d'individus.
Le modèle peut même dépasser le cadre des insectes sociaux puisqu'il est capable de s'inspirer d'autres espèces : les oiseaux, lorsqu'ils effectuent un vol en formation, ou les poissons, lorsqu'ils se déplacent par bancs, ont des comportements collectifs similaires aux insectes.
Des essaims d'insectes à la robotique en essaim
Forts de ces observations, les chercheurs n'avaient plus qu'à les transposer à la robotique pour inventer ce que l'on appelle aujourd'hui la robotique en essaim swarm robotics , en anglais. Son principe : laisser à chaque robot le soin d'agir selon des règles comportementales simples, en fonction de la perception qu'il a de son environnement immédiat. Ainsi, dans l'expérience de l'agrégation des palets, chaque robot perçoit les palets qui l'entourent grâce à ses capteurs, et agit suivant des règles comportementales du type : s'il y a plus de trois objets dans le tas, je les laisse en place ; s'il y en a un ou deux, je les prends avec ma pince.
Evidemment, pas question pour un robot de mettre en oeuvre un signal chimique, comme pourrait le faire une fourmi ! Il optera en revanche pour des signaux mécaniques ou électromagnétiques : par exemple, la force exercée par un tas d'objets sur la pince, ou l'intensité d'un signal infrarouge. Ainsi, les robots doivent-ils être dotés de moyens sensoriels élémentaires capteurs d'obstacle, compte-tours pour chaque roue, etc. leur permettant de réagir simplement aux changements de leur environnement et de communiquer de manière sommaire avec leurs équipiers. Chaque robot synchronise ses activités avec celles de ses voisins, en fonction de la tâche à accomplir et des contraintes de l'environnement dans lequel il est plongé : densité d'équipiers, nombre d'objets à manipuler, présence d'obstacles, etc.
Quels sont les traits essentiels de cette robotique en essaim ? Elle repose sur le parallélisme plusieurs robots travaillent de manière autonome et simultanément à la même mission, le contrôle distribué chaque robot prend des décisions localement sans en référer à un contrôleur central, ainsi que sur des formes de communication explicites d'un individu à l'autre, par exemple via un signal infrarouge ou implicites indirectement, en modifiant l'environnement, par exemple en changeant la distribution des palets. Les informations échangées par les individus via des signaux mécaniques ou lumineux d'intensités différentes varient en fonction de la tâche à accomplir : elles peuvent être directement liées à une perception environnementale l'estimation de la taille d'un tas d'objets ou à un état interne un seuil de réponse à un stimulus de construction ou de destruction d'un tas. Les contraintes physiques ou géométriques de l'environnement la longueur d'un bâton à manipuler, la présence d'obstacles, les dimensions de l'enceinte expérimentale affectent directement la propagation des signaux échangés par les robots et, par là même, agissent sur les réponses individuelles et sur le reste du groupe.
Une fois acquises ces règles comportementales inspirées des animaux, la première expérience suggérée par les cimetières de fourmis n'est pas restée sans suite. Une équipe de l'université d'Alberta, au Canada, a ainsi montré que plusieurs robots pouvaient pousser une boîte sans aucune communication explicite entre équipiers [6]. A l'Ecole polytechnique fédérale de Lausanne EPFL, Francesco Mondada et l'un d'entre nous Alcherio Martinoli ont fait construire des murs de briques à un groupe de Khepera un robot mobile miniature de 5,5 centimètres de diamètre qui peut être équipé d'une pince, et extraire un bâton d'un trou. Cela à partir des seules interactions indirectes avec l'environnement [7].
Les spectaculaires progrès de la miniaturisation ont permis à l'équipe de l'EPFL de réaliser toutes leurs expériences sur une simple table. Ces différents exemples ont pratiquement tous leur équivalent biologique, si ce n'est que la taille des robots n'a plus grand rapport avec lui.
Les insectes, en somme, ont beaucoup appris aux roboticiens. Et bien plus encore que l'on ne l'avait imaginé au départ : les chercheurs ont aussi découvert que, comme l'information n'est pas traitée de la même façon au niveau individuel et à l'échelle collective, le groupe d'insectes ou de robots qui s'auto-organise peut, face à un problème, trouver une solution inaccessible à des individus isolés. Et cela sans faire appel à une quelconque représentation de l'environnement.
Exemple de « succès collectif », qui passe par un processus dit de recrutement : un individu qui découvre un site intéressant « encourage » ses congénères à l'exploiter en émettant un signal simple par exemple, un signal infrarouge. Ceux-ci, après avoir visité le site, recruteront à leur tour d'autres individus. La découverte faite par un robot est ainsi « amplifiée ». De plus, une véritable compétition s'instaure entre les différentes découvertes, notamment en raison des contraintes imposées par l'environnement le chemin pour atteindre l'une des sources pouvant être plus long ou plus tortueux que celui qui mène à l'autre.
Une « sélection naturelle » des découvertes
Les groupes de robots peuvent aussi trouver des solutions inattendues. En particulier parce que les signaux qu'ils émettent peuvent être réfléchis ou arrêtés par un obstacle, les récepteurs mal orientés, etc. Or, il arrive qu'un message mal compris permette d'atteindre des solutions optimales qu'il serait peu probable, voire impossible, d'obtenir avec des communications parfaites. Le jeu du hasard et les problèmes de communication conduisent à une véritable « sélection naturelle » des découvertes et des solutions [8] que les chercheurs tentent d'exploiter au maximum.
Cette compétition entre les découvertes, ces solutions inattendues et cette « sélection naturelle » ont conduit Gérardo Beni, de l'université de Californie à Riverside [9], à parler d'intelligence en essaim swarm intelligence, en anglais [10] pour décrire le comportement des robots : les robots sont dotés de capacités cognitives restreintes mais, collectivement, ils peuvent avoir des comportements « intelligents ». Aujourd'hui, après avoir beaucoup progressé et dans l'attente d'une prochaine révolution technologique ou conceptuelle, la robotique collective en est au stade de l'évaluation et de la validation des outils qu'elle a développés.
Parmi les tests les plus récents : les parties de football entre robots voir l'encadré : « Les robots se mettent au football » ou de nouvelles expériences inspirées par les fourmis en quête de nourriture. Dans ce second exemple, le but, pour un robot, est de récolter sa « nourriture », des petits cylindres en plastique, en fonction de la quantité de cylindres déjà présente dans le « nid » à un instant donné. Les résultats sont spectaculaires, mais le temps qu'il aura fallu aux chercheurs pour les obtenir a dissuadé d'autres équipes de poursuivre dans la même voie [11].
S'il ne fait guère de doute que l'invention de la robotique en essaim a montré la voie à suivre pour commander un grand groupe de robots, les premières expériences ont permis d'affirmer de façon tout aussi certaine que la recherche empirique de solutions par les robots devenait trop fastidieuse lorsque leur mission est complexe.
Pour franchir cet obstacle, les roboticiens n'ont eu d'autre choix que de se lancer dans le développement d'outils de modélisation : comme c'est la règle en ingénierie, il leur fallait avoir une idée du comportement de leurs robots et l'optimiser avant de les fabriquer. Les premières tentatives de modélisation ont été menées en 1997 dans le cadre d'un projet commun entre l'EPFL et l'IDSIA Instituto Dalle Molle di Studi sull'Intelligenza Artificiale, à Lugano en Suisse. Aujourd'hui, c'est notamment au California Institute of Technology Caltech que les chercheurs poursuivent dans cette voie.
On peut désormais modéliser le comportement d'un groupe qui compte jusqu'à plusieurs centaines de robots [12,13]. Pour concevoir et optimiser des systèmes de commande de robots, on fait appel depuis peu aux algorithmes génétiques ou à l'apprentissage par renforcement [14]. Les résultats sont là : dans une expérience de recherche d'un nuage odorant par exemple, une fuite de gaz d'une installation chimique, un groupe qui compte jusqu'à six robots est, après optimisation, deux fois plus rapide que lorsqu'il cherche une solution de façon empirique [15,16]. Plusieurs défis restent aujourd'hui à relever. Le premier est de combiner les avantages de l'intelligence en essaim avec ceux de la communication explicite de robot à robot échange radio des états, des positions, etc.. Cette combinaison devra être optimisée selon la tâche à accomplir et le nombre de robots. Les résultats seront très différents selon qu'il s'agira d'explorer une nouvelle planète où l'on ne disposera pas de signal GPS ou des surfaces agricoles où le GPS et les communications radio seront disponibles.
Demain, un robot chien de berger ?
Second défi, la conception et le contrôle de systèmes collectifs composés de centaines, voire de milliers de robots. Pour l'heure, les travaux n'ont porté que sur des groupes composés, au maximum, d'une vingtaine de robots - essentiellement pour des questions de coût. Il est probable que, avec un grand nombre d'unités, les avantages de l'intelligence en essaim nous apparaîtront en premier lieu pour des robots de petite taille, car, de fait, la complexité de ceux-ci sera minimale.
Troisième défi, la mise au point de méthodologies de conception et de modélisation applicables à toutes les tailles de groupes de robots ainsi qu'à tout type de système distribué interagissant avec l'environnement. L'enjeu est ici de disposer d'outils qui pourraient se révéler utiles pour étudier d'autres systèmes ayant des caractéristiques similaires à celles des groupes de robots : voitures ou bus intelligents, essaims de microsatellites, etc.
Si le succès est au bout du chemin, il y aura peut-être, demain, des robots capables de surveiller l'état de nos réseaux d'eau ou de gaz, ou d'explorer des environnements lointains... D'autres applications seraient encore plus inattendues : par exemple, transformer un robot en chien de berger pour diriger un troupeau de moutons ou emmener des vaches brouter dans un champ déterminé. Ou encore concevoir un robot capable d'empêcher les paniques collectives dans certains élevages avicoles [17] .
EN DEUX MOTS : Commander un groupe de robots en pilotant de façon centralisée les positions et les mouvements de chacun aboutit rapidement à une impasse technique. En s'inspirant du comportement de certains animaux, les spécialistes de la robotique ont mis au point des robots qui peuvent décider eux-mêmes de leurs actions à partir de la perception locale qu'ils ont de leur environnement, selon des règles de comportements simples. Par un échange de signaux simples, chaque robot synchronise ses actions avec celles de ses congénères. Le groupe adopte ainsi des comportements «intelligents». L'inévitable imprécision des communications se révèle fructueuse car elle peut conduire le groupe à opter pour des actions non envisageables avec des communications déterministes. Il en résulte une « sélection naturelle » des découvertes et des solutions.
Par Alcherio Martinoli Guy Theraulaz et Jean-Louis Deneubourg
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante |
|
|
|
|
|
|