ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

VISION INFORMATIQUE DU RELIEF

 

La vision informatique du relief
et aussi - dans mensuel n°318 daté mars 1999 à la page 36 (2289 mots)


Nos deux yeux nous fournissent chacun une image plane, et pourtant le cerveau reconstruit en permanence un monde en trois dimensions. Comment transmettre cette faculté à l'ordinateur? Des techniques intuitives ne donnent pas de résultats convaincants. La réponse est à chercher du côté d'un des domaines mathématiques les plus actifs aujourd'hui.

La photographie est certainement le moyen le plus répandu de partager un souvenir, de faire connaître un endroit. Et demain ? La vidéo, bien sûr ! Envoyer une cassette vidéo par la poste n'est pas aujourd'hui chose courante, encore moins l'équivalent numérique qui consisterait à le faire par Internet : dans les deux cas, c'est encore trop encombrant, peu pratique. Mais demain, ce sera évidemment quotidien. Un petit bonjour ? Un souvenir de vacances ? Un simple clic de souris, et le tout sera expédié par le WEB, son et animation compris...

Troisième dimension. Et pourtant, ce ne sera pas encore une représentation complète de la réalité que recevra le destinataire. Réfléchissez. A l'image fixe de la photographie, la vidéo apporte une dimension supplémentaire, le temps, mais il en manque encore une : la troisième dimension en espace. Tout cela reste désespérément plan. Entendons-nous bien : il existe aujourd'hui plusieurs moyens de donner une sensation de relief, que ce soit en observant la scène d'un point imposé fixé d'avance cinéma en relief ou en s'y déplaçant procédés de réalité virtuelle. Nous ne disposons pas encore de véritables projections tridimensionnelles, sortes d'" hologrammes animés » dont rêvaient les auteurs de science-fiction, mais c'est déjà un premier pas. Non, le vrai problème, celui auquel nous allons nous intéresser ici, c'est l'acquisition de la forme tridimensionnelle du sujet considéré. Lorsque tel réalisateur filme ses comédiens avec deux caméras, il en enregistre deux séries d'images simultanées prises depuis deux emplacements légèrement distincts. Ces séries d'images, une fois reprojetées et observées avec un appareillage adapté lunettes polarisantes ou autres, reproduiront la sensation de relief. C'est, en bien plus sophistiqué, un procédé de stéréoscopie vieux comme la photographie. Qu'il ne prenne pas l'envie au spectateur de voir ce qui se passe de l'autre côté de la scène qui lui est proposée : il ne voit et ne peut voir que le relief qu'il aurait observé, si ses deux yeux avaient été à la place des deux caméras. Un véritable enregistrement tridimensionnel, ce n'est pas saisir deux images d'un même objet pris sous des angles différents. C'est mémoriser l'information tridimensionnelle en elle-même -« il y a un objet à tel endroit de l'espace, il a telle forme, telle couleur, etc. » -, c'est dresser une carte tridimensionnelle complète de ce qui est observé.

Acquérir cette carte, voilà le difficile problème auquel devra se confronter le cinéma du futur. Pourtant, notre cerveau résout ce problème en permanence, justement à partir des images planes qui lui sont transmises : nos deux yeux transmettent deux images différentes du même environnement, images que le cerveau exploite pour extraire de l'information sur la forme et la position de ce que nous voyons. Ce que le cerveau arrive à faire avec nos yeux, il est tentant d'essayer de le réaliser avec un système artificiel fondé sur des caméras reliées à un ordinateur. Imaginez cela : vous venez de filmer votre petit dernier effectuant ses premiers pas. Sitôt connecté au Caméscope, votre PC en extrait les images et commence à reconstituer le tout en trois dimensions. Quelques instants de patience, une petite connexion Internet, et vous pourrez faire admirer en 3D à ses grands-parents les exploits du jeune marcheur.

Retrouver la position d'un point dans l'espace lorsqu'on en possède deux images différentes... A la fois très simple dans le principe et très compliqué dans la pratique. Pourquoi ? Regardez d'un seul oeil ce point M. Vous ne pouvez pas dire où se trouve M exactement, mais vous en savez déjà beaucoup : vous savez dans quelle direction il est. Mais à quelle distance? Il vous faut ouvrir votre deuxième oeil pour obtenir une deuxième direction. Vous saurez ainsi immédiatement que M se situe à l'intersection des deux droites deux droites dans l'espace ne se coupent pas toujours, mais ici, oui. Procédez de la même manière pour tous les points d'un objet observé et vous aurez sa position et sa forme dans l'espace.

Voilà pour le principe. Dans la pratique, la réalisation informatique du procédé soulève un problème. Un seul, mais qui serait suffisant pour réduire tous les espoirs à néant : pour un point m1 donné dans la première image, la machine ne sait pas quel point m2 de la deuxième image lui correspond. Dès lors, impossible de retrouver le point de l'espace dont les points m1 et m2 seraient les images ! Des solutions existent malgré tout. La première consiste à éclairer les objets avec un laser. Seul le point éclairé par le laser sera visible dans les deux images. Pas de doute possible : le point vu dans la première image correspond à celui vu dans la deuxième, d'où la position du point éclairé dans l'espace.

Pour reconstituer tout un objet, il faudra alors le balayer point par point avec le laser : c'est le principe du " plan laser », véritable scanner tridimensionnel. Efficace mais lent ! Imaginez un instant que la nature ait doté l'homme du même système ! Une deuxième solution consiste pour un point m1 donné à rechercher dans la deuxième image quels points m2 lui sont les plus semblables, c'est-à-dire lesquels sont le plus vraisemblablement les images d'un même point de l'espace. Si plusieurs points m2 possibles sont détectés, il faudra que l'ordinateur choisisse tant bien que mal tout seul lequel retenir ou qu'il demande à un opérateur de choisir pour lui. De telles méthodes automatiques ou semi-automatiques sont couramment utilisées, notamment en cartographie à partir d'images aériennes.

Nous sommes pourtant encore loin de l'objectif annoncé : acquérir une carte tridimensionnelle complète de ce qui est observé. Parmi les problèmes en suspens, notons-en deux principaux. Premièrement, ne traiter que deux images d'un objet ne permet de reconstituer que la partie de l'objet qui fait face à l'observateur. Il faudrait donc prévoir un procédé qui puisse reconstruire tout l'objet, à condition bien sûr que l'observateur en fasse tout le tour. Plus subtil est le deuxième problème, à la base de bien des dysfonctionnements de la deuxième des solutions décrites ci-dessus. Lorsqu'on observe un objet, certaines parties en sont cachées, par d'autres objets ou par l'objet lui-même. Ces parties cachées dépendent de la position de l'observateur. Pensez aux murs cachés par les toits dans le cas de la cartographie : sur deux images différentes, ce ne seront pas les mêmes murs qui seront visibles. En conséquence, rechercher absolument un point m2 correspondant à un point m1 donné est parfois source d'erreur. Dans le cas d'un observateur faisant tout le tour d'un ensemble d'objets, ce problème risque fort de devenir le principal obstacle, les objets se cachant les uns les autres et jamais de la même manière.

C'est néanmoins à ces deux problèmes que répond le procédé de reconstruction tridimensionnelle dont nous allons exposer succinctement le principe. Il a été développé conjointement par Olivier Faugeras de l'INRIA de Sophia Antipolis, professeur au Massachusetts Institute of Technology et par l'auteur1. Ce procédé n'a pu aboutir que grâce à de récentes avancées mathématiques sur la théorie des évolutions de surfaces d'une part, et d'autre part, sur leurs méthodes de simulation informatique, c'est-à-dire sur ce que l'on appelle techniquement le domaine des équations aux dérivées partielles EDP, domaine qui a donné à la France l'une de ses récentes médailles Fields en la personne de Pierre-Louis Lions. L'ordinateur travaille en fait sur les surfaces délimitant les objets à reconnaître. Il émet d'abord une hypothèse sur la forme et la position de ce qui est observé, hypothèse consistant en une ou plusieurs surfaces. A partir de là, il vérifie la justesse de l'hypothèse en chacun des points de ces surfaces. Il faut pour cela déterminer, pour un point donné, les caméras qui doivent le voir et celles pour lesquelles il est caché. S'il y a bien un objet au point en question, alors les images qu'en ont les caméras qui le voient doivent être très semblables.

A partir de ces tests en chacun des points de l'hypothèse, les surfaces sont déformées en de nouvelles surfaces dont la mesure de validité est plus grande, et ainsi de suite jusqu'à l'obtention de surfaces stables représentant fidèlement les objets observés.

Tests de validité, puis déformation: en pratique, comment réaliser ces opérations sur ordinateur? Cela suppose d'abord de quantifier précisément les ressemblances entre deux points A et B. En réalité, pour les images numériques, ces points sont des pixels* d'une couleur donnée, composée de trois couleurs élémentaires: vert, rouge et bleu. On pourrait se limiter à l'examen des couleurs en chacun des points A et B, procédé intuitif, mais trop imprécis. Il faut en fait s'intéresser à de petites fenêtres rectangulaires centrées en A et B. Ce sont ces deux fenêtres que l'on compare, et même plus précisément les pixels qui les composent. De plus, même en supposant, ce qui n'est qu'une approximation, qu'un objet émet la même quantité de lumière dans toutes les directions de l'espace, les deux images ne sont pas nécessairement prises dans les mêmes conditions d'éclairage, ni avec des caméras identiques. Il faut donc faire plus qu'une simple comparaison de couleurs des pixels de chaque fenêtre. La solution consiste à calculer ce qu'on appelle un facteur de corrélation normalisé entre les fenêtres, ce qui revient à comparer non plus les couleurs des pixels, mais la façon, dont ces couleurs varient au sein de chaque fenêtre. Ce facteur varie entre ­1 pour des fenêtres totalement anti-corrélées et +1 pour des fenêtres totalement corrélées.

Déformer des surfaces. Une fois réglée cette question de corrélation, il reste encore à savoir comment déformer les surfaces. Mathématiquement, elles évoluent suivant une équation aux dérivées partielles, exactement comme nombre de phénomènes physiques variant au cours du temps. Concrètement, on transforme la surface par de petites variations imposées en chacun de ses points. Ces points évoluent selon la normale* à la surface. La longueur du déplacement, appelé vitesse normale, est bien sûr différente en chaque point M. Dans notre cas, elle dépend de la position de M, de la forme de la surface en M et des facteurs de corrélation des différentes caméras voyant M. On fait varier la vitesse normale de telle sorte que le procédé s'arrête aux points où l'objet est détecté elle s'annule quand la corrélation est bonne. De plus, on l'adapte suivant des critères mathématiques rigoureux assurant une évolution « en douceur » de la totalité de la surface vers la solution.

Supposons, pour simplifier, que nous n'ayons plus à déformer une surface dans l'espace, mais une courbe dans un plan, et que cette courbe soit fermée. Une façon naïve de simuler son évolution sur ordinateur consiste à la mémoriser sous la forme d'un ensemble de points, que l'on déforme en faisant bouger les points le long de la normale fig. 1. Cette manière de procéder est mauvaise car très instable : en certains endroits, les points se resserrent tandis qu'en d'autres ils s'écartent. L'approximation numérique devient vite incorrecte, et les résultats, faux. La bonne méthode, appelée « méthode des courbes de niveau », consiste à rajouter une dimension, et à inscrire cette courbe dans une surface évoluant, elle, dans l'espace.

On choisit une surface initiale dont la courbe est le niveau zéro, c'est-à-dire la trace de la surface sur le plan horizontal d'altitude zéro fig. 2. C'est maintenant la surface qu'il s'agit de faire évoluer, mais pas n'importe comment: on veut que son niveau zéro finisse par représenter la solution! C'est là qu'il faut faire appel à la théorie des EDP. Elle fournit en fait une équation qui permet de déformer la surface exactement de sorte que la courbe, elle, évolue vers la solution. Première qualité: en pratique, on est assuré de trouver la bonne solution. Cette technique possède aussi une propriété remarquable : rien n'empêche le niveau zéro de se séparer en plusieurs morceaux fig. 2. La détection d'objets multiples se fait donc sans effort supplémentaire. Enfin et surtout, elle s'étend naturellement aux dimensions supérieures, soit, dans notre cas, à l'évolution d'une surface et non plus d'une courbe il faut alors faire évoluer une hypersurface en dimension 4 dont le niveau zéro est la surface à déformer. Et cela marche! Les étapes successives montrent de premières surfaces approximatives qui se déforment, se précisent et finissent par coller parfaitement aux objets photographiés. Les parties se cachant mutuellement ne trompent en rien l'algorithme.

Jusqu'ici, les méthodes d'acquisition à base de caméras étaient sans justification mathématique rigoureuse, et surtout peu probantes. Elle ne reconstituaient les objets que partiellement, et se trompaient quand ils se cachent mutuellement. Ce nouveau procédé ouvre de nombreux horizons. Nous avons déjà évoqué le cinéma tridimensionnel ou l'acquisition automatique de mondes virtuels. Nous pourrions aussi citer la reconnaissance des formes. Les résultats dans ce domaine seraient grandement améliorés si l'on travaillait sur des données 3D plutôt que sur des images planes. La robotique est également demandeuse2 : un robot mobile autonome doit aujourd'hui se contenter de sonars pour réagir vite et de plans lasers pour les tâches précises. Ces sonars sont d'ailleurs inutilisables dans le vide, donc en exploration spatiale, où pourtant éviter un obstacle est vital! Les spécialistes du trucage et des effets spéciaux seraient ravis de pouvoir extraire toute l'information tridimensionnelle possible d'une séquence filmée. Ils pourraient alors très facilement modifier un acteur, le remplacer par un autre, ou même ajouter des objets ou d'autres acteurs à la séquence. Le résultat serait plus réaliste qu'avec les méthodes actuelles. Ce n'est là qu'une première avancée, car en réalité la véritable motivation de tels travaux est de pouvoir imiter un jour la vision humaine et la remplacer quand elle est déficiente. Le chemin est encore long.

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

RADIOACTIVIT

 


La radioactivité, le soleil, la terre et la mort de kelvin


autre - par Pascal Richet dans mensuel n°291 daté octobre 1996 à la page 78 (3878 mots)
Quel est l'âge de la Terre ? Longtemps restée mythique, cette question est, dans le dernier quart du XIXe siècle, au coeur d'une vive controverse initiée par un physicien : William Thomson, futur Lord Kelvin. Au tournant du XXe siècle, à la suite des découvertes de Becquerel et des Curie, une nouvelle génération de physiciens vient se mêler de datations géologiques. Avec imprudence, parfois... Au grand dam de Kelvin lui-même, toujours ! Récit des relations tumultueuses entre la géologie et la physique.

A la fin du XIXe siècle, la communauté des géologues est traversée par un intense débat lancé, trente ans plus tôt, par un célèbre physicien écossais. L'un des pères de la thermodynamique, William Thomson, devenu Lord Kelvin of Largs, avait alors entrepris de soumettre les processus géologiques aux lois implacables de sa discipline. Ce faisant, il s'opposait à la conception dominante parmi les géologues : la Terre ne présente pas plus « de vestiges d'un début que de perspectives d'une fin » comme l'affirmait un siècle auparavant le grand géologue écossais Hutton. Kelvin entendait donc nier l'idée d'éternité inspirée aux géologues par l'immensité des terrains lentement transportés du tréfonds de la mer au sommet des montagnes. Pour Kelvin, la Terre a eu un début, elle aura une fin.

Il est vrai que les géologues avaient pris quelques libertés avec la physique. L'uniformitarisme*, en particulier, supposait implicitement l'existence de mouvements perpétuels puisque des cycles géologiques se répétaient, inchangés, depuis la nuit des temps. Et quand les géologues se piquaient de thermodynamique, ils faisaient peu de cas de ses principes. En dépit des lois de conduction de la chaleur établies par Fourier au début du XIXe siècle, les températures mesurées dans les mines étaient audacieusement extrapolées pour donner près de 200 000 °C au centre de la Terre. La Terre apparaissait ainsi comme formée d'un immense océan magmatique surmonté par une croûte solide mince d'une cinquantaine de kilomètres. L'absurdité de cette conception fut démontrée au début des années 1860 par Kelvin : une telle croûte se verrait en effet ballottée au gré des marées de l'énorme masse liquide. A contrario , Kelvin en déduisait que la Terre était donc essentiellement solide, « aussi rigide que l'acier » 1 .

L'idée d'une Terre initialement fondue n'était cependant pas absurde. Déjà évoquée par Descartes ou Leibniz, elle avait été exploitée par Buffon dans ses fameuses expériences qui visaient à dater la Terre d'après la durée de refroidissement de boulets chauffés à blanc. Kelvin reprend ce problème qu'il résoud, mathématiquement, avec les lois de Fourier. En tenant compte des erreurs affectant les paramètres thermiques utilisés, il affirme en 1862 qu'il a fallu de 20 à 400 millions d'années pour que la croûte se forme et refroidisse à sa température actuelle. Il propose 98 millions comme âge le plus probable2. Au fil des années, Kelvin reprend son ouvrage, affine ses paramètres et, peu à peu, réduit ses estimations pour s'en tenir à 24 millions d'années seulement en 18953. La vie terrestre ne pouvait pas être plus ancienne que le Soleil. Il était donc heureux que ces âges soient inférieurs à ceux que Kelvin obtenait pour notre étoile à partir de diverses méthodes, par exemple le taux de dissipation de son énergie sous forme lumineuse.

Bousculés dans leur quête d'éternité, la majorité des géologues avaient fini par admettre les premières estimations d'un Kelvin autoritaire et persuasif. En réinterprétant leurs observations, ils n'identifiaient pas d'incompatibilité majeure avec un âge d'une centaine de millions d'années : une telle durée permet de saler des océans initialement constitués d'eau douce et autorise le dépôt, puis l'érosion des formations sédimentaires accumulées depuis les premiers temps géologiques. Mais les durées de plus en plus courtes consenties par Kelvin posaient de très sérieuses difficultés. La biologie se trouvait également affectée : le cadre temporel qui présidait à l'Evolution se rétrécissait dans des proportions embarrassantes.

Ce fut la découverte de Becquerel, prélude à celle de la radioactivitéI, qui allait conduire à la résolution du conflit au détriment de Kelvin. De prime abord, rien ne laissait pourtant supposer que ce phénomène physique donnerait les premières solutions aux questions du temps géologique et de la dynamique de la Terre et des étoiles. En février 1896, Becquerel se retrouve en effet en terrain inconnu : les rayons X sortent tout juste des limbes, l'électron s'y complaît encore et l'atome reste une entité controversée ne faisant l'unanimité que sur un point, son indivisibilité atome = qui ne peut pas être coupé. Dans une certaine indifférence, Becquerel parvient à attribuer à l'uranium seul la paternité du rayonnement émis par les sels d'urane4, puis il cesse de publier sur ce sujet en mars 1897. Cinq ans plus tard, les publications se compteront par centaines et une compétition serrée aura cours de part et d'autre de l'Atlantique. Que s'est-il passé entre-temps ? Les Curie sont entrés en scène à l'automne de 1897. Mal distinguées des rayons X, même dans les sommaires des Comptes rendus de l'Académie des sciences , ces radiations ont soufflé aux Curie une question très simple : l'uranium est-il le seul élément à en émettre ?

Marie Curie trouve qu'un seul autre élément est actif, le thorium, et découvre que deux minéraux uranifères sont plus actifs que l'uranium lui-même5. De ce constat étonnant, elle conclut que ces minéraux contiennent un élément inconnu beaucoup plus actif que l'uranium. Cinq mois après le polonium, le radium est décrit en décembre 18986. Pour en obtenir quelques dixièmes de gramme sous forme de chlorure, les Curie ont dû traiter des tonnes de pechblende. Ces éléments responsables de la radioactivité élevée des minerais sont donc cent mille fois plus actifs que l'uranium lui-même. Dès l'annonce de ces résultats, l'intérêt immense de la radioactivité devient patent. Après les rayons X, le radium, « la substance la plus mystérieuse du monde » , parvient à son tour à captiver presse et grand public ; une radiomanie s'instaure au point que la radioactivité d'un produit se transforme en argument publicitaire. Cette agitation laisse les géologues indifférents. Certes, le radium et le polonium n'ont été détectés que dans des minéraux, mais la pechblende est une rareté, et non un minéral dont on fait les montagnes...

La situation change radicalement peu après le 16 mars 1903. Ce jour-là7, Pierre Curie et son collaborateur Albert Laborde annoncent que le radium dégage en permanence tant de chaleur qu'il garde une température plus élevée que la matière qui l'entoure. C'est grâce aux gros échantillons de radium purifiés avec tant de peine qu'a pu être mesurée la chaleur produite lorsque les radiations sont absorbées par la matière. Cette profusion d'énergie libérée à longueur d'années est principalement due aux rayons alpha*. Aucune réaction chimique ne peut l'expliquer. Curie et Laborde en déduisent qu'une « transformation profonde » , une « modification de l'atome de radium lui-même » est en jeu. Dans le grand public, jamais mesure calorimétrique n'eut un tel succès d'audience ! A côté de l'émerveillement suscité par ces réserves iné-puisables d'énergie, les Cassandre veillent : pourrait-on un jour concevoir un instrument qui, sous la pression d'un bouton, pulvériserait la Terre et amènerait la fin du monde ? La crainte n'est pas nouvelle, elle fait déjà les gros titres de journaux américains en 1903, un an avant l'Exposition universelle de Saint Louis dont le radium sera la vedette8...

La radioactivité est alors vieille de sept ans. Ses conséquences sur le bilan thermique de la Terre et des étoiles n'ont pas encore été envisagées car ses effets paraissaient beaucoup trop faibles. Après l'expérience de Curie et Laborde, physiciens et astronomes sont prompts à conclure que l'existence d'éléments radioactifs remet en cause les calculs de Kelvin et ses émules. Ces idées reçoivent une base expérimentale avec les mesures faites dans les milieux naturels par les physiciens allemands Elster et Geitel de 1900 à 1905. Des traces de radioactivité sont systématiquement détectées dans les sols et les eaux, provenant principalement du radium et de son émanation non encore identifiée, le radon.

Ces résultats conduisent un spécialiste anglais des rayons alpha, Robert Strutt, fils du physicien Lord Rayleigh, à mesurer la teneur en radium des minéraux et des roches9. Celle-ci augmente, par exemple, d'un facteur dix entre basaltes et granites et, observation importante, les teneurs les plus faibles mesurées par Strutt sont dix fois supérieures à la teneur moyenne requise pour rendre compte du flux de chaleur à la surface de la Terre. Pour ne pas obtenir un flux trop élevé, Strutt doit supposer que le radium est cantonné dans une croûte superficielle de 75 km d'épaisseur. Si le radium était présent en profondeur, la production de chaleur serait telle que la Terre ne serait pas en train de refroidir, mais de s'échauffer ! Quoi qu'il en soit, les géologues ne peuvent plus supposer, comme ils avaient coutume de le faire, que la chaleur exhalée par la Terre provient uniquement de sa condensation initiale. Le retournement de situation est spectaculaire : la physique n'impose plus guère de limites à l'âge de la Terre !

Avant même qu'on se tourne vers la Terre, le Soleil a fait l'objet de spéculations rapides. Pour expliquer l'énergie émise par le Soleil, note l'astronome W.E. Wilson10, il suffit d'y imaginer une concentration en radium de 3,6 grammes par mètre cube. Certes, la présence de radium est douteuse : on ne voit pas les raies caractéristiques de cet élément dans le spectre lumineux du Soleil. Identifié de la sorte pour la toute première fois en 1868, l'hélium est en revanche abondant dans les étoiles. Sur Terre, il n'a été isolé que dans des minerais d'uranium. L'indice est de taille et, dès juillet 1903, les chimistes Ramsay et Soddy rapportent que la désintégration du radium produit effectivement de l'hélium11.

La présence d'hélium dans le Soleil suggère donc l'existence de processus radioactifs qui restent à élucider. Comme l'écrit en 1905 un personnage qu'on va très bientôt retrouver, un certain Ernest Rutherford12, « ß/I Ißl n'est pas improbable que, à la température énorme du Soleil, la fragmentation des éléments en des formes plus simples prenne place à une vitesse plus élevée que sur Terre. Si l'énergie résidant dans les atomes des éléments est disponible, le temps pendant lequel le Soleil peut continuer à émettre au taux actuel peut être au moins 50 fois plus long que la valeur calculée . »

La nouvelle physique semble bien tout permettre, ou presque. Des 12 à 100 millions d'années donnés par l'école de Kelvin, une hypothèse hardie conduit ainsi à une large fourchette de 0,6 à 5 milliards d'années. Seule l'issue finale reste certaine, comme le souligne Rutherford : « L a science n'offre aucune échappatoire à la conclusion de Kelvin et Helmholtz qu'en définitive le Soleil se refroidira et que cette Terre deviendra une planète morte fendant le froid intense du vide de l'espace. »

La radioactivité a en fait plus d'un tour dans son sac. En même temps que surgissent d'inépuisables sources de chaleur, des chronomètres absolus voient le jour. Une nouvelle découverte de Becquerel en est à l'origine en 1900. En séparant chimiquement l'uranium en deux fractions, Becquerel a la surprise d'observer que la radioactivité provient du résidu d'extraction, et non de la fraction principale constituée exclusivement d'uranium. La conclusion paraît évidente : l'élément radioactif n'est pas l'uranium lui-même, mais une impureté accompagnant l'uranium à l'état de tra-ce, aussitôt baptisée uranium X. La situation se complique lorsque, au bout d'un an, Becquerel remarque que l'uranium purifié a retrouvé sa radioactivité tandis que l'uranium X a perdu la sienne ! Quels sont ces éléments changeants qui contreviennent au dogme de l'immuabilité des atomes ? Dès 1902, une réponse retentissante vient de Montréal. Elle devait assurer la célébrité de deux jeunes expatriés, le Néo-Zélandais Rutherford et l'Anglais Soddy13 : ces éléments se transmutent en formant une chaîne d'éléments radioactifs dont le radium est un des termes voir l'encadré « Les chaînes d'éléments radioactifs ». Une « nouvelle alchimie » vient de naître.

Peu avant, Pierre Curie avait observé que l'activité de l'émanation gazeuse produite par le radium décroît exponentiellement : elle diminue de moitié tous les 3 jours, 23 heures et 42 minutes la demi-vie . Dans une conférence donnée en 1902, P. Curie note que de telles lois donnent une mesure absolue du temps, indépendante d'observations astronomiques. Avec sa théorie des désintégrations radioactives, Rutherford peut aller plus loin et tenter les premières datations géologiques. A une époque où le mécanisme des désintégrations n'est compris que de façon très sommaire et où on ne connaît encore les chaînes radioactives que par fragments, la tentative est audacieuse.

La méthode de datation de Rutherford repose sur une mesure de quantité d'hélium. Quand un atome d'uranium se désintègre, il donne un atome d'uranium X en expulsant un rayon alpha : on soupçonne que celui-ci prend les électrons qui lui manquent pour former un atome d'hélium. De même pour d'autres maillons de la chaîne. La quantité d'hélium produite est proportionnelle au nombre de désintégrations subies par l'uranium, et donc au temps. Pour sa toute première datation radioactive, Rutherford prend pour cobaye un minéral riche en uranium, une fergusonite, dont les teneurs en hélium et en uranium sont déjà connues. Un seul paramètre reste à déterminer avant de calculer un âge, c'est le taux annuel de pro- duction d'hélium par l'uranium. Avec le taux qu'il estime en 1905, Rutherford obtient un âge de 140 millions d'années14. Le minéral de Rutherford est plus ancien que la Terre de Kelvin ! Une simple règle de trois semble ruiner les savants calculs du plus grand physicien vivant...

Bien sûr, une seule détermination ne permet pas de conclure. Entre 1905 et 1910, Strutt mesure la quantité d'hélium incluse dans des minéraux contenant de l'uranium ou du thorium. Les âges obtenus souffrent, d'une part, des incertitudes affectant le taux de production d'hélium par ces deux éléments et, d'autre part, de la diffusion du gaz hors des minéraux au cours du temps. Des minéraux très réfractaires sphène et zircon de roches précambriennes avouent ensuite des âges allant jusqu'à 700 millions d'années15. Pour obtenir des résultats plus précis, Strutt mesure directement le taux de production d'hélium par des minéraux riches en uranium ou thorium : une fois de plus, il obtient des âges élevés, à savoir 250 et 280 millions d'années. Il arrêta là ses datations16 pour se consacrer à d'autres travaux.

Une autre méthode est mise en oeuvre par Bertram Boltwood, un chimiste de Yale avec lequel Rutherford collabore après le départ de Soddy pour Oxford en 1903. Boltwood s'intéresse à la Terre en tant que laboratoire naturel où l'immensité du temps a permis d'accumuler en quantité mesurable les maillons tant recherchés des chaînes radioactives. Il constate d'abord que les minéraux uranifères sont systématiquement riches en plomb. De plus, le rapport entre les abondances du plomb et de l'uranium augmente avec l'ancienneté géologique des minéraux. Ceci suggère que le plomb est le terme final, stable, de la chaîne débutant par l'uranium. L'âge d'un minéral uranifère peut alors être déduit de sa teneur en plomb : il « suffit » de connaître le taux annuel de formation du plomb à partir de l'uranium, à condition, bien sûr, que la teneur initiale en plomb ait été nulle et que nul plomb n'ait été perdu au cours du temps voir l'encadré « L'astuce de Boltwood ».

Boltwood attend de mieux connaître ce taux avant de publier ses résultats en 190717. Les âges s'échelonnent de 410 à 2 200 millions d'années et - fait important - se classent dans un ordre cohérent avec les données géologiques. Sa méthode confirme que des minéraux peuvent avoir des âges supérieurs à 100 millions d'années. Toutefois, en chimiste prudent, Boltwood ne fait pas le moindre commentaire sur ses datations. A ces temps écoulés depuis la formation des minéraux, il faut bien sûr ajouter le temps passé depuis les tout premiers instants de la Terre. Comme l'hélium, le plomb indique donc pour la Terre entière une antiquité dépassant de loin la durée allouée par Kelvin. Est-ce assez pour convaincre les géologues de la validité des nouvelles méthodes ? La radioactivité leur offre un avantage indéniable : elle ne donne pas seulement un instrument pour dater les phénomènes géologiques, elle fournit également l'explication de cette antiquité.

La Terre est bien plus vieille que ne l'indiquent les calculs de Kelvin, non pas parce que ces derniers reposent sur des données incorrectes, mais parce qu'ils postulent l'absence de sources de chaleur internes dans la Terre. Or ce sont les éléments radioactifs de longue période, comme l'uranium et le thorium, qui constituent le moteur thermique de notre planète. Sans ces sources, les montagnes ne s'élèveraient pas, les volcans seraient réduits à l'état de fossiles et les tremblements de terre n'évoqueraient tout au plus que des cicatrices estompées. Sans elles, comme Kelvin l'avait calculé, la Terre serait bien morte en une centaine de millions d'années, ou moins, avant que la vie n'ait eu le temps d'apparaître !

A son passif, la radioactivité bouleverse les résultats de l'ancienne physique en manipulant des principes étranges, des méthodes balbutiantes et des données incertaines. Le premier minéral considéré par Rutherford voit ainsi son âge croître de 40 à 400 millions d'années de 1904 à 190618. Moins téméraire, Boltwood attendit de connaître raisonnablement bien le taux de formation de plomb pour publier ses datations. Il eut aussi raison de laisser à d'autres le soin de gloser sur les 2,2 milliards d'années de son plus vieux minéral : les analyses modernes ne lui en concèdent que 400 millions. Du fait de l'existence des isotopes, les chaînes de désintégrations sont en effet beaucoup plus compliquées que Boltwood et Rutherford ne pouvaient le craindre...

En quelques décennies, les géologues venaient de se plier à l'autorité de la thermodynamique et d'ajuster leurs échelles de temps pour se conformer à ses règles. Ce patient travail devait-il être mis en cause par des âges obtenus par deux personnes pour quelques minéraux radioactifs ? Mieux valait y regarder à deux fois...

Dans un débat qui fut assez long à s'amorcer, la position du géologue américain Becker19 résume la démonstration par l'absurde avancée par les adversaires des méthodes radioactives. Avec la méthode de Boltwood, Becker obtient en 1908 des âges allant de 1,6 à 11,5 milliards d'années pour divers minéraux dont la teneur en uranium et plomb est connue : résultat évidemment inacceptable ! D'autre part, les teneurs en radium postulées par Strutt rendent bien compte du flux de chaleur global de la Terre, mais la concentration du radium dans une mince croûte conduit à un gradient géothermique trop élevé près de la surface : les roches devraient fondre à des profondeurs qui semblent beaucoup trop faibles. Becker en conclut donc que la radioactivité est présente dans une couche encore plus mince, peut-être concentrée localement, et que sa contribution ne dépasse pas 10 % du flux de chaleur terrestre. Pour les âges comme pour le flux de chaleur, conclut Becker, la radioactivité joue un rôle encore obscur, bien que certainement mineur. On ne doit la prendre en compte qu'à la condition d'obtenir des résultats comparables aux âges « purement » géologiques.

De l'autre côté de l'Atlantique, la position du géologue irlandais Joly est intéressante à un autre titre. Joly est le premier à souligner les incidences possibles de la radioactivité sur l'activité géologique. Il participe aux discussions animées de 1904 sur l'origine du radium et est, avec Strutt, le seul à s'impliquer dans des mesures de radioactivité dans les matériaux terrestres. A cette occasion, il découvre en 1907 que les minéraux fortement radioactifs produisent autour d'eux des halos colorés dus aux défauts créés par le bombardement continu de rayons alpha.

En collaboration avec Rutherford, des comparaisons entre minéraux naturels et artificiellement irradiés lui permettront d'utiliser l'intensité de ces halos pour dater les minéraux affectés20. Dès 1909, il écrit un livre, Radioactivity and Geology , où il discute les nouvelles méthodes de datations radioactives et passe en revue les implications de la radioactivité sur la géodynamique. En dépit de cette ouverture d'esprit, Joly préférait les âges tirés des vitesses de sédimentation et des teneurs en sel des océans.

Des autorités comme Joly et Becker influencent évidemment leurs collègues géologues novices en matière de radioactivité. Le dialogue avec les physiciens ou les chimistes s'amorce difficilement. Rutherford, pour qui les datations ne sont qu'une distraction, s'attache à fonder la physique nucléaire en exploitant l'énergie prodigieuse des rayons alpha. Et les pionniers des datations se consacrent à leur discipline : Boltwood déchiffre les chaînes radioactives et Strutt s'occupe de décharges électriques.

Face à des horloges radioactives d'humeur changeante, une majorité de géologues reste attentiste, voire indifférente : si les physiciens, Kelvin en tête, ont pu nous tromper une fois, pourquoi ne le feraient-ils pas une seconde ? Cette attitude prévaut en Europe continentale où l'influence de Kelvin est moins forte qu'en Angleterre ou aux Etats-Unis. Un cas extrême est celui de L. de Launay, un influent ingénieur en chef des Mines, qui passe la radioactivité sous silence dans son traité paru en 1905, la Science géologique . A propos des calculs de Kelvin, il note encore que « n'étaient les noms des savants qui les ont établis, ces chiffres ne mériteraient aucune attention, tant on a accumulé pour les obtenir d'invraisemblables hypothèses ». La géologie s'est constituée en une discipline solide à qui bien d'autres problèmes se posent, reléguant la question mythique de l'âge de la Terre au deuxième plan. Les chaînes de montagnes ou les bassins sédimentaires constituent en eux-mê-mes des champs d'étude assez vastes !

Pour les observateurs contemporains de cette controverse, la situation est compliquée par la position de Kelvin lui-même. Car le grand physicien s'oppose irréductiblement à la théorie des désintégrations radioactives ! Il suit de près les nouveaux travaux et sait se faire craindre de ses contradicteurs.

Une anecdote célèbre le met en scène avec Rutherford à l'occasion d'une conférence organisée sur le radium à Londres, en 190421 : Kelvin dort pendant l'exposé de son jeune collègue et se réveille en lui jetant un regard sinistre au moment où Rutherford aborde la question épineuse de l'âge de la Terre. Dans un moment d'inspiration, Rutherford dit alors que « Lord Kelvin avait limité l'âge de la Terre à la condition qu'aucune nouvelle source de chaleur ne soit découverte. Cette déclaration prophétique se rapporte à ce que nous considérons ce soir, le radium ! » Satisfait d'avoir en quelque sorte prédit la radioactivité, Kelvin se serait épanoui...

Rutherford a-t-il enjolivé l'histoire ? Le fait est qu'en 1906 Kelvin conteste toujours le principe des transmutations et nie le rôle de la radioactivité dans le flux de chaleur terrestre. Il meurt l'année suivante à l'âge de 83 ans. D'après la légende, il n'aurait jamais répudié ses calculs géologiques. Il le fit toutefois en privé, confiant au physicien J.J. Thomson qu'il avait considéré son travail sur l'âge de la Terre comme étant le plus important de tous avant que la découverte du radium ne rende ses hypothèses indéfendables22. Mais pourquoi son acharnement à nier publiquement l'évidence en physique, à combattre le principe même des transmutations ?

Comme le défendait Becker, négliger les sources radioactives de chaleur aurait pu ne pas avoir de conséquences notables en géologie. Il faudra en fait plusieurs années pour que les géologues mettent en cause les estimations de Kelvin, puis vingt-cinq ans d'efforts d'une jeune génération menée par le géologue anglais Arthur Holmes pour établir définitivement l'imposante antiquité de la Terre*. Kelvin héritera alors de l'image imméritée du vilain dans une histoire naturelle que, bien avant tout autre, il avait pourtant entrepris de conter avec les mots de la physique

Par Pascal Richet

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

ROBOTS

 

Quand les robots imitent la nature


robotique - par Alcherio Martinoli Guy Theraulaz et Jean-Louis Deneubourg dans mensuel n°358 daté novembre 2002 à la page 56 (2508 mots)
Nul besoin d'individus sophistiqués pour accomplir des tâches complexes. Des chercheurs se sont inspirés de découvertes faites en éthologie au milieu des années 1980 pour la mise au point de robots simples mais doués d'un sens aigu de la communication. En leur laissant, à l'image des animaux, la latitude de se tromper.

Avez-vous déjà observé la façon dont les fourmis conçoivent leurs cimetières ? Dans nombre de sociétés, elles rassemblent les cadavres des ouvrières à l'extérieur de leur nid et forment des petits tas. Si l'on disperse aléatoirement des cadavres ou des morceaux de cadavres sur la fourmilière, on voit également les ouvrières constituer en quelques heures des petits tas qui vont peu à peu s'organiser dans l'espace voir figure p. 61. En observant de plus près, on s'aperçoit que le comportement des fourmis consiste à amplifier localement les dépôts : plus il y a de cadavres dans un tas, plus la probabilité qu'une fourmi y dépose le cadavre qu'elle transporte est importante. En outre, plus un tas est volumineux, plus la probabilité qu'une fourmi prenne un cadavre sur ce tas est faible [1]. Deux éléments étonnants : seul un petit nombre de fourmis participe à ce « rituel », et aucun ordre n'est donné aux ouvrières pour leur dicter la façon de s'organiser.

Cette observation ne serait restée qu'un trait intéressant du comportement des fourmis si une équipe de chercheurs des universités de Bielefeld, de Bristol et de Bruxelles ne s'en était pas directement inspirée pour concevoir des robots capables de rassembler des palets éparpillés sur le sol, et ce, sans qu'ils aient besoin de communiquer entre eux [2]. Seule l'interaction entre le robot et le tas de palets importe : plus celui-ci est gros, plus il est facile pour le robot de le trouver et d'y déposer un nouveau palet.

Cette expérience a été conduite au début des années 1990, alors que la robotique collective n'en était qu'à ses débuts. Encouragés par les résultats prometteurs obtenus dans un premier temps avec un seul robot notamment par Rodney Brooks, pionnier de la robotique autonome, deux chercheurs du laboratoire d'intelligence artificielle du Massachusetts Institute of Technology MIT, Maja Mataric et Lynne Parker, ont formalisé les problèmes inhérents à la coordination des actions d'un petit groupe d'individus [3].

Question posée : comment commander des robots pour qu'ils parviennent à accomplir une tâche collectivement ? Réponse : il y a deux façons de faire.

La première est de centraliser les informations sur l'état et la position acquise par exemple via un GPS de chaque robot au moyen d'un ordinateur extérieur qui dispose d'une vue globale du groupe. L'ordinateur devient le maître du jeu : il envoie à chacun les instructions nécessaires pour que sa mission soit remplie. Mais on peut aussi s'affranchir de l'ordinateur central. Chaque robot transmet alors directement ses informations à tous les membres du groupe. Tous disposent ainsi d'une vue d'ensemble et peuvent, à partir de là, décider individuellement des actions à entreprendre.

Cette approche, récemment validée par Lynne Parker [4], est très efficace pour les petits groupes de robots. En revanche, elle se révèle beaucoup moins performante dès que le nombre d'individus ou leur charge de travail deviennent trop importants. En effet, le réseau radio qui permet aux robots d'échanger les informations constitue un véritable goulet d'étranglement : dans la plupart des cas, tous se partagent une seule fréquence. Le problème est d'autant plus épineux que, lorsque le nombre d'acteurs s'accroît, la coordination des mouvements et des actions se complique, tandis que les risques de collisions et d'interférences radio augmentent.

Compte tenu de cet obstacle technique, il est intéressant de constater que les insectes sociaux termites, fourmis, guêpes sont, eux, capables de s'organiser au sein de colonies qui comptent jusqu'à plusieurs millions d'individus. D'où l'idée, suggérée par plusieurs spécialistes de ces animaux dont Rémy Chauvin, l'un des précurseurs de prendre ces insectes comme modèle pour la robotique collective.

Depuis le milieu des années 1980, de nombreuses découvertes en éthologie avaient révélé comment, pour accomplir certaines tâches collectives, les insectes s'organisaient spontanément en faisant agir une multitude d'interactions entre eux et avec l'environnement [5]. Ces comportements collectifs mouvements coordonnés, synchronisation d'activités, constructions collectives, division du travail, etc. ne sont pas forcément le résultat d'une complexité comportementale et cognitive propre à chaque individu : ils peuvent spontanément émerger d'interactions entre des insectes qui n'ont qu'une vue partielle de l'action du groupe et qui ne sont capables que de comportements simples.

Autre découverte importante qui incite à prendre les insectes sociaux comme modèle pour la robotique : dans leurs sociétés, il n'existe pas de contrôle hiérarchique ou centralisé des activités de chacun. Les problèmes d'engorgement autour d'un élément central ou au sein d'un réseau de communication global disparaissent de ce fait, et ce, quel que soit le nombre d'individus.

Le modèle peut même dépasser le cadre des insectes sociaux puisqu'il est capable de s'inspirer d'autres espèces : les oiseaux, lorsqu'ils effectuent un vol en formation, ou les poissons, lorsqu'ils se déplacent par bancs, ont des comportements collectifs similaires aux insectes.

Des essaims d'insectes à la robotique en essaim

Forts de ces observations, les chercheurs n'avaient plus qu'à les transposer à la robotique pour inventer ce que l'on appelle aujourd'hui la robotique en essaim swarm robotics , en anglais. Son principe : laisser à chaque robot le soin d'agir selon des règles comportementales simples, en fonction de la perception qu'il a de son environnement immédiat. Ainsi, dans l'expérience de l'agrégation des palets, chaque robot perçoit les palets qui l'entourent grâce à ses capteurs, et agit suivant des règles comportementales du type : s'il y a plus de trois objets dans le tas, je les laisse en place ; s'il y en a un ou deux, je les prends avec ma pince.

Evidemment, pas question pour un robot de mettre en oeuvre un signal chimique, comme pourrait le faire une fourmi ! Il optera en revanche pour des signaux mécaniques ou électromagnétiques : par exemple, la force exercée par un tas d'objets sur la pince, ou l'intensité d'un signal infrarouge. Ainsi, les robots doivent-ils être dotés de moyens sensoriels élémentaires capteurs d'obstacle, compte-tours pour chaque roue, etc. leur permettant de réagir simplement aux changements de leur environnement et de communiquer de manière sommaire avec leurs équipiers. Chaque robot synchronise ses activités avec celles de ses voisins, en fonction de la tâche à accomplir et des contraintes de l'environnement dans lequel il est plongé : densité d'équipiers, nombre d'objets à manipuler, présence d'obstacles, etc.

Quels sont les traits essentiels de cette robotique en essaim ? Elle repose sur le parallélisme plusieurs robots travaillent de manière autonome et simultanément à la même mission, le contrôle distribué chaque robot prend des décisions localement sans en référer à un contrôleur central, ainsi que sur des formes de communication explicites d'un individu à l'autre, par exemple via un signal infrarouge ou implicites indirectement, en modifiant l'environnement, par exemple en changeant la distribution des palets. Les informations échangées par les individus via des signaux mécaniques ou lumineux d'intensités différentes varient en fonction de la tâche à accomplir : elles peuvent être directement liées à une perception environnementale l'estimation de la taille d'un tas d'objets ou à un état interne un seuil de réponse à un stimulus de construction ou de destruction d'un tas. Les contraintes physiques ou géométriques de l'environnement la longueur d'un bâton à manipuler, la présence d'obstacles, les dimensions de l'enceinte expérimentale affectent directement la propagation des signaux échangés par les robots et, par là même, agissent sur les réponses individuelles et sur le reste du groupe.

Une fois acquises ces règles comportementales inspirées des animaux, la première expérience suggérée par les cimetières de fourmis n'est pas restée sans suite. Une équipe de l'université d'Alberta, au Canada, a ainsi montré que plusieurs robots pouvaient pousser une boîte sans aucune communication explicite entre équipiers [6]. A l'Ecole polytechnique fédérale de Lausanne EPFL, Francesco Mondada et l'un d'entre nous Alcherio Martinoli ont fait construire des murs de briques à un groupe de Khepera un robot mobile miniature de 5,5 centimètres de diamètre qui peut être équipé d'une pince, et extraire un bâton d'un trou. Cela à partir des seules interactions indirectes avec l'environnement [7].

Les spectaculaires progrès de la miniaturisation ont permis à l'équipe de l'EPFL de réaliser toutes leurs expériences sur une simple table. Ces différents exemples ont pratiquement tous leur équivalent biologique, si ce n'est que la taille des robots n'a plus grand rapport avec lui.

Les insectes, en somme, ont beaucoup appris aux roboticiens. Et bien plus encore que l'on ne l'avait imaginé au départ : les chercheurs ont aussi découvert que, comme l'information n'est pas traitée de la même façon au niveau individuel et à l'échelle collective, le groupe d'insectes ou de robots qui s'auto-organise peut, face à un problème, trouver une solution inaccessible à des individus isolés. Et cela sans faire appel à une quelconque représentation de l'environnement.

Exemple de « succès collectif », qui passe par un processus dit de recrutement : un individu qui découvre un site intéressant « encourage » ses congénères à l'exploiter en émettant un signal simple par exemple, un signal infrarouge. Ceux-ci, après avoir visité le site, recruteront à leur tour d'autres individus. La découverte faite par un robot est ainsi « amplifiée ». De plus, une véritable compétition s'instaure entre les différentes découvertes, notamment en raison des contraintes imposées par l'environnement le chemin pour atteindre l'une des sources pouvant être plus long ou plus tortueux que celui qui mène à l'autre.

Une « sélection naturelle » des découvertes

Les groupes de robots peuvent aussi trouver des solutions inattendues. En particulier parce que les signaux qu'ils émettent peuvent être réfléchis ou arrêtés par un obstacle, les récepteurs mal orientés, etc. Or, il arrive qu'un message mal compris permette d'atteindre des solutions optimales qu'il serait peu probable, voire impossible, d'obtenir avec des communications parfaites. Le jeu du hasard et les problèmes de communication conduisent à une véritable « sélection naturelle » des découvertes et des solutions [8] que les chercheurs tentent d'exploiter au maximum.

Cette compétition entre les découvertes, ces solutions inattendues et cette « sélection naturelle » ont conduit Gérardo Beni, de l'université de Californie à Riverside [9], à parler d'intelligence en essaim swarm intelligence, en anglais [10] pour décrire le comportement des robots : les robots sont dotés de capacités cognitives restreintes mais, collectivement, ils peuvent avoir des comportements « intelligents ». Aujourd'hui, après avoir beaucoup progressé et dans l'attente d'une prochaine révolution technologique ou conceptuelle, la robotique collective en est au stade de l'évaluation et de la validation des outils qu'elle a développés.

Parmi les tests les plus récents : les parties de football entre robots voir l'encadré : « Les robots se mettent au football » ou de nouvelles expériences inspirées par les fourmis en quête de nourriture. Dans ce second exemple, le but, pour un robot, est de récolter sa « nourriture », des petits cylindres en plastique, en fonction de la quantité de cylindres déjà présente dans le « nid » à un instant donné. Les résultats sont spectaculaires, mais le temps qu'il aura fallu aux chercheurs pour les obtenir a dissuadé d'autres équipes de poursuivre dans la même voie [11].

S'il ne fait guère de doute que l'invention de la robotique en essaim a montré la voie à suivre pour commander un grand groupe de robots, les premières expériences ont permis d'affirmer de façon tout aussi certaine que la recherche empirique de solutions par les robots devenait trop fastidieuse lorsque leur mission est complexe.

Pour franchir cet obstacle, les roboticiens n'ont eu d'autre choix que de se lancer dans le développement d'outils de modélisation : comme c'est la règle en ingénierie, il leur fallait avoir une idée du comportement de leurs robots et l'optimiser avant de les fabriquer. Les premières tentatives de modélisation ont été menées en 1997 dans le cadre d'un projet commun entre l'EPFL et l'IDSIA Instituto Dalle Molle di Studi sull'Intelligenza Artificiale, à Lugano en Suisse. Aujourd'hui, c'est notamment au California Institute of Technology Caltech que les chercheurs poursuivent dans cette voie.

On peut désormais modéliser le comportement d'un groupe qui compte jusqu'à plusieurs centaines de robots [12,13]. Pour concevoir et optimiser des systèmes de commande de robots, on fait appel depuis peu aux algorithmes génétiques ou à l'apprentissage par renforcement [14]. Les résultats sont là : dans une expérience de recherche d'un nuage odorant par exemple, une fuite de gaz d'une installation chimique, un groupe qui compte jusqu'à six robots est, après optimisation, deux fois plus rapide que lorsqu'il cherche une solution de façon empirique [15,16]. Plusieurs défis restent aujourd'hui à relever. Le premier est de combiner les avantages de l'intelligence en essaim avec ceux de la communication explicite de robot à robot échange radio des états, des positions, etc.. Cette combinaison devra être optimisée selon la tâche à accomplir et le nombre de robots. Les résultats seront très différents selon qu'il s'agira d'explorer une nouvelle planète où l'on ne disposera pas de signal GPS ou des surfaces agricoles où le GPS et les communications radio seront disponibles.

Demain, un robot chien de berger ?

Second défi, la conception et le contrôle de systèmes collectifs composés de centaines, voire de milliers de robots. Pour l'heure, les travaux n'ont porté que sur des groupes composés, au maximum, d'une vingtaine de robots - essentiellement pour des questions de coût. Il est probable que, avec un grand nombre d'unités, les avantages de l'intelligence en essaim nous apparaîtront en premier lieu pour des robots de petite taille, car, de fait, la complexité de ceux-ci sera minimale.

Troisième défi, la mise au point de méthodologies de conception et de modélisation applicables à toutes les tailles de groupes de robots ainsi qu'à tout type de système distribué interagissant avec l'environnement. L'enjeu est ici de disposer d'outils qui pourraient se révéler utiles pour étudier d'autres systèmes ayant des caractéristiques similaires à celles des groupes de robots : voitures ou bus intelligents, essaims de microsatellites, etc.

Si le succès est au bout du chemin, il y aura peut-être, demain, des robots capables de surveiller l'état de nos réseaux d'eau ou de gaz, ou d'explorer des environnements lointains... D'autres applications seraient encore plus inattendues : par exemple, transformer un robot en chien de berger pour diriger un troupeau de moutons ou emmener des vaches brouter dans un champ déterminé. Ou encore concevoir un robot capable d'empêcher les paniques collectives dans certains élevages avicoles [17] .

EN DEUX MOTS : Commander un groupe de robots en pilotant de façon centralisée les positions et les mouvements de chacun aboutit rapidement à une impasse technique. En s'inspirant du comportement de certains animaux, les spécialistes de la robotique ont mis au point des robots qui peuvent décider eux-mêmes de leurs actions à partir de la perception locale qu'ils ont de leur environnement, selon des règles de comportements simples. Par un échange de signaux simples, chaque robot synchronise ses actions avec celles de ses congénères. Le groupe adopte ainsi des comportements «intelligents». L'inévitable imprécision des communications se révèle fructueuse car elle peut conduire le groupe à opter pour des actions non envisageables avec des communications déterministes. Il en résulte une « sélection naturelle » des découvertes et des solutions.

Par Alcherio Martinoli Guy Theraulaz et Jean-Louis Deneubourg

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
 

MTAUX ET TERRE PRIMITIVE

 

Métaux précieux et Terre primitive


terre - par François Guyot dans mensuel n°341 daté avril 2001 à la page 18 (1167 mots) | Gratuit
Empreinte de l'histoire lointaine de la Terre, la teneur en métaux précieux des roches du manteau terrestre résulte-t-elle d'un bombardement extraterrestre très ancien ? De nouveaux outils d'analyse et le regard du minéralogiste renforcent cette théorie en expliquant des observations apparemment contradictoires.

Plus connus pour leur valeur économique, les métaux précieux nobles, osmium, iridium, platine, or, ruthénium, rhodium, palladium, argent et rhénium, pour tous les citer sont aussi des témoins privilégiés des débuts de l'histoire de la Terre . Ace titre, ils sont au centre d'un débat scientifique auquel des chercheurs français et australiens donnent un nouveau relief1.

Selon un scénario communément admis, la Terre, née il y 4,5 milliards d'années de l'accrétion de petites planètes, s'est aussitôt différenciée, sous l'effet de la gravité, en un noyau central de fer entouré d'un manteau de roches silicatées. Lors de cette ségrégation, l'essentiel de la masse des métaux nobles, plus de 99 %, a été séquestré au-dessous de 2 900 kilomètres de profondeur, dans le noyau. En effet, ces éléments ont une très forte affinité pour le fer - ils sont sidérophiles. Les roches du manteau n'en ont donc conservé que le résidu. Mais, même en très faible quantité, les métaux nobles y sont l'empreinte de cette séparation précoce.

Hérité ou bombardé ? Les géochimistes s'y intéressent depuis les années 1970. Les premières mesures réalisées dans les roches du manteau exhumées par des phénomènes tectoniques ou volcaniques se sont révélées énigmatiques2. Les abondances des métaux nobles y sont plus de cent fois supérieures à celles prévues. Et surtout, leurs rapports d'abondances relatives sont très proches de ceux mesurés dans les chondrites primitives et indifférenciées, les météorites qui ont formé la Terre. Or le degré d'attirance pour le fer n'est pas le même pour tous les métaux nobles. Le contact avec un matériau riche en fer plongeant vers le centre de la Terre par gravité aurait donc dû inévitablement produire des différences importantes. Le palladium Pd, par exemple, moins attiré par le fer que l'iridium Ir, devrait être relativement plus abondant dans le manteau actuel que dans le matériau initial, alors que le rapport Pd/Ir observé y est identique à celui de la matière primitive.

Ce paradoxe a conduit à la théorie du « vernis tardif3 » selon laquelle de 0,4 % à 1 % de la masse de la Terre s'est en fait accrété après la fin de la ségrégation complète du noyau métallique, qui s'est déroulée en moins de cent millions d'années. Cet ajout limité de matière chondritique, ce vernis tardif riche en métaux nobles, expliquerait leur surabondance dans le manteau et les rapports observés. Cette théorie, remarquablement consensuelle pour des événements si anciens, revêt un intérêt tout particulier car, outre les métaux nobles, ce vernis pourrait avoir apporté à la Terre presque toute son eau, une bonne partie de son carbone et de son azote4, ainsi que de nombreuses molécules organiques. En bref, l'ensemble des ingrédients nécessaires à l'émergence de la vie.

Ce cadre d'interprétation de l'histoire primitive de la Terre n'a cessé d'être confronté aux observations. Mais les métaux précieux étant très peu concentrés de l'ordre du nanogramme par gramme de roche, leurs quantités absolues et relatives sont en fait très difficiles à mesurer. A la fin des années 1980, les méthodes de séparation des éléments chimiques et une nouvelle technique de spectrométrie de masse sur plasma ICP-MS* ont permis d'atteindre des précisions d'analyse approchant le pour-cent. Ces progrès se sont immédiatement traduits par la détection dans plusieurs échantillons de manteau de rapports d'abondances proches mais significativement différents de ceux de la matière primitive5. Certes, les roches du manteau sont continuellement façonnées par de la fusion partielle ou par la circulation de fluides, autant de processus capables d'affecter différemment certains de ces éléments - le palladium est par exemple bien plus soluble que l'iridium dans les fluides profonds. Mais, curieusement, même des roches apparemment vierges de toute trace d'altération présentaient parfois des abondances clairement différentes de celles des météorites primitives. Fallait-il alors remettre en question ou réviser la théorie du vernis tardif ? Devait-on imaginer que des morceaux de noyau piégés dans le manteau expliqueraient les signatures anormales, conduisant du même coup à une découverte majeure en matière de dynamique de la planète et d'échanges entre ses enveloppes ?

Grâce à une démarche originale, Olivier Alard de l'université Macquarie de Sydney et ses collègues permettent de réconcilier les observations avec la théorie du vernis tardif. Géochimistes mais d'abord minéralogistes, ces chercheurs ont découvert que les métaux nobles sont concentrés dans des minéraux très peu abondants, les sulfures, et surtout, plus inattendu, qu'ils sont systématiquement portés par deux familles de sulfures, aux caractères minéralogiques bien distincts. C'est en combinant la spectrométrie de masse ICP-MS à l'ablation par laser qu'ils ont pu analyser des zones de quelques millièmes de millimètres. Et montrer qu'au cours de l'histoire géologique, les métaux nobles se répartissent différemment dans les deux types de sulfures. Les éléments proches de l'iridium se concentrent dans les inclusions à l'intérieur des minéraux principaux du manteau, tandis que ceux apparentés au palladium se retrouvent préférentiellement dans des sulfures précipités entre les grains, témoins de circulations de fluides profonds.

Cette nouvelle vision à l'échelle du minéral met donc en lumière des détails de la distribution des éléments chimiques, produits par les processus géologiques du manteau, insoupçonnés à plus grande échelle, et conduit à la découverte fondamentale de ce travail. Elle révèle en effet que non seulement les rapports relatifs d'abondance des métaux nobles dans les deux familles minérales sont différents de ceux mesurés dans la matière primitive, mais qu'ils sont aussi différents entre eux. Ils sont en quelque sorte complémentaires, au sens où leur moyenne correspond aux rapports mesurés dans les météorites primitives. Ainsi une analyse à une échelle plus globale, comprenant les deux types de sulfures, aboutit le plus souvent à des valeurs identiques à celle des matériaux du système solaire naissant. Cependant cette complémentarité n'est pas systématique : même très limitées et indétectables par d'autres moyens, des circulations de fluides aqueux ou de magmas peuvent faire varier finement les proportions relatives des deux familles de sulfures, et ainsi des différents métaux nobles.

La théorie du vernis tardif n'est donc pas incompatible avec des observations locales a priori contradictoires. Inversement, la détection de rapports différents de ceux du matériau primitif indifférencié dans des roches apparemment non altérées est un moyen nouveau et très sensible pour décele=pr les circulations de fluides dans le manteau profond.

En quête de témoins. Cette nouvelle découverte signifie aussi que nos chances d'observer des témoins directs du vernis tardif sur Terre, non affectés par des processus géologiques, sont réduites. Bien sûr la quête de roches du manteau ayant conservé la mémoire inaltérée de cet événement doit tout même se poursuivre. Mais les meilleures informations sur l'histoire primitive de la Terre et de la vie viendront probablement d'observations dans les roches collectées sur des objets planétaires géologiquement moins actifs que la Terre, tels que Mars ou des astéroïdes, si nous avons la chance de pouvoir en disposer dans nos laboratoires.

Par François Guyot

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google