ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

INTELLIGENCE ARTIFICIELLE 5

 

Qu'est-ce que l'intelligence artificielle ?
Philippe Pajot dans dossiers 18
daté juin-juillet 2016 -


« Pour moi, la définition la plus simple de l'intelligence artificielle serait : l'ensemble des techniques qui permet aux machines - ordinateurs, robots - de faire des tâches habituellement dévolues aux humains et aux autres animaux. Toutefois, les définitions de l'intelligence artificielle sont multiples et difficiles à énoncer. Même pour les informaticiens, ce que recouvre l'intelligence artificielle change avec le temps. On peut dire, en plaisantant à moitié, que les problèmes de mathématiques ou d'informatique non résolus en font partie. Et que dès qu'ils sont résolus, ils n'en font plus partie...

ÉVALUER LA COMPLEXITÉ DES TÂCHES
L'une des difficultés à appréhender cette notion mouvante réside dans le fait qu'on a beaucoup de mal à s'imaginer, en tant qu'humain, ce qui est vraiment difficile à réaliser pour une machine. Être parvenu à concevoir des machines qui jouent aux échecs mieux que les humains avant d'avoir su créer une machine qui reconnaît une table ou une personne sur une image est a priori très surprenant.

En fait, il se trouve que jouer aux échecs est bien plus facile que ce que l'on pensait. C'est compliqué pour les humains, mais très simple pour une machine. À l'inverse, la perception visuelle - voir et reconnaître son environnement - nous semble une tâche aisée, alors qu'elle mobilise un tiers de nos ressources cérébrales et qu'elle requiert beaucoup d'énergie. Mais le fait que nous effectuons inconsciemment cette tâche en permanence et que tout le monde en est capable nous la fait paraître facile. Nous estimons mal la complexité des tâches que l'on accomplit. La récente domination du programme AlphaGo, conçu par l'équipe de Google DeepMind, contre des champions de go illustre très bien ce propos (lire page 76). C'est un beau résultat d'intelligence artificielle, mais dans un domaine où les humains ne sont pas particulièrement doués. Un humain a besoin de très nombreuses années de pratique pour bien jouer au go. Les joueurs de haut niveau y associent même une sorte de mysticisme lié à cet apprentissage.

Avec l'apprentissage automatique - le fait pour une machine d'apprendre sans avoir été explicitement programmée - qui est l'une des grandes voies de l'intelligence artificielle, cette capacité laborieuse chez les humains a été remplacée par une intuition pseudo-mécanique avec les réseaux de neurones. En combinant cet apprentissage automatique et la recherche arborescente, qui consiste à explorer plusieurs possibilités - ce que les humains font aussi dans une certaine mesure -, on obtient un programme « intelligent », capable de battre les champions de go. Cette victoire de l'intelligence artificielle est due au fait que la machine est si rapide qu'elle peut s'entraîner sur plus de parties en quelques mois que ne pourra le faire n'importe quel joueur humain durant toute sa vie.

BIENTÔT L'INTELLIGENCE UNIVERSELLE ?
Or cette belle réussite de l'apprentissage automatique a quelquefois été interprétée comme la voie vers une intelligence artificielle universelle, capable aussi bien de jouer au go que de conduire une voiture. Ce n'est pas le cas. Même si le résultat est certes impressionnant, il faut plutôt voir cette réussite comme une victoire à un jeu qui recouvre des situations particulièrement simples pour les ordinateurs et particulièrement compliquées pour les humains, ainsi que nous l'avons dit.

Toutefois, l'intelligence artificielle universelle, non spécialisée, est quelque chose d'envisageable. Et je dirai même de très probable, même si j'ignore dans combien de temps nous en disposerons. Tous les pronostics qui ont été faits jusqu'à présent ont été optimistes mais les arguments utilisés sont un peu trompeurs. Par exemple, certains disent que, d'ici à une trentaine d'années, nous disposerons de machines dont la puissance de calcul sera à peu près équivalente à la capacité du cerveau humain et qu'on pourra alors concevoir une intelligence universelle. Je ne pense pas que cela suffise. À mon avis, le problème est qu'on ne connaît toujours pas les mécanismes de l'intelligence et de l'apprentissage. Certes, les machines effectuent de plus en plus de tâches variées, mais il y a beaucoup de choses qu'on n'arrive pas à leur faire faire. En particulier, on peut mettre le doigt sur au moins un obstacle qui nous reste à franchir, ou plutôt un principe qu'on n'a pas encore trouvé, c'est ce qu'on appelle l'apprentissage prédictif, ou encore non supervisé. C'est la forme d'apprentissage dominante chez les animaux.

L'APPRENTISSAGE PRÉDICTIF RESTE UN OBSTACLE
L'apprentissage, qu'il soit ou non automatique, se décline en effet en trois grandes catégories : l'apprentissage par renforcement, l'apprentissage supervisé et l'apprentissage prédictif/non supervisé. L'apprentissage par renforcement ressemble un peu à ce qu'on fait lorsqu'on entraîne un animal de cirque ou de compagnie : on attend que la machine fasse une action qui est correcte ; et quand cela arrive, on lui donne une sorte de récompense. Chez la machine, cela fonctionne bien à condition de faire des millions d'essais. Quand l'environnement dans lequel travaille la machine est artificiel, tel un jeu vidéo ou le jeu de go, on peut effectivement jouer des millions de parties. Mais cela ne fonctionne pas dans le monde réel, qui est plus incertain et où un cycle d'apprentissage peut prendre très longtemps. Entraîner un robot par cette méthode reste ainsi très compliqué. Autrement dit, les possibilités de l'apprentissage par renforcement pur sont certes spectaculaires, comme l'illustre la domination de la machine au jeu de go, mais restent limitées.

L'apprentissage supervisé recouvre, lui, la majorité des applications de l'apprentissage automatique et de l'intelligence artificielle. Le principe ? C'est un peu comme montrer un livre d'images à un enfant, où figurent un éléphant, une girafe, une chaise... tout en nommant ce qu'on y voit et attendre que l'enfant sache les reconnaître en les nommant lui-même. Pour les machines, cela fonctionne bien, à condition, là aussi, d'avoir des millions d'exemples à leur livrer. Et c'est ce que l'on parvient à faire depuis quelques années, par exemple pour la reconnaissance d'images sur Internet (lire page 90).

Le dernier type d'apprentissage est celui que l'on met en oeuvre simplement par l'observation. Quand on est bébé, on apprend que les objets continuent d'exister quand on ne les voit pas. On apprend que l'on peut bouger certains objets et d'autres pas... que les objets tombent... que le monde est tridimensionnel... Tout cela s'acquiert spontanément par observation du monde et en agissant dans le monde. Ce mode d'apprentissage qui nous est familier est encore difficile d'accès pour les machines. Il est mal aisé de formaliser le problème mathématiquement et il n'est pas facile de mesurer objectivement la performance d'un système d'apprentissage prédictif.

Par exemple, montrons une vidéo à une machine et mettons le film sur pause. Si l'on demande à la machine de prédire la situation qui va suivre, cela lui est presque impossible, car le monde est intrinsèquement non prédictible. Autrement dit, beaucoup de choses peuvent se passer qui sont toutes plausibles et on ne sait pas encore lui faire comprendre correctement que, dans la vidéo, une seule chose va se produire parmi toutes les choses plausibles. Par exemple, si je tiens un crayon debout sur sa pointe et que je le lâche, je sais qu'il va tomber, mais je ne sais pas de quel côté. Avec les méthodes classiques, la machine sera pénalisée pour avoir prédit le mauvais côté. Comment peut-elle découvrir par elle-même l'ensemble des futurs plausibles et que peu importe la direction précise de la chute ? Ce n'est qu'un exemple, mais tant qu'on n'aura pas trouvé les principes sous-jacents à cet apprentissage non supervisé en présence d'incertitude, qui permet à la machine d'apprendre « toute seule » en observant le spectacle du monde, l'intelligence artificielle universelle restera un objectif lointain.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

Les nouveaux dfis de la spintronique

 

spintronique

24.05.2016, par Sylvain Guilbaud
Spintronique Réseau de structures magnétiques en vortex.
 C. PFEIDERER/TUM
Partager
Exploitant à la fois les propriétés électriques et magnétiques des électrons, la spintronique a permis dès les années 1990 une explosion de la capacité de stockage des disques durs. Elle offre aujourd’hui de nouvelles pistes pour le futur des technologies de l’information.
Moins de dix ans ont été nécessaires entre la démonstration en laboratoire par Albert Fert et Peter Grünberg, à la fin des années 1980, de l’effet emblématique de la spintronique, la magnéto-résistance géante, et la commercialisation des premiers disques durs utilisant cette propriété par IBM en 1997. Rarement un transfert de technologie entre la recherche fondamentale et la production de masse aura été aussi rapide. Voilà qui illustre l’évolution fulgurante de la spintronique depuis une vingtaine d’années.

Une électronique du spin

La spintronique est le mariage de l’électronique, qui utilise la charge électrique des électrons pour transmettre de l’information, et du spin, une autre propriété intrinsèque des électrons. Le spin est une caractéristique microscopique purement quantique, qui n’a pas d’équivalent à notre échelle. Mais on peut se représenter, de manière schématique, un électron comme un petit aimant pouvant prendre seulement deux orientations : un spin « vers le haut » ou un spin « vers le bas ». « Cette propriété était connue depuis les débuts de la physique quantique, mais il n’y avait pas eu d’idée pour l’utiliser en électronique », souligne Yannick Dappe, chercheur au Service de physique de l’état condensé (Spec)1 du CEA Saclay. Dans les années 1960-1970, des théories sont élaborées pour décrire comment les courants de spins se déplacent dans les matériaux magnétiques. Dans les années 1980, le développement des nanotechnologies, en particulier la maîtrise des dépôts métalliques, permet de créer des matériaux possédant les couches d’une épaisseur de seulement quelques nanomètres qui sont nécessaires à l’exploitation du spin des électrons.

Spintronique Représentation schématique du spin de l'électron. Dans une image classique, un spin +1/2 correspond à une rotation de l'électron sur son axe, donnant lieu à un moment magnétique, un spin -1/2 correspond à la même rotation en sens inverse, donnant lieu à un moment magnétique de signe opposé.
 S. SMOGUNOV; Y.-J. DAPPE/SPEC
Partager
Multiplier par mille la densité de stockage

C’est dans de telles structures, composées d’une couche d’un métal normal, comme le chrome, en sandwich entre deux couches de métal ferromagnétique, comme le fer, que l’effet de magnéto-résistance géante est observé. Les matériaux ferromagnétiques soumis à un champ magnétique alignent leur aimantation dans la direction de ce champ. De plus, dans ces matériaux, les électrons ne rencontrent pas la même résistance en fonction de leur spin. Quand les aimantations des deux couches ferromagnétiques sont parallèles, les électrons qui se propagent bien dans l’une se propagent bien dans l’autre : la résistance globale est faible. Au contraire, si les aimantations des couches ferromagnétiques sont antiparallèles, les électrons qui se propagent bien dans l’une se propageront mal dans l’autre : la résistance globale sera forte. Cette différence de résistance induite par un champ magnétique peut être très forte, d’où le nom de magnéto-résistance géante. Sa découverte vaudra le prix Nobel de physique à Albert Fert et Peter Grünberg en 2007.

Cet effet est employé dans les têtes de lecture des disques durs, dont l’objectif est de lire l’orientation magnétique des domaines qui se présentent successivement à la surface du disque dur et qui constituent les bits d’information. La sensibilité des têtes de lecture à magnéto-résistance géante permet de lire une information codée sur des domaines plus petits, et donc d’augmenter la densité de stockage d’un facteur voisin de 1 000. « Les capteurs de champ magnétique à base de magnéto-résistance géante ont aussi trouvé d’autres applications : dans les voitures pour réaliser des capteurs de mouvements de rotation ou de translation ou en technologie médicale pour analyser des concentrations de molécules marquées par une nanoparticule magnétique », précise Albert Fert.

Spintronique Dispositif permettant le dépôt sur un substrat de couches métalliques magnétiques ultraminces dont l'empilement aboutit à l'effet de magnéto-résistance géante (GMR).
 H. RAGUET/CNRS PHOTOTHEQUE
Partager
Des mémoires de plus en plus rapides

Si le disque dur reste la base de la mémoire de nos ordinateurs, il a l’inconvénient d’être lent d’accès. Une milliseconde est nécessaire pour lire une information. La mémoire vive de type RAM, très rapide, le supplée. Mais celle-ci est volatile : il faut lui fournir en permanence de l’énergie sous peine de perdre l’information. Il s’agit là d’une source de consommation très importante des ordinateurs. La spintronique permet de réaliser des « mémoires magnétiques » ou MRAM, non volatiles, rapides et économes en électricité. Les jonctions tunnels magnétiques qui les composent sont également constituées de deux couches ferromagnétiques, séparée cette fois par une barrière isolante. L’effet de magnéto-résistance s’en trouve fortement augmenté. On peut stocker de l’information dans la configuration d’aimantation d’une jonction tunnel et mettre des millions de ces jonctions en réseau pour réaliser une MRAM. La première génération de ces composants est arrivée sur le marché en 2006, mais la densité de stockage n’était pas encore suffisante pour s’imposer dans les ordinateurs. « En revanche, les MRAM ont trouvé leur application dans l’avionique et le spatial, poursuit Albert Fert. Car, contrairement aux mémoires classiques, elles sont peu perturbées par les rayonnements dans la haute atmosphère. »

Ces mémoires
bouleverseront le
paradigme actuel
qui sépare, dans
un ordinateur,
mémoire vive
et mémoire
de stockage.


Le grand espoir vient de la nouvelle génération de MRAM développée actuellement. Elle intègre un autre effet majeur de la spintronique, le transfert de moment de spin. Celui-ci permet de renverser l’aimantation d’une couche, et donc d’écrire une information dans la mémoire, grâce à un simple courant électrique plutôt qu’en appliquant un champ magnétique. « Ces mémoires s’implanteront vraisemblablement dans les ordinateurs d’ici quelques années et bouleverseront alors le paradigme actuel qui sépare, dans un ordinateur, mémoire vive et mémoire de stockage », annonce Martin Bowen, physicien à l’Institut de physique et chimie des matériaux de Strasbourg2.

Spintronique Les mémoires MRAM pourraient à terme remplacer les mémoires Flash actuellement utilisées dans les disques durs SSD.
 Ralf ROLETSCHEK/fahrradmonteur.de/WIKIMEDIA COMMONS
Partager
Du stockage à la transmission de l’information

Au-delà de ces applications, la spintronique fait toujours l’objet de recherches fondamentales dont le panorama s’est diversifié. D’une part, les chercheurs tentent d’aller toujours plus loin dans la spintronique « classique », celle employée dans les dispositifs à magnéto-résistance, qui consiste à placer différents matériaux sur le chemin des électrons pour influencer la circulation des spins. « Au lieu d’utiliser des couches de métal normal, comme dans les premiers dispositifs, ou des barrières isolantes, comme dans les jonctions tunnels magnétiques, on peut aussi tester d’autres matériaux, comme des assemblées de molécules, pour filtrer les électrons en fonction de leur spin », explique Yannick Dappe. C’est le principe de la spintronique moléculaire sur lequel le chercheur effectue des travaux théoriques avec son collègue du Spec Alexander Smogunov. Des matériaux comme le graphène sont aussi très étudiés. Plutôt que de simplement stocker l’information, la spintronique pourrait aussi aider à la transmettre. Pour cela, il faut développer des sources performantes de courants polarisés en spin. « Cela nécessite de bien comprendre comment des matériaux dissemblables tels qu’un métal ferromagnétique et des molécules partagent leur charge électronique lorsqu’ils forment une interface, détaille Martin Bowen. Un autre enjeu est de miniaturiser ces concepts à une nano-échelle, par exemple en utilisant les propriétés électroniques des défauts de structure, comme lorsque l’absence d’un atome créé une lacune. »

De nouvelles façons de manipuler les spins ont aussi émergé ces dernières années. L’une d’elle est la spin-orbitronique. L’idée est d’utiliser un effet relativiste, le couplage spin-orbite, très important dans les métaux lourds comme le bismuth ou le platine. Parmi les pistes ouvertes par ce domaine se trouve la possibilité de stocker et transporter de l’information grâce aux skyrmions. « Ce sont des petits nœuds de spins de quelques nanomètres avec lesquels on peut mémoriser une information, comme avec les boules d’un boulier. On peut ensuite déplacer ces skyrmions le long d’une piste jusqu’à un nanocapteur pour lire l’information codée dans un train de skyrmions », explique Albert Fert, dont l’équipe au sein de l’unité mixte de recherche CNRS/Thales se penche en particulier sur ce champ de recherche.

Alors que la fabrication des composants à base de semi-conducteurs commence à atteindre ses limites en termes de miniaturisation, la spintronique s’impose petit à petit comme une technologie complémentaire permettant de dépasser certaines de ces limites et de prendre probablement à moyen terme le relai de l’électronique classique. Outre les nouveaux composants qu’elle propose, comme les MRAM, la spintronique pourrait participer à la définition de nouvelles architectures informatiques, c’est-à-dire de nouvelles façons de faire les calculs. L’électronique neuromorphique propose par exemple de s’inspirer du fonctionnement du cerveau, en particulier des synapses, qui se transforment en fonction de l’information qu’elles reçoivent.

Notes
1. Unité CNRS/CEA.
2. Unité CNRS/Univ. de Strasbourg.

 

DOCUMENT    cnrs  le  journal     LIEN

Inscrivez  le  titre  complet  dans  la  rubrique  " cnrs  le  journal "

 
 
 
 

ONDES GRAVITATIONNELLES

 

Paris, 11 février 2016
Les ondes gravitationnelles détectées 100 ans après la prédiction d'Einstein

LIGO ouvre une nouvelle fenêtre sur l'Univers avec l'observation d'ondes gravitationnelles provenant d'une collision de deux trous noirs. Pour la première fois, des scientifiques ont observé des ondulations de l'espace-temps, appelées ondes gravitationnelles, produites par un événement cataclysmique dans l'Univers lointain atteignant la Terre après un long voyage. Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l'Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d'une telle collision de deux trous noirs avait été prédite, mais ce phénomène n'avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l'Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l'objet d'une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l'Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.
Clin d'œil de l'histoire : c'est 100 ans tout juste après la publication de la théorie de la relativité générale d'Einstein, qu'une équipe internationale vient d'en confirmer l'une des prédictions majeures, en réalisant la première détection directe d'ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.

L'analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d'estimer que les deux trous noirs ont fusionné il y a 1.3 milliard  d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil. La comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L'entrée en service d'Advanced Virgo fin 2016 permettra justement cela.

Selon la théorie de la relativité générale, un couple de trous noirs en orbite l'un autour de l'autre perd de l'énergie sous forme d'ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l'ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2. C'est cette bouffée d'ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.

Une preuve indirecte de l'existence des ondes gravitationnelles avait été fournie par l'étude de l'objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d'un pulsar en orbite autour d'une étoile à neutrons. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l'énergie sous la forme d'ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d'années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l'évolution d'un autre système binaire, formé de deux trous noirs, lorsqu'ils ont fusionné en un trou noir unique.

Détecter un phénomène aussi insaisissable1 que les ondes gravitationnelles aura demandé plus de 50 ans d'efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd'hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l'astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu'émettent certains objets astrophysiques, comme les trous noirs.

Autour de LIGO s'est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L'équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), de Leibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff,  Birmingham, et d'autres universités du Royaume-Uni, et à l'Université des îles Baléares en Espagne.

Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l'Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l'interféromètre Virgo.

A l'origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d'Alain Brillet et d'Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l'INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu'en 2011.

Le projet Advanced Virgo, financé par le CNRS, l'INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d'ici la fin de l'année. En outre, d'autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd'hui.

En s'engageant depuis plus de vingt ans dans la réalisation de Virgo puis d'Advanced Virgo, la France s'est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l'exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l'analyse des données qu'à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées :
-    le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
-    le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d'Azur/Université Nice Sophia Antipolis), à Nice ;
-    le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
-    le Laboratoire d'Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
-    le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
-    le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.

La découverte a été rendue possible par les capacités accrues d'Advanced LIGO, une version grandement améliorée qui accroit la sensibilité des instruments par rapport à la première génération des détecteurs LIGO. Elle a permis une augmentation notable du volume d'Univers sondé – et la découverte des ondes gravitationnelles dès sa première campagne d'observations. La National Science Foundation des Etats-Unis a financé la plus grande partie d'Advanced LIGO. Des agences de financement allemande (Max Planck Society), britannique (Science and Technology Facilities Council, STFC) et australienne (Australian Research Council) ont aussi contribué de manière significative au projet. Plusieurs des technologies clés qui ont permis d'améliorer très nettement la sensibilité d'Advanced LIGO ont été développées et testées par la collaboration germano-britannique GEO. Des ressources de calcul significatives ont été allouées au projet par le groupe de calcul Atlas de l'AEI à Hanovre, le laboratoire LIGO, l'université de Syracuse et l'Université du Wisconsin à Milwaukee. Plusieurs universités ont conçu, construit et testé des composants clés d'Advanced LIGO : l'université nationale australienne, l'université d'Adélaïde, l'université de Floride, l'université Stanford, l'université Columbia de New York et l'université d'Etat de Louisiane.

 

 DOCUMENT         cnrs        LIEN

 
 
 
 

VISION INFORMATIQUE DU RELIEF

 

La vision informatique du relief
et aussi - dans mensuel n°318 daté mars 1999 à la page 36 (2289 mots)


Nos deux yeux nous fournissent chacun une image plane, et pourtant le cerveau reconstruit en permanence un monde en trois dimensions. Comment transmettre cette faculté à l'ordinateur? Des techniques intuitives ne donnent pas de résultats convaincants. La réponse est à chercher du côté d'un des domaines mathématiques les plus actifs aujourd'hui.

La photographie est certainement le moyen le plus répandu de partager un souvenir, de faire connaître un endroit. Et demain ? La vidéo, bien sûr ! Envoyer une cassette vidéo par la poste n'est pas aujourd'hui chose courante, encore moins l'équivalent numérique qui consisterait à le faire par Internet : dans les deux cas, c'est encore trop encombrant, peu pratique. Mais demain, ce sera évidemment quotidien. Un petit bonjour ? Un souvenir de vacances ? Un simple clic de souris, et le tout sera expédié par le WEB, son et animation compris...

Troisième dimension. Et pourtant, ce ne sera pas encore une représentation complète de la réalité que recevra le destinataire. Réfléchissez. A l'image fixe de la photographie, la vidéo apporte une dimension supplémentaire, le temps, mais il en manque encore une : la troisième dimension en espace. Tout cela reste désespérément plan. Entendons-nous bien : il existe aujourd'hui plusieurs moyens de donner une sensation de relief, que ce soit en observant la scène d'un point imposé fixé d'avance cinéma en relief ou en s'y déplaçant procédés de réalité virtuelle. Nous ne disposons pas encore de véritables projections tridimensionnelles, sortes d'" hologrammes animés » dont rêvaient les auteurs de science-fiction, mais c'est déjà un premier pas. Non, le vrai problème, celui auquel nous allons nous intéresser ici, c'est l'acquisition de la forme tridimensionnelle du sujet considéré. Lorsque tel réalisateur filme ses comédiens avec deux caméras, il en enregistre deux séries d'images simultanées prises depuis deux emplacements légèrement distincts. Ces séries d'images, une fois reprojetées et observées avec un appareillage adapté lunettes polarisantes ou autres, reproduiront la sensation de relief. C'est, en bien plus sophistiqué, un procédé de stéréoscopie vieux comme la photographie. Qu'il ne prenne pas l'envie au spectateur de voir ce qui se passe de l'autre côté de la scène qui lui est proposée : il ne voit et ne peut voir que le relief qu'il aurait observé, si ses deux yeux avaient été à la place des deux caméras. Un véritable enregistrement tridimensionnel, ce n'est pas saisir deux images d'un même objet pris sous des angles différents. C'est mémoriser l'information tridimensionnelle en elle-même -« il y a un objet à tel endroit de l'espace, il a telle forme, telle couleur, etc. » -, c'est dresser une carte tridimensionnelle complète de ce qui est observé.

Acquérir cette carte, voilà le difficile problème auquel devra se confronter le cinéma du futur. Pourtant, notre cerveau résout ce problème en permanence, justement à partir des images planes qui lui sont transmises : nos deux yeux transmettent deux images différentes du même environnement, images que le cerveau exploite pour extraire de l'information sur la forme et la position de ce que nous voyons. Ce que le cerveau arrive à faire avec nos yeux, il est tentant d'essayer de le réaliser avec un système artificiel fondé sur des caméras reliées à un ordinateur. Imaginez cela : vous venez de filmer votre petit dernier effectuant ses premiers pas. Sitôt connecté au Caméscope, votre PC en extrait les images et commence à reconstituer le tout en trois dimensions. Quelques instants de patience, une petite connexion Internet, et vous pourrez faire admirer en 3D à ses grands-parents les exploits du jeune marcheur.

Retrouver la position d'un point dans l'espace lorsqu'on en possède deux images différentes... A la fois très simple dans le principe et très compliqué dans la pratique. Pourquoi ? Regardez d'un seul oeil ce point M. Vous ne pouvez pas dire où se trouve M exactement, mais vous en savez déjà beaucoup : vous savez dans quelle direction il est. Mais à quelle distance? Il vous faut ouvrir votre deuxième oeil pour obtenir une deuxième direction. Vous saurez ainsi immédiatement que M se situe à l'intersection des deux droites deux droites dans l'espace ne se coupent pas toujours, mais ici, oui. Procédez de la même manière pour tous les points d'un objet observé et vous aurez sa position et sa forme dans l'espace.

Voilà pour le principe. Dans la pratique, la réalisation informatique du procédé soulève un problème. Un seul, mais qui serait suffisant pour réduire tous les espoirs à néant : pour un point m1 donné dans la première image, la machine ne sait pas quel point m2 de la deuxième image lui correspond. Dès lors, impossible de retrouver le point de l'espace dont les points m1 et m2 seraient les images ! Des solutions existent malgré tout. La première consiste à éclairer les objets avec un laser. Seul le point éclairé par le laser sera visible dans les deux images. Pas de doute possible : le point vu dans la première image correspond à celui vu dans la deuxième, d'où la position du point éclairé dans l'espace.

Pour reconstituer tout un objet, il faudra alors le balayer point par point avec le laser : c'est le principe du " plan laser », véritable scanner tridimensionnel. Efficace mais lent ! Imaginez un instant que la nature ait doté l'homme du même système ! Une deuxième solution consiste pour un point m1 donné à rechercher dans la deuxième image quels points m2 lui sont les plus semblables, c'est-à-dire lesquels sont le plus vraisemblablement les images d'un même point de l'espace. Si plusieurs points m2 possibles sont détectés, il faudra que l'ordinateur choisisse tant bien que mal tout seul lequel retenir ou qu'il demande à un opérateur de choisir pour lui. De telles méthodes automatiques ou semi-automatiques sont couramment utilisées, notamment en cartographie à partir d'images aériennes.

Nous sommes pourtant encore loin de l'objectif annoncé : acquérir une carte tridimensionnelle complète de ce qui est observé. Parmi les problèmes en suspens, notons-en deux principaux. Premièrement, ne traiter que deux images d'un objet ne permet de reconstituer que la partie de l'objet qui fait face à l'observateur. Il faudrait donc prévoir un procédé qui puisse reconstruire tout l'objet, à condition bien sûr que l'observateur en fasse tout le tour. Plus subtil est le deuxième problème, à la base de bien des dysfonctionnements de la deuxième des solutions décrites ci-dessus. Lorsqu'on observe un objet, certaines parties en sont cachées, par d'autres objets ou par l'objet lui-même. Ces parties cachées dépendent de la position de l'observateur. Pensez aux murs cachés par les toits dans le cas de la cartographie : sur deux images différentes, ce ne seront pas les mêmes murs qui seront visibles. En conséquence, rechercher absolument un point m2 correspondant à un point m1 donné est parfois source d'erreur. Dans le cas d'un observateur faisant tout le tour d'un ensemble d'objets, ce problème risque fort de devenir le principal obstacle, les objets se cachant les uns les autres et jamais de la même manière.

C'est néanmoins à ces deux problèmes que répond le procédé de reconstruction tridimensionnelle dont nous allons exposer succinctement le principe. Il a été développé conjointement par Olivier Faugeras de l'INRIA de Sophia Antipolis, professeur au Massachusetts Institute of Technology et par l'auteur1. Ce procédé n'a pu aboutir que grâce à de récentes avancées mathématiques sur la théorie des évolutions de surfaces d'une part, et d'autre part, sur leurs méthodes de simulation informatique, c'est-à-dire sur ce que l'on appelle techniquement le domaine des équations aux dérivées partielles EDP, domaine qui a donné à la France l'une de ses récentes médailles Fields en la personne de Pierre-Louis Lions. L'ordinateur travaille en fait sur les surfaces délimitant les objets à reconnaître. Il émet d'abord une hypothèse sur la forme et la position de ce qui est observé, hypothèse consistant en une ou plusieurs surfaces. A partir de là, il vérifie la justesse de l'hypothèse en chacun des points de ces surfaces. Il faut pour cela déterminer, pour un point donné, les caméras qui doivent le voir et celles pour lesquelles il est caché. S'il y a bien un objet au point en question, alors les images qu'en ont les caméras qui le voient doivent être très semblables.

A partir de ces tests en chacun des points de l'hypothèse, les surfaces sont déformées en de nouvelles surfaces dont la mesure de validité est plus grande, et ainsi de suite jusqu'à l'obtention de surfaces stables représentant fidèlement les objets observés.

Tests de validité, puis déformation: en pratique, comment réaliser ces opérations sur ordinateur? Cela suppose d'abord de quantifier précisément les ressemblances entre deux points A et B. En réalité, pour les images numériques, ces points sont des pixels* d'une couleur donnée, composée de trois couleurs élémentaires: vert, rouge et bleu. On pourrait se limiter à l'examen des couleurs en chacun des points A et B, procédé intuitif, mais trop imprécis. Il faut en fait s'intéresser à de petites fenêtres rectangulaires centrées en A et B. Ce sont ces deux fenêtres que l'on compare, et même plus précisément les pixels qui les composent. De plus, même en supposant, ce qui n'est qu'une approximation, qu'un objet émet la même quantité de lumière dans toutes les directions de l'espace, les deux images ne sont pas nécessairement prises dans les mêmes conditions d'éclairage, ni avec des caméras identiques. Il faut donc faire plus qu'une simple comparaison de couleurs des pixels de chaque fenêtre. La solution consiste à calculer ce qu'on appelle un facteur de corrélation normalisé entre les fenêtres, ce qui revient à comparer non plus les couleurs des pixels, mais la façon, dont ces couleurs varient au sein de chaque fenêtre. Ce facteur varie entre ­1 pour des fenêtres totalement anti-corrélées et +1 pour des fenêtres totalement corrélées.

Déformer des surfaces. Une fois réglée cette question de corrélation, il reste encore à savoir comment déformer les surfaces. Mathématiquement, elles évoluent suivant une équation aux dérivées partielles, exactement comme nombre de phénomènes physiques variant au cours du temps. Concrètement, on transforme la surface par de petites variations imposées en chacun de ses points. Ces points évoluent selon la normale* à la surface. La longueur du déplacement, appelé vitesse normale, est bien sûr différente en chaque point M. Dans notre cas, elle dépend de la position de M, de la forme de la surface en M et des facteurs de corrélation des différentes caméras voyant M. On fait varier la vitesse normale de telle sorte que le procédé s'arrête aux points où l'objet est détecté elle s'annule quand la corrélation est bonne. De plus, on l'adapte suivant des critères mathématiques rigoureux assurant une évolution « en douceur » de la totalité de la surface vers la solution.

Supposons, pour simplifier, que nous n'ayons plus à déformer une surface dans l'espace, mais une courbe dans un plan, et que cette courbe soit fermée. Une façon naïve de simuler son évolution sur ordinateur consiste à la mémoriser sous la forme d'un ensemble de points, que l'on déforme en faisant bouger les points le long de la normale fig. 1. Cette manière de procéder est mauvaise car très instable : en certains endroits, les points se resserrent tandis qu'en d'autres ils s'écartent. L'approximation numérique devient vite incorrecte, et les résultats, faux. La bonne méthode, appelée « méthode des courbes de niveau », consiste à rajouter une dimension, et à inscrire cette courbe dans une surface évoluant, elle, dans l'espace.

On choisit une surface initiale dont la courbe est le niveau zéro, c'est-à-dire la trace de la surface sur le plan horizontal d'altitude zéro fig. 2. C'est maintenant la surface qu'il s'agit de faire évoluer, mais pas n'importe comment: on veut que son niveau zéro finisse par représenter la solution! C'est là qu'il faut faire appel à la théorie des EDP. Elle fournit en fait une équation qui permet de déformer la surface exactement de sorte que la courbe, elle, évolue vers la solution. Première qualité: en pratique, on est assuré de trouver la bonne solution. Cette technique possède aussi une propriété remarquable : rien n'empêche le niveau zéro de se séparer en plusieurs morceaux fig. 2. La détection d'objets multiples se fait donc sans effort supplémentaire. Enfin et surtout, elle s'étend naturellement aux dimensions supérieures, soit, dans notre cas, à l'évolution d'une surface et non plus d'une courbe il faut alors faire évoluer une hypersurface en dimension 4 dont le niveau zéro est la surface à déformer. Et cela marche! Les étapes successives montrent de premières surfaces approximatives qui se déforment, se précisent et finissent par coller parfaitement aux objets photographiés. Les parties se cachant mutuellement ne trompent en rien l'algorithme.

Jusqu'ici, les méthodes d'acquisition à base de caméras étaient sans justification mathématique rigoureuse, et surtout peu probantes. Elle ne reconstituaient les objets que partiellement, et se trompaient quand ils se cachent mutuellement. Ce nouveau procédé ouvre de nombreux horizons. Nous avons déjà évoqué le cinéma tridimensionnel ou l'acquisition automatique de mondes virtuels. Nous pourrions aussi citer la reconnaissance des formes. Les résultats dans ce domaine seraient grandement améliorés si l'on travaillait sur des données 3D plutôt que sur des images planes. La robotique est également demandeuse2 : un robot mobile autonome doit aujourd'hui se contenter de sonars pour réagir vite et de plans lasers pour les tâches précises. Ces sonars sont d'ailleurs inutilisables dans le vide, donc en exploration spatiale, où pourtant éviter un obstacle est vital! Les spécialistes du trucage et des effets spéciaux seraient ravis de pouvoir extraire toute l'information tridimensionnelle possible d'une séquence filmée. Ils pourraient alors très facilement modifier un acteur, le remplacer par un autre, ou même ajouter des objets ou d'autres acteurs à la séquence. Le résultat serait plus réaliste qu'avec les méthodes actuelles. Ce n'est là qu'une première avancée, car en réalité la véritable motivation de tels travaux est de pouvoir imiter un jour la vision humaine et la remplacer quand elle est déficiente. Le chemin est encore long.

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google