ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Luc Steels " Les robots nous aident à comprendre l'intelligence humaine "

 

Luc Steels " Les robots nous aident à comprendre l'intelligence humaine "
Gautier Cariou dans mensuel 509
daté mars 2016 -


Quels sont les mécanismes à l'origine du langage ? Comment naissent les mots, comment la grammaire émerge-t-elle ? Grâce à des travaux à la croisée de la robotique, de l'informatique, de la psychologie et de la linguistique, Luc Steels a apporté de nouvelles pièces à ce grand puzzle qu'est l'intelligence humaine.
Luc Steels ne cherche pas la facilité. Son moteur ? La volonté de toujours repousser l'état de l'art d'une discipline. Dès que les contours d'un champ de recherche deviennent trop nets, il change de direction. Cet esprit pionnier l'a conduit à révolutionner la robotique, en faisant basculer l'intelligence artificielle (IA) classique, programmée à l'avance pour des tâches précises, vers une IA fondée sur l'apprentissage, capable de se programmer elle-même. Au cours de sa carrière, il a fondé deux laboratoires d'IA, dont le Computer Science Laboratory (CSL) de Sony, où il a créé un nouveau champ de recherche : la linguistique évolutionnaire. Depuis, il développe des outils informatiques et robotiques pour comprendre les processus d'acquisition du langage chez l'enfant et les mécanismes par lesquels le langage émerge, se propage et évolue dans les populations humaines. Une méthodologie en rupture totale avec l'approche traditionnelle des sciences humaines.

La Recherche. Depuis plus de trente ans, vous développez des méthodes d'intelligence artificielle (IA) pour décrypter les mécanismes de l'intelligence, et en particulier du langage. Quelles réponses l'IA peut-elle apporter à un champ déjà si investi par les sciences sociales et les neurosciences ?

Luc Steels Pour étudier l'acquisition du langage et le développement des capacités sensorielles et motrices chez l'enfant, les linguistes, les psychologues et les neuroscientifiques n'ont que deux outils à leur disposition : des expériences de pensée et des observations du comportement ou du cerveau. Mais aucun de ces outils ne leur permet de créer des modèles formels qui rendent compte des mécanismes d'acquisition de ces capacités cognitives. À la fin des années 1980, avec mon collègue Rodney Brooks, fondateur de la société américaine iRobot, nous avons donc eu l'idée de fabriquer des systèmes artificiels - des robots - et de les utiliser comme plates-formes expérimentales pour tester différents mécanismes pouvant expliquer l'émergence de comportements intelligents chez les espèces vivantes. Bien sûr, cette approche ne garantit pas à 100 % que les principes utilisés sont transposables aux systèmes vivants, mais cette méthodologie est une source importante de progrès pour appréhender au plus près l'extraordinaire complexité des phénomènes observés dans la cognition humaine. En d'autres termes, c'est par la construction de systèmes artificiels que l'on peut espérer comprendre au mieux l'intelligence réelle.

Quels mécanismes de l'intelligence avez-vous mis en évidence ?

L'un de ces mécanismes est l'« auto-organisation ». Il m'a été inspiré par le groupe d'Ilya Prigogine, Prix Nobel de chimie en 1977. Lorsque j'ai créé le laboratoire d'intelligence artificielle de l'université libre néerlandophone de Bruxelles, en 1983, je me suis rapproché des membres de son équipe qui travaillaient sur le même campus. Ils étudiaient alors les systèmes complexes : les colonies de fourmis, le vol des oiseaux, etc., et se demandaient comment l'ordre et l'organisation pouvaient émerger du chaos. De fait, dans ces systèmes, aucun programme central ne commande quoi que ce soit. Il n'y a pas une fourmi chef d'orchestre qui donne des ordres à ses congénères ; et pourtant, au fil des interactions entre chaque fourmi, en échangeant des phéromones, un comportement collectif intelligent émerge. J'étais convaincu que ce phénomène d'auto-organisation pouvait devenir un mécanisme clé de l'intelligence des machines. C'est ce que nous avons démontré avec Rodney Brooks (1). Plutôt que de doter un robot d'un programme central complexe, nous avons fabriqué des robots dont l'intelligence est distribuée entre plusieurs modules, chacun programmé pour une action simple : éviter un obstacle, revenir en arrière si le robot est coincé, revenir vers une station de rechargement avant que la batterie soit épuisée. Toutes ces actions élémentaires donnent lieu à un comportement global intelligent de la part du robot sans qu'il soit programmé à l'avance pour ce comportement. Cette approche constituait un changement de paradigme : nous passions d'une IA « classique », avec un programme central dédié à une tâche bien définie comme le pilotage des avions, la planification du trafic ferroviaire - ce que l'on appelle les systèmes experts -, à une robotique qui se programme elle-même, en fonction des interactions avec son environnement.

Vous vous êtes ensuite intéressé au langage...

Oui, je suis retourné à mes premières amours. Avant de me consacrer à l'intelligence artificielle, j'avais suivi des études de linguistique à l'université d'Anvers, en Belgique. Puis, pendant mes études au laboratoire d'IA du MIT, je suivais en parallèle le cours de linguistique de Noam Chomsky, qui est sans doute la figure la plus emblématique du domaine. Dans les années 1980, j'étais imprégné des idées nouvelles de l'IA, et il était pour moi très clair qu'il fallait trouver une autre voie que celle des sciences sociales pour avancer dans l'étude et la compréhension du langage. Je me disais que si les mécanismes d'auto-organisation pouvaient faire émerger des comportements intelligents, alors ces mêmes mécanismes devaient également être utiles pour expliquer une autre forme d'intelligence : le langage.

En quoi l'auto-organisation aide-t-elle à comprendre le langage ?

Prenons l'exemple des oiseaux migrateurs. Lorsqu'ils volent, ils suivent une trajectoire aléatoire au départ puis s'influencent mutuellement et, de proche en proche, ils finissent par s'aligner. Chaque oiseau pris individuellement n'a pourtant pas de vision d'ensemble et ne reçoit pas d'ordre mais, collectivement, le groupe devient cohérent. J'étais persuadé que l'émergence des mots au sein d'une population humaine obéissait au même principe. On peut imaginer, par exemple, que deux personnes se mettent d'accord pour nommer un objet « stylo ». Chacun d'eux va ensuite parler avec deux autres personnes et ainsi de suite. Le choix du mot initial étant aléatoire, il est fort probable qu'un autre groupe emploie plutôt le mot « Bic » ou n'importe quel autre mot pour désigner le même objet. Au début, de nombreux mots coexistent dans la population. Puis, par interactions successives, de plus en plus d'individus emploient le mot « stylo », et le lexique se stabilise.

Avez-vous testé la validité de cette hypothèse ?

Oui. C'était en 1999. J'étais alors directeur du laboratoire d'intelligence artificielle de Sony, à Paris. J'avais mis en place une expérience de grande ampleur pour étudier le phénomène de propagation des mots dans une population d'agents artificiels. Par agent artificiel, j'entends une entité informatique capable de se télécharger dans un robot. Les robots impliqués dans cette expérience étaient de simples « têtes parlantes », des systèmes dotés d'un micro, d'un haut-parleur, d'une caméra mobile et d'un ordinateur de bord connecté à Internet. Nous les avions installés sur plusieurs sites : au palais de la Découverte à Paris, à Londres, à Tokyo... Dans chaque ville, deux robots étaient positionnés devant un tableau blanc sur lequel étaient représentées des figures géométriques de couleurs différentes. Téléchargés dans ces robots, les agents artificiels étaient programmés pour se prêter à un jeu de langage. L'un d'entre eux (l'enseignant) devait choisir une figure et la faire deviner à l'autre agent (l'apprenant) en prononçant à voix haute un mot produit à partir de sons élémentaires puisés dans sa mémoire de travail. L'apprenant devait alors interpréter la signification du mot prononcé en pointant sa caméra vers la figure qu'il pensait correspondre. En cas d'erreur, l'enseignant pointait sa caméra en direction de la bonne figure, et l'apprenant enregistrait cette information. Pour toute nouvelle partie, les agents pouvaient changer de rôle et se télécharger dans n'importe quel robot à travers le monde. Après quelques milliers d'interactions, un vocabulaire commun a émergé pour définir chacune des figures géométriques, des couleurs... et a été adopté par l'ensemble des agents. En augmentant la population des agents, et après 500 000 échanges de mots entre plus d'un millier d'agents, le lexique continue d'évoluer, mais à la marge. Ce lexique comprend des mots simples comme « kazozo » pour désigner la couleur verte, mais aussi des mots correspondant à des notions plus complexes comme « maliwena », qui signifie « en haut à gauche, niveau élevé de rouge ».

Le mécanisme d'auto-organisation est-il suffisant pour comprendre le langage ?

Non. Il ne rend compte que du phénomène de propagation et de partage d'un vocabulaire commun décrit plus haut. Mais il n'explique en aucun cas la création et l'évolution du langage. Comment les mots sont créés au départ, comment la grammaire peut émerger, évoluer et gagner en complexité dans les populations humaines ? Pour répondre à cette question, je me suis inspiré de la science de l'évolution qui essaie de déterminer les mécanismes à l'origine de l'apparition des espèces. J'avais l'intuition que le langage faisait également l'objet d'un processus évolutif : les mots, les groupes de mots, la grammaire et la syntaxe sélectionnés sont ceux qui sont les plus efficaces pour que les individus puissent se comprendre. Pour vérifier la pertinence de ce mécanisme de « sélection culturelle », j'ai implémenté un algorithme qui incite les robots à sélectionner les stratégies de communication qui, à la fois, maximisent le succès de la communication et minimisent l'effort cognitif à fournir.

Quels résultats avez-vous obtenus ?

Dotés des mécanismes de sélection culturelle et d'auto-organisation, des robots qui n'avaient aucune grammaire au départ en viennent à partager et à adopter des règles grammaticales communes, pourvu qu'ils interagissent suffisamment longtemps (2). Les robots sont dotés d'un ensemble d'outils à partir desquels ils peuvent créer leur propre grammaire (3). À chaque nouvelle expérience, une grammaire différente émerge. C'est le principe même de l'évolution : il n'est pas possible de prévoir les étapes de l'évolution, mais on peut comprendre comment ça marche. Faire émerger une grammaire chez des robots, c'était une première à tous les points de vue. En reproduisant des expériences analogues à celles des têtes parlantes, nous avons également mis en évidence que la grammaire n'apparaît pas d'un seul coup, mais en plusieurs étapes. Au départ, elle est plutôt de nature sémantique : elle exprime le rôle des objets dans l'action, puis elle gagne en complexité de façon graduelle.

Aujourd'hui, vous continuez d'étudier la grammaire avec ces outils d'intelligence artificielle, un domaine baptisé « linguistique évolutionnaire ». Quel genre d'expériences menez-vous ?

À l'Institut de biologie évolutive de Barcelone, mon équipe et moi-même examinons certains aspects spécifiques de la grammaire. Par exemple, en français, il existe des phrases nominales, des phrases verbales, des phrases principales, etc. Or, avec des robots, on voit émerger ce genre de structure hiérarchique, ce qui nous permet d'étudier les mécanismes de leur apparition. Nous examinons également le phénomène d'accord sujet-verbe, ou encore les processus d'apparition et d'évolution des cas comme l'accusatif, le datif... (4) À titre d'exemple, au XIIIe siècle, la langue anglaise comportait un système de cas, avec la même complexité que le latin, avant de disparaître. L'anglais a évolué, et c'est aujourd'hui l'ordre des mots dans la phrase qui s'est substitué aux cas. C'est ce genre de problèmes très concrets que l'on étudie aujourd'hui.

Sur le plan théorique, qu'apporte l'ensemble de vos travaux aux sciences humaines ?

En linguistique, deux théories s'affrontent pour expliquer notre capacité pour le langage. Selon la première, proposée par Noam Chomsky dans les années 1950, les hommes sont dotés d'une capacité innée pour le langage. Il existerait une « grammaire universelle » ancrée dans le cerveau dès la naissance et un organe biologique dédié au langage. Une autre théorie, dite « constructiviste », défendue par le psychologue suisse Jean Piaget, considère au contraire que l'acquisition du langage est le fruit d'un apprentissage en plusieurs étapes. En interagissant avec son environnement, l'enfant acquerrait le langage de façon graduelle. Sans nier le rôle central du cerveau dans cette capacité langagière, la théorie constructiviste s'oppose à l'idée d'un organe spécifique au langage. Vous l'aurez compris, je suis plutôt partisan de la théorie constructiviste. De mon point de vue, le langage est un système dynamique, évolutif, émergent, et non pas un système fixe et inné comme le prétend Chomsky : les mécanismes que j'ai testés indiquent clairement que les robots n'ont pas de programme dédié au langage. Ils sont seulement dotés de mécanismes généraux qui leur permettent de créer leur propre vocabulaire et règles grammaticales. Certains de mes anciens étudiants comme Pierre-Yves Oudeyer, aujourd'hui directeur de recherche à Inria, et François Pachet, mon successeur à la direction du CSL, ont montré que les agents artificiels utilisaient les mêmes mécanismes pour interpréter les sons et la musique que pour le langage. Autrement dit, les capacités cognitives mobilisées par les machines ne sont pas spécifiques au langage. Si l'on transpose ce résultat à la linguistique, cela signifie que les circuits neuronaux sollicités pour le langage sont également mobilisés pour d'autres tâches comme la reconnaissance des sons et de la musique. Il n'existerait donc pas d'organe dédié au langage, contrairement à ce que propose Noam Chomsky.

Pensez-vous que vos travaux mettent un terme au débat inné-acquis ?

Là, on entre dans l'histoire des sciences. Darwin a mis dix ans avant d'écrire De l'origine des espèces. Après la parution de l'ouvrage, la théorie de la sélection naturelle a été acceptée très vite dans la communauté scientifique. Mais ce n'est pas toujours aussi simple. Le biologiste Gregor Mendel, par exemple, avait fait toutes les expériences nécessaires pour valider ses principes concernant l'hérédité biologique. Il avait publié ses idées dans un obscur journal allemand, mais elles ont été oubliées pendant vingt ans avant de ressurgir et d'être reprises. Pour les idées que je viens de décrire, nous avons des expériences reproductibles qui valident un certain nombre de mécanismes. Malgré tout, nous sommes encore dans une phase d'écriture de livres et de débats. Aujourd'hui, les résistances sont encore fortes de la part des chercheurs en sciences humaines. Pour eux, ces expériences ne sont pas pertinentes. Et pour cause, la méthode que nous employons constitue un changement de paradigme qui nécessite de redéfinir ce que l'on accepte comme preuve. En sciences humaines, un chercheur écrit un livre, puis un autre chercheur donne sa réponse. La matière du débat est l'histoire des idées, et les preuves sont des références à des figures d'autorité. Dans notre approche de linguistique évolutionnaire, l'autorité ne joue pas. Seules les preuves mathématiques et les expériences computationnelles et de robotique comptent pour déterminer si un modèle est valable du point de vue théorique. J'essaie de me battre pour que ces preuves formelles soient mieux comprises et acceptées dans les sciences humaines. Mais pour l'heure, c'est un choc des cultures !
BIO
22 JANVIER 1952 Naissance dans la région d'Anvers, en Belgique.

1977-1979 Il obtient un poste de chercheur au laboratoire d'intelligence artificielle du MIT, à Cambridge, aux États-Unis. En parallèle, il suit les cours de linguistique de Noam Chomsky.

1980 Il rejoint le centre de recherche de la société pétrolière Schlumberger-Doll.

1983 Il fonde le laboratoire d'intelligence artificielle de l'université libre néerlandophone de Bruxelles (VUB).

1985-1996 Il cofonde et dirige le département de sciences computationnelles de la VUB.

1996 : Il fonde le Computer Science Laboratory de Sony, à Paris.

2011 Il rejoint l'Institut de biologie évolutive au sein de l'Institution catalane de recherche et d'études avancée, à Barcelone.


 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 5

 

Qu'est-ce que l'intelligence artificielle ?
Philippe Pajot dans dossiers 18
daté juin-juillet 2016 -


« Pour moi, la définition la plus simple de l'intelligence artificielle serait : l'ensemble des techniques qui permet aux machines - ordinateurs, robots - de faire des tâches habituellement dévolues aux humains et aux autres animaux. Toutefois, les définitions de l'intelligence artificielle sont multiples et difficiles à énoncer. Même pour les informaticiens, ce que recouvre l'intelligence artificielle change avec le temps. On peut dire, en plaisantant à moitié, que les problèmes de mathématiques ou d'informatique non résolus en font partie. Et que dès qu'ils sont résolus, ils n'en font plus partie...

ÉVALUER LA COMPLEXITÉ DES TÂCHES
L'une des difficultés à appréhender cette notion mouvante réside dans le fait qu'on a beaucoup de mal à s'imaginer, en tant qu'humain, ce qui est vraiment difficile à réaliser pour une machine. Être parvenu à concevoir des machines qui jouent aux échecs mieux que les humains avant d'avoir su créer une machine qui reconnaît une table ou une personne sur une image est a priori très surprenant.

En fait, il se trouve que jouer aux échecs est bien plus facile que ce que l'on pensait. C'est compliqué pour les humains, mais très simple pour une machine. À l'inverse, la perception visuelle - voir et reconnaître son environnement - nous semble une tâche aisée, alors qu'elle mobilise un tiers de nos ressources cérébrales et qu'elle requiert beaucoup d'énergie. Mais le fait que nous effectuons inconsciemment cette tâche en permanence et que tout le monde en est capable nous la fait paraître facile. Nous estimons mal la complexité des tâches que l'on accomplit. La récente domination du programme AlphaGo, conçu par l'équipe de Google DeepMind, contre des champions de go illustre très bien ce propos (lire page 76). C'est un beau résultat d'intelligence artificielle, mais dans un domaine où les humains ne sont pas particulièrement doués. Un humain a besoin de très nombreuses années de pratique pour bien jouer au go. Les joueurs de haut niveau y associent même une sorte de mysticisme lié à cet apprentissage.

Avec l'apprentissage automatique - le fait pour une machine d'apprendre sans avoir été explicitement programmée - qui est l'une des grandes voies de l'intelligence artificielle, cette capacité laborieuse chez les humains a été remplacée par une intuition pseudo-mécanique avec les réseaux de neurones. En combinant cet apprentissage automatique et la recherche arborescente, qui consiste à explorer plusieurs possibilités - ce que les humains font aussi dans une certaine mesure -, on obtient un programme « intelligent », capable de battre les champions de go. Cette victoire de l'intelligence artificielle est due au fait que la machine est si rapide qu'elle peut s'entraîner sur plus de parties en quelques mois que ne pourra le faire n'importe quel joueur humain durant toute sa vie.

BIENTÔT L'INTELLIGENCE UNIVERSELLE ?
Or cette belle réussite de l'apprentissage automatique a quelquefois été interprétée comme la voie vers une intelligence artificielle universelle, capable aussi bien de jouer au go que de conduire une voiture. Ce n'est pas le cas. Même si le résultat est certes impressionnant, il faut plutôt voir cette réussite comme une victoire à un jeu qui recouvre des situations particulièrement simples pour les ordinateurs et particulièrement compliquées pour les humains, ainsi que nous l'avons dit.

Toutefois, l'intelligence artificielle universelle, non spécialisée, est quelque chose d'envisageable. Et je dirai même de très probable, même si j'ignore dans combien de temps nous en disposerons. Tous les pronostics qui ont été faits jusqu'à présent ont été optimistes mais les arguments utilisés sont un peu trompeurs. Par exemple, certains disent que, d'ici à une trentaine d'années, nous disposerons de machines dont la puissance de calcul sera à peu près équivalente à la capacité du cerveau humain et qu'on pourra alors concevoir une intelligence universelle. Je ne pense pas que cela suffise. À mon avis, le problème est qu'on ne connaît toujours pas les mécanismes de l'intelligence et de l'apprentissage. Certes, les machines effectuent de plus en plus de tâches variées, mais il y a beaucoup de choses qu'on n'arrive pas à leur faire faire. En particulier, on peut mettre le doigt sur au moins un obstacle qui nous reste à franchir, ou plutôt un principe qu'on n'a pas encore trouvé, c'est ce qu'on appelle l'apprentissage prédictif, ou encore non supervisé. C'est la forme d'apprentissage dominante chez les animaux.

L'APPRENTISSAGE PRÉDICTIF RESTE UN OBSTACLE
L'apprentissage, qu'il soit ou non automatique, se décline en effet en trois grandes catégories : l'apprentissage par renforcement, l'apprentissage supervisé et l'apprentissage prédictif/non supervisé. L'apprentissage par renforcement ressemble un peu à ce qu'on fait lorsqu'on entraîne un animal de cirque ou de compagnie : on attend que la machine fasse une action qui est correcte ; et quand cela arrive, on lui donne une sorte de récompense. Chez la machine, cela fonctionne bien à condition de faire des millions d'essais. Quand l'environnement dans lequel travaille la machine est artificiel, tel un jeu vidéo ou le jeu de go, on peut effectivement jouer des millions de parties. Mais cela ne fonctionne pas dans le monde réel, qui est plus incertain et où un cycle d'apprentissage peut prendre très longtemps. Entraîner un robot par cette méthode reste ainsi très compliqué. Autrement dit, les possibilités de l'apprentissage par renforcement pur sont certes spectaculaires, comme l'illustre la domination de la machine au jeu de go, mais restent limitées.

L'apprentissage supervisé recouvre, lui, la majorité des applications de l'apprentissage automatique et de l'intelligence artificielle. Le principe ? C'est un peu comme montrer un livre d'images à un enfant, où figurent un éléphant, une girafe, une chaise... tout en nommant ce qu'on y voit et attendre que l'enfant sache les reconnaître en les nommant lui-même. Pour les machines, cela fonctionne bien, à condition, là aussi, d'avoir des millions d'exemples à leur livrer. Et c'est ce que l'on parvient à faire depuis quelques années, par exemple pour la reconnaissance d'images sur Internet (lire page 90).

Le dernier type d'apprentissage est celui que l'on met en oeuvre simplement par l'observation. Quand on est bébé, on apprend que les objets continuent d'exister quand on ne les voit pas. On apprend que l'on peut bouger certains objets et d'autres pas... que les objets tombent... que le monde est tridimensionnel... Tout cela s'acquiert spontanément par observation du monde et en agissant dans le monde. Ce mode d'apprentissage qui nous est familier est encore difficile d'accès pour les machines. Il est mal aisé de formaliser le problème mathématiquement et il n'est pas facile de mesurer objectivement la performance d'un système d'apprentissage prédictif.

Par exemple, montrons une vidéo à une machine et mettons le film sur pause. Si l'on demande à la machine de prédire la situation qui va suivre, cela lui est presque impossible, car le monde est intrinsèquement non prédictible. Autrement dit, beaucoup de choses peuvent se passer qui sont toutes plausibles et on ne sait pas encore lui faire comprendre correctement que, dans la vidéo, une seule chose va se produire parmi toutes les choses plausibles. Par exemple, si je tiens un crayon debout sur sa pointe et que je le lâche, je sais qu'il va tomber, mais je ne sais pas de quel côté. Avec les méthodes classiques, la machine sera pénalisée pour avoir prédit le mauvais côté. Comment peut-elle découvrir par elle-même l'ensemble des futurs plausibles et que peu importe la direction précise de la chute ? Ce n'est qu'un exemple, mais tant qu'on n'aura pas trouvé les principes sous-jacents à cet apprentissage non supervisé en présence d'incertitude, qui permet à la machine d'apprendre « toute seule » en observant le spectacle du monde, l'intelligence artificielle universelle restera un objectif lointain.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

Les nouveaux défis de la spintronique

 

spintronique

24.05.2016, par Sylvain Guilbaud
Spintronique Réseau de structures magnétiques en vortex.
 C. PFEIDERER/TUM
Partager
Exploitant à la fois les propriétés électriques et magnétiques des électrons, la spintronique a permis dès les années 1990 une explosion de la capacité de stockage des disques durs. Elle offre aujourd’hui de nouvelles pistes pour le futur des technologies de l’information.
Moins de dix ans ont été nécessaires entre la démonstration en laboratoire par Albert Fert et Peter Grünberg, à la fin des années 1980, de l’effet emblématique de la spintronique, la magnéto-résistance géante, et la commercialisation des premiers disques durs utilisant cette propriété par IBM en 1997. Rarement un transfert de technologie entre la recherche fondamentale et la production de masse aura été aussi rapide. Voilà qui illustre l’évolution fulgurante de la spintronique depuis une vingtaine d’années.

Une électronique du spin

La spintronique est le mariage de l’électronique, qui utilise la charge électrique des électrons pour transmettre de l’information, et du spin, une autre propriété intrinsèque des électrons. Le spin est une caractéristique microscopique purement quantique, qui n’a pas d’équivalent à notre échelle. Mais on peut se représenter, de manière schématique, un électron comme un petit aimant pouvant prendre seulement deux orientations : un spin « vers le haut » ou un spin « vers le bas ». « Cette propriété était connue depuis les débuts de la physique quantique, mais il n’y avait pas eu d’idée pour l’utiliser en électronique », souligne Yannick Dappe, chercheur au Service de physique de l’état condensé (Spec)1 du CEA Saclay. Dans les années 1960-1970, des théories sont élaborées pour décrire comment les courants de spins se déplacent dans les matériaux magnétiques. Dans les années 1980, le développement des nanotechnologies, en particulier la maîtrise des dépôts métalliques, permet de créer des matériaux possédant les couches d’une épaisseur de seulement quelques nanomètres qui sont nécessaires à l’exploitation du spin des électrons.

Spintronique Représentation schématique du spin de l'électron. Dans une image classique, un spin +1/2 correspond à une rotation de l'électron sur son axe, donnant lieu à un moment magnétique, un spin -1/2 correspond à la même rotation en sens inverse, donnant lieu à un moment magnétique de signe opposé.
 S. SMOGUNOV; Y.-J. DAPPE/SPEC
Partager
Multiplier par mille la densité de stockage

C’est dans de telles structures, composées d’une couche d’un métal normal, comme le chrome, en sandwich entre deux couches de métal ferromagnétique, comme le fer, que l’effet de magnéto-résistance géante est observé. Les matériaux ferromagnétiques soumis à un champ magnétique alignent leur aimantation dans la direction de ce champ. De plus, dans ces matériaux, les électrons ne rencontrent pas la même résistance en fonction de leur spin. Quand les aimantations des deux couches ferromagnétiques sont parallèles, les électrons qui se propagent bien dans l’une se propagent bien dans l’autre : la résistance globale est faible. Au contraire, si les aimantations des couches ferromagnétiques sont antiparallèles, les électrons qui se propagent bien dans l’une se propageront mal dans l’autre : la résistance globale sera forte. Cette différence de résistance induite par un champ magnétique peut être très forte, d’où le nom de magnéto-résistance géante. Sa découverte vaudra le prix Nobel de physique à Albert Fert et Peter Grünberg en 2007.

Cet effet est employé dans les têtes de lecture des disques durs, dont l’objectif est de lire l’orientation magnétique des domaines qui se présentent successivement à la surface du disque dur et qui constituent les bits d’information. La sensibilité des têtes de lecture à magnéto-résistance géante permet de lire une information codée sur des domaines plus petits, et donc d’augmenter la densité de stockage d’un facteur voisin de 1 000. « Les capteurs de champ magnétique à base de magnéto-résistance géante ont aussi trouvé d’autres applications : dans les voitures pour réaliser des capteurs de mouvements de rotation ou de translation ou en technologie médicale pour analyser des concentrations de molécules marquées par une nanoparticule magnétique », précise Albert Fert.

Spintronique Dispositif permettant le dépôt sur un substrat de couches métalliques magnétiques ultraminces dont l'empilement aboutit à l'effet de magnéto-résistance géante (GMR).
 H. RAGUET/CNRS PHOTOTHEQUE
Partager
Des mémoires de plus en plus rapides

Si le disque dur reste la base de la mémoire de nos ordinateurs, il a l’inconvénient d’être lent d’accès. Une milliseconde est nécessaire pour lire une information. La mémoire vive de type RAM, très rapide, le supplée. Mais celle-ci est volatile : il faut lui fournir en permanence de l’énergie sous peine de perdre l’information. Il s’agit là d’une source de consommation très importante des ordinateurs. La spintronique permet de réaliser des « mémoires magnétiques » ou MRAM, non volatiles, rapides et économes en électricité. Les jonctions tunnels magnétiques qui les composent sont également constituées de deux couches ferromagnétiques, séparée cette fois par une barrière isolante. L’effet de magnéto-résistance s’en trouve fortement augmenté. On peut stocker de l’information dans la configuration d’aimantation d’une jonction tunnel et mettre des millions de ces jonctions en réseau pour réaliser une MRAM. La première génération de ces composants est arrivée sur le marché en 2006, mais la densité de stockage n’était pas encore suffisante pour s’imposer dans les ordinateurs. « En revanche, les MRAM ont trouvé leur application dans l’avionique et le spatial, poursuit Albert Fert. Car, contrairement aux mémoires classiques, elles sont peu perturbées par les rayonnements dans la haute atmosphère. »

Ces mémoires
bouleverseront le
paradigme actuel
qui sépare, dans
un ordinateur,
mémoire vive
et mémoire
de stockage.


Le grand espoir vient de la nouvelle génération de MRAM développée actuellement. Elle intègre un autre effet majeur de la spintronique, le transfert de moment de spin. Celui-ci permet de renverser l’aimantation d’une couche, et donc d’écrire une information dans la mémoire, grâce à un simple courant électrique plutôt qu’en appliquant un champ magnétique. « Ces mémoires s’implanteront vraisemblablement dans les ordinateurs d’ici quelques années et bouleverseront alors le paradigme actuel qui sépare, dans un ordinateur, mémoire vive et mémoire de stockage », annonce Martin Bowen, physicien à l’Institut de physique et chimie des matériaux de Strasbourg2.

Spintronique Les mémoires MRAM pourraient à terme remplacer les mémoires Flash actuellement utilisées dans les disques durs SSD.
 Ralf ROLETSCHEK/fahrradmonteur.de/WIKIMEDIA COMMONS
Partager
Du stockage à la transmission de l’information

Au-delà de ces applications, la spintronique fait toujours l’objet de recherches fondamentales dont le panorama s’est diversifié. D’une part, les chercheurs tentent d’aller toujours plus loin dans la spintronique « classique », celle employée dans les dispositifs à magnéto-résistance, qui consiste à placer différents matériaux sur le chemin des électrons pour influencer la circulation des spins. « Au lieu d’utiliser des couches de métal normal, comme dans les premiers dispositifs, ou des barrières isolantes, comme dans les jonctions tunnels magnétiques, on peut aussi tester d’autres matériaux, comme des assemblées de molécules, pour filtrer les électrons en fonction de leur spin », explique Yannick Dappe. C’est le principe de la spintronique moléculaire sur lequel le chercheur effectue des travaux théoriques avec son collègue du Spec Alexander Smogunov. Des matériaux comme le graphène sont aussi très étudiés. Plutôt que de simplement stocker l’information, la spintronique pourrait aussi aider à la transmettre. Pour cela, il faut développer des sources performantes de courants polarisés en spin. « Cela nécessite de bien comprendre comment des matériaux dissemblables tels qu’un métal ferromagnétique et des molécules partagent leur charge électronique lorsqu’ils forment une interface, détaille Martin Bowen. Un autre enjeu est de miniaturiser ces concepts à une nano-échelle, par exemple en utilisant les propriétés électroniques des défauts de structure, comme lorsque l’absence d’un atome créé une lacune. »

De nouvelles façons de manipuler les spins ont aussi émergé ces dernières années. L’une d’elle est la spin-orbitronique. L’idée est d’utiliser un effet relativiste, le couplage spin-orbite, très important dans les métaux lourds comme le bismuth ou le platine. Parmi les pistes ouvertes par ce domaine se trouve la possibilité de stocker et transporter de l’information grâce aux skyrmions. « Ce sont des petits nœuds de spins de quelques nanomètres avec lesquels on peut mémoriser une information, comme avec les boules d’un boulier. On peut ensuite déplacer ces skyrmions le long d’une piste jusqu’à un nanocapteur pour lire l’information codée dans un train de skyrmions », explique Albert Fert, dont l’équipe au sein de l’unité mixte de recherche CNRS/Thales se penche en particulier sur ce champ de recherche.

Alors que la fabrication des composants à base de semi-conducteurs commence à atteindre ses limites en termes de miniaturisation, la spintronique s’impose petit à petit comme une technologie complémentaire permettant de dépasser certaines de ces limites et de prendre probablement à moyen terme le relai de l’électronique classique. Outre les nouveaux composants qu’elle propose, comme les MRAM, la spintronique pourrait participer à la définition de nouvelles architectures informatiques, c’est-à-dire de nouvelles façons de faire les calculs. L’électronique neuromorphique propose par exemple de s’inspirer du fonctionnement du cerveau, en particulier des synapses, qui se transforment en fonction de l’information qu’elles reçoivent.

Notes
1. Unité CNRS/CEA.
2. Unité CNRS/Univ. de Strasbourg.

 

DOCUMENT    cnrs  le  journal     LIEN

Inscrivez  le  titre  complet  dans  la  rubrique  " cnrs  le  journal "

 
 
 
 

ONDES GRAVITATIONNELLES

 

Paris, 11 février 2016
Les ondes gravitationnelles détectées 100 ans après la prédiction d'Einstein

LIGO ouvre une nouvelle fenêtre sur l'Univers avec l'observation d'ondes gravitationnelles provenant d'une collision de deux trous noirs. Pour la première fois, des scientifiques ont observé des ondulations de l'espace-temps, appelées ondes gravitationnelles, produites par un événement cataclysmique dans l'Univers lointain atteignant la Terre après un long voyage. Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l'Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d'une telle collision de deux trous noirs avait été prédite, mais ce phénomène n'avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l'Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l'objet d'une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l'Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.
Clin d'œil de l'histoire : c'est 100 ans tout juste après la publication de la théorie de la relativité générale d'Einstein, qu'une équipe internationale vient d'en confirmer l'une des prédictions majeures, en réalisant la première détection directe d'ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.

L'analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d'estimer que les deux trous noirs ont fusionné il y a 1.3 milliard  d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil. La comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L'entrée en service d'Advanced Virgo fin 2016 permettra justement cela.

Selon la théorie de la relativité générale, un couple de trous noirs en orbite l'un autour de l'autre perd de l'énergie sous forme d'ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l'ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2. C'est cette bouffée d'ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.

Une preuve indirecte de l'existence des ondes gravitationnelles avait été fournie par l'étude de l'objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d'un pulsar en orbite autour d'une étoile à neutrons. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l'énergie sous la forme d'ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d'années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l'évolution d'un autre système binaire, formé de deux trous noirs, lorsqu'ils ont fusionné en un trou noir unique.

Détecter un phénomène aussi insaisissable1 que les ondes gravitationnelles aura demandé plus de 50 ans d'efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd'hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l'astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu'émettent certains objets astrophysiques, comme les trous noirs.

Autour de LIGO s'est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L'équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), de Leibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff,  Birmingham, et d'autres universités du Royaume-Uni, et à l'Université des îles Baléares en Espagne.

Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l'Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l'interféromètre Virgo.

A l'origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d'Alain Brillet et d'Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l'INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu'en 2011.

Le projet Advanced Virgo, financé par le CNRS, l'INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d'ici la fin de l'année. En outre, d'autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd'hui.

En s'engageant depuis plus de vingt ans dans la réalisation de Virgo puis d'Advanced Virgo, la France s'est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l'exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l'analyse des données qu'à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées :
-    le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
-    le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d'Azur/Université Nice Sophia Antipolis), à Nice ;
-    le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
-    le Laboratoire d'Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
-    le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
-    le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.

La découverte a été rendue possible par les capacités accrues d'Advanced LIGO, une version grandement améliorée qui accroit la sensibilité des instruments par rapport à la première génération des détecteurs LIGO. Elle a permis une augmentation notable du volume d'Univers sondé – et la découverte des ondes gravitationnelles dès sa première campagne d'observations. La National Science Foundation des Etats-Unis a financé la plus grande partie d'Advanced LIGO. Des agences de financement allemande (Max Planck Society), britannique (Science and Technology Facilities Council, STFC) et australienne (Australian Research Council) ont aussi contribué de manière significative au projet. Plusieurs des technologies clés qui ont permis d'améliorer très nettement la sensibilité d'Advanced LIGO ont été développées et testées par la collaboration germano-britannique GEO. Des ressources de calcul significatives ont été allouées au projet par le groupe de calcul Atlas de l'AEI à Hanovre, le laboratoire LIGO, l'université de Syracuse et l'Université du Wisconsin à Milwaukee. Plusieurs universités ont conçu, construit et testé des composants clés d'Advanced LIGO : l'université nationale australienne, l'université d'Adélaïde, l'université de Floride, l'université Stanford, l'université Columbia de New York et l'université d'Etat de Louisiane.

 

 DOCUMENT         cnrs        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google