ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

MOTEURS MOLÉCULAIRES

 

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE


De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires (naturels). Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le "fioul" biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable. L'élaboration de "machines" et "moteurs" moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un "moteur". D'ores et déjà, certaines équipes de chimiste ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des "muscles" moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe. Quelques exemples représentatifs seront discutés lors de l'exposé. Un certain nombre de questions ayant trait aux applications potentielles du domaine de "nanomécanique moléculaire" seront abordées : - "ordinateurs moléculaires", pour lesquels certains chercheurs fondent de grands espoirs, stockage et traitement de l'information au niveau moléculaire, - robots microscopiques, capables de remplir une grande variété de fonctions allant de la médecine à la vie de tous les jours, - transport sélectif de molécules ou d'ions à travers des membranes.

 

VIDEO                 CANAL  U                LIEN

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

LE TEMPS

 

Texte de la 188e conférence de l’Université de tous les savoirs donnée le 6 juillet 2000.


Le temps, son cours et sa flèche
par Etienne KLEIN


Un peu de poésie pour commencer
C'est à un physicien britannique, Arthur Eddington, que le temps doit d'être équipé (depuis 1929) d'un emblème, la flèche, que la mythologie attribuait jusque-là à Éros, le dieu de l'amour, représenté comme un enfant fessu et ailé qui blesse les cœurs de ses flèches aiguisées. La flèche du temps ne symbolise plus le désir amoureux, hélas, mais le sentiment tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour les physiciens, elle se traduit par l'irréversibilité de certains phénomènes physiques. Elle se distingue du cours même du temps, avec lequel elle est pourtant souvent confondue.
Avant d'entrer dans le vif du sujet, je voudrais vous proposer quelques phrases d'écrivains ou de poètes, qui chacune à sa façon, évoquent soit le cours du temps, soit sa flèche, soit un mélange des deux.
Commençons par Sacha Guitry : « Madame est en retard. C’est donc qu’elle va venir. » C'est le cours du temps qui est ici évoqué, d'une façon non dramatique mais cruellement misogyne. Continuons avec Georges Perros, l'auteur des Papiers Collés : « L’horloge sonne. C’est le temps qui tâte son pouls. » Voilà sans doute la façon la plus neutre d'évoquer le fait que le temps passe et de dire qu'il a un cours bien défini. Poursuivons avec Robert Desnos : « La feuille qui tombe et la roue qui tourne te diront que rien n’est perpétuel sur terre. » Cette phrase juxtapose l'idée de temporalité à celle de finitude. Tristan Tzara, un autre poète surréaliste, enfonce le clou d'une façon qui fait froid dans le dos : « Je me souviens d’une horloge coupant des têtes pour indiquer les heures. » C'est que le temps a à voir avec l'irréversibilité et avec la mort. Loin de pouvoir tuer le temps, c’est lui qui nous dévore. L'Antiquité associait d'ailleurs la planète Saturne au cruel titan Kronos qui dévorait ses enfants au fur et à mesure que son épouse Rhéa les mettait au monde. Mais comme il n'est pas question aujourd'hui de sombrer dans la délectation morose en associant trop directement temps et mort, nous terminerons ce petit florilège par ces mots de Jorge Luis Borges (dans Aleph), qui rappellent que la valeur de la vie, la vie comme valeur, s'enracine justement dans la connaissance de son essentielle précarité : « La mort rend les hommes précieux et pathétiques. Ils émeuvent par leur condition de fantômes ; chaque acte qu'ils accomplissent peut être le dernier ; aucun visage qui ne soit à l'instant de se dissiper comme un visage de songe. Tout chez les mortels a la valeur de l'irrécupérable et de l'aléatoire. »
Qu'est-ce que temps ?
Nos réflexions sur le temps sont presque toujours confuses, sans doute parce que nous ne savons pas trop de quel type d'objet il s’agit. Le temps est-il une chose ? Est-ce une idée ? Est-ce une apparence ? N'est-ce qu'un mot ? Existe-t-il en dehors de l’ « âme », selon le terme de saint Augustin ? Est-il un produit de la « conscience », selon le terme de Husserl ? Il est difficile de répondre à ces questions, mais très souvent on croit que les scientifiques, et notamment les physiciens, seront un jour capables de nous révéler la nature du temps, ou du moins d'en proposer une définition qui serait plus exacte que les autres. Il s'agit sans doute d'un malentendu, car il est toujours difficile de définir les mots importants. Peut-être est-ce même impossible puisque, si ces mots sont vraiment fondamentaux, on ne peut pas les rapporter à autre chose qu'eux-mêmes. Définir, c’est avant tout ramener une conception donnée à une autre plus fondamentale. Mais qu’y a-t-il de plus fondamental que ce qui est déjà fondamental ? Rien, et c’est sans doute pourquoi le philosophe Martin Heidegger avait raison de remarquer que les scientifiques posent finalement très peu de questions comme « Qu’est-ce que le temps ? », « Qu’est-ce que l’espace? », « Qu’est-ce que la matière? », alors que c’est souvent la réponse à ces questions que l’on attend d’eux.
On oublie trop souvent que la puissance de la physique vient de ce qu'elle a su limiter ses ambitions. Elle ne s'intéresse pas à toutes les questions qui se posent dans nos têtes, loin s'en faut. Elle prend soin de ne sélectionner que celles qui relèvent de ses compétences et de sa méthode. Par exemple, elle n'essaie pas de résoudre la question de la nature du temps, ou du moins, si elle le fait, c'est seulement à la marge de ses théories. Elle cherche plutôt la meilleure façon de représenter le temps, ce qui est une tout autre affaire.
Attardons-nous deux minutes sur l'épineuse question de la définition du temps. Chacun comprend de quoi on veut parler lorsque le mot temps est prononcé, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l’est pas. Bien sûr, on peut tenter de définir le temps et les philosophes n'ont pas manqué de le faire : le temps est ce qui passe quand rien ne se passe, il est ce qui fait que tout se fait ou se défait, il est l’ordre des choses qui se succèdent, il est le nombre du mouvement selon l'avant et l'après, il est le devenir en train de devenir. Mais toutes ces expressions contiennent déjà l'idée du temps (par exemple, l’idée de « passage » présuppose l’idée d’une temporalité, c’est-à-dire de quelque chose qui s’écoule). Elles ne sont donc que des métaphores du temps, impuissantes à rendre compte de sa véritable nature. Cela n'est pas très grave, car il n'est pas nécessaire de définir le temps pour en proposer une représentation. De fait, les physiciens sont parvenus à en faire un concept opératoire sans être capables de le définir précisément.
La physique et le temps
Y flairant une source de paradoxes, les philosophes n’ont cessé d’interroger la réalité du temps, et ce depuis l’Antiquité grecque. Souvenons-nous par exemple de la solution avancée par Parménide et les Éléates, qui proposaient de confondre la matière et l'espace, excluant par là même le vide et se trouvaient contraints de penser le mouvement comme une simple translation, c'est-à-dire comme une succession de positions fixes. Du coup, le temps leur demeurait inexplicable, et c'est pourquoi ils s'attachaient à le démontrer impossible et à tout décrire à partir de l'immobilité. Souvenons-nous également de Héraclite et des atomistes, qui prirent un autre parti : ils proposaient de confondre la matière avec le mouvement et affirmaient la réalité du vide. Selon eux, tout est mobile, tellement mobile même qu'on ne peut pas imaginer de point fixe pour évaluer les changements d'état ni expliquer quoi que ce soit.
L'influence de Parménide a été très forte en physique. En effet, la physique a longtemps cherché à éliminer le temps. Le temps est associé au variable, à l’instable, à l'éphémère, tandis que la physique, elle, est soi-disant à la recherche de rapports qui soient soustraits au changement. Lors même qu’elle s’applique à des processus qui ont une histoire ou une évolution, c’est pour y discerner soit des substances et des formes, soit des lois et des règles indépendantes du temps. Mais dans sa pratique, elle se heurte évidemment au temps, d'une façon telle que la question de savoir si le monde doit être vu plutôt comme un système ou plutôt comme une histoire continue de se poser. La physique a-t-elle vocation à décrire l'immuable ou bien doit-elle être la législation des métamorphoses ?
Le temps existe-t-il ?
Aristote a posé la question de l'existence du temps d'une façon qui a été abondamment discutée : puisque le passé n'est plus, puisque que l'avenir n'est pas encore, puisque le présent lui-même a déjà fini d'être dès qu’il a commencé d’exister, comment pourrait-il y avoir un « être » du temps ? Le temps a beau contenir la totalité de ce qui est, nous ne parvenons pas à le penser autrement que comme une limite toujours disparaissante entre deux néants, le passé d'un côté, l’avenir de l'autre. Mais un être qui n’est qu’en cessant d’être, est-ce encore un être ?
Si l’on peut ainsi s’interroger sur l’existence même du temps, il est en revanche très difficile de dire le monde sans faire appel à lui, et tout aussi difficile de nier les marques indélébiles qu’il imprime sur les choses et sur nos propres corps. Le temps se présente à nous d'une façon ambiguë : d'une part, il est ce qui fait que les choses persistent à être (on pourrait donc dire, plus plaisamment, qu'il est le moyen le plus commode qu'a trouvé la nature pour que tout ne se passe pas d'un seul coup) ; d'autre part, il est ce qui les fait changer. Le présent, qui est finalement la seule chose qui nous soit présente, a en effet ceci de paradoxal qu'étant à la fois toujours présent et jamais le même, de sorte que l'on doit admettre qu'il imbrique la permanence et le changement.
Une difficulté soulevée par la question du temps consiste en ce que nous ne pouvons pas nous mettre en retrait par rapport à lui. D’habitude, lorsque nous voulons étudier un objet, nous commençons par l’observer sous divers angles, mais lorsqu’il s’agit du temps, la mise à distance n’est plus possible puisqu’il nous affecte sans cesse. Nous sommes dans le temps et nous ne pouvons pas en sortir. C’est d’ailleurs une caractéristique que le temps partage avec l’espace puisque nous ne pouvons pas non plus nous extraire de l’espace. Mais il y a une différence essentielle entre le temps et l’espace : nous pouvons nous déplacer à l’intérieur de l’espace, aller et venir dans n’importe quelle direction, alors que nous ne pouvons pas changer notre place dans le temps. L’espace est donc le lieu de notre liberté, le temps la marque de notre emprisonnement.
Je cesserai là mes petites digressions philosophiques, par manque de temps d'abord, mais aussi parce que les historiens des sciences s'accordent à dire que la physique moderne a commencé avec Galilée, qui justement prit garde à ne pas se perdre en vaines discussions à propos de la nature ou de la réalité du temps. Il ne s'intéressa qu'au statut qu'il convenait de lui donner dans le champ de la physique. Cela l'amena à considérer le temps comme une grandeur quantifiable susceptible d'ordonner des expériences et de les relier mathématiquement. C'est dans cet esprit qu'il étudia la chute des corps. Il réalisa que si le temps, plutôt que l'espace parcouru, était choisi comme le paramètre fondamental, alors la chute des corps obéissait à une loi simple : la vitesse acquise est simplement proportionnelle à la durée de la chute. Cette découverte signa la naissance de la dynamique moderne, qui allait donner au temps un statut inédit. Jusqu'alors, l'idée que l'on s'était faite du temps était restée centrée sur des préoccupations humaines. Le temps servait essentiellement aux hommes de moyen d'orientation dans l'univers social et de mode de régulation de leur coexistence, mais il n'intervenait pas de façon explicite et quantitative dans l'étude des phénomènes naturels.
Temps physique et temps psychologique
Puisqu'elle est limitée dans ses ambitions, la physique ne prétend pas répondre à toutes les questions qui concernent le temps. Par exemple, elle échoue à rendre compte de la relation entre le temps physique et le temps psychologique, entre le temps des horloges et celui de la conscience. Ces deux temps ont certainement des liens, mais certaines de leurs propriétés sont distinctes, voire antagonistes. Déjà, leurs structures diffèrent. Le temps physique est toujours représenté comme un mince filament qui s'écoule identiquement à lui-même. Mais le temps subjectif, lui, se déploie en ligne brisée, entremêle des rythmes différents, des discontinuités, de sorte qu'il ressemble plutôt à un cordage tressé. Notre conscience éprouve en effet plusieurs temporalités enchevêtrées, tant par leur nature (le temps de nos sensations, celui de nos idées, de nos humeurs,…) que par leurs échelles, tout comme une corde est faite de multiples brins, eux-mêmes composés de fines et courtes fibres.
Temps physique et temps psychologique se distinguent aussi par le fait que le premier, toujours ponctuellement concentré dans le présent, sépare l’infini du passé de l’infini du futur tandis que le second mélange au sein du présent un peu du passé récent et un peu de l’avenir proche. Dans le temps physique, des instants successifs n’existent jamais ensemble, par définition. Le temps psychologique, lui, élabore une sorte de coexistence au sein du présent du passé immédiat et du futur imminent[1]. Il unit donc ce que le temps physique ne cesse de séparer, il retient ce qu’il emporte, inclut ce qu’il exclut, maintient ce qu’il supprime. Ainsi, lorsqu’on entend une mélodie, la note précédente est « retenue » avec la note présente et la projection de la note future pour former un ensemble harmonieux. Passé immédiat et futur imminent coexistent donc dans le présent. Sans cette alliance au sein de la conscience, chaque note serait isolée et il n’y aurait pas de mélodie à proprement parler.
Temps physique et temps psychologique se distinguent également par leur fluidité. Le premier s'écoule uniformément (du moins dans la conception classique) tandis que le deuxième a une fluidité si variable que la notion de durée éprouvée n'a qu'une consistance très relative : il n'y a pas deux personnes qui, dans un temps donné, compteraient un nombre égal d'instants. Notre estimation des durées varie avec l’âge, et surtout avec l'intensité et la signification pour nous des événements qui se produisent[2] Rien de tel pour le temps physique, et c'est bien pourquoi nous portons des montres.
Enfin, les temps physique et psychologique n'accordent pas des statuts semblables aux notions de passé et d'avenir. C'est la question de la flèche du temps, sur laquelle nous reviendrons par la suite. Ce que je veux dire dans un premier temps, c'est que l'irréductibilité des temps physique et psychologique semble insurmontable, du moins pour le moment. On se doute bien que leurs liens se situent à la couture de la matière et de la vie, mais les tentatives pour dériver le temps du « monde » du temps de « l'âme » ou l'inverse n’ont pas vraiment abouti. Le temps mathématisé du physicien ne semble pas épuiser le sens du temps vécu, pas plus que le temps vécu ne donne l'intuition de toutes les facettes du temps physique.
À force de schématisation, la physique a peut-être laissé échapper quelques-unes des propriétés fondamentales du temps. Le temps monotone des physiciens, constitué de tic-tac répétitifs et esseulés, n'est peut-être qu'une idéalisation très appauvrie du temps de la vie.
L'écoulement du temps pourrait-il être discontinu ?
Tout au long de son histoire, la physique a considéré que l'espace est un continuum, c'est-à-dire qu'il est possible d'envisager des portions de longueurs aussi petites que l'on veut, sans jamais atteindre de limite. Le point, qui correspondrait à un nombre infini de divisions, reste toutefois hors d'atteinte, mais on peut en principe s'en rapprocher continûment. Le fait qu'il soit ainsi possible de considérer des longueurs infimes, et même nulles, fait surgir d'énormes difficultés, par exemple lorsque l'on s'intéresse au champ électrique produit par une charge électrique, disons un électron, à la distance r de celui-ci. Ce champ, variant comme 1/ r2, devient infini lorsque la distance r s'annule. De telles divergences ou singularités conduisent à des difficultés mathématiques que les physiciens tentent d'éviter de différentes façons : soit en assignant un domaine de validité limité aux expressions divergentes (on supposera pour l'exemple cité ci-dessus que, si la distance r devient trop petite, l'expression en 1/ r2 doit être remplacée par une autre, non divergente) ; soit en utilisant des procédés mathématiques qui abolissent « artificiellement » ces divergences et autorisent le calcul. On peut citer par exemple la théorie des distributions, être mathématiques ressemblant à des fonctions discontinues qui prendraient une valeur nulle en tous les points de l'espace, sauf en un seul. On peut également évoquer la procédure dite de renormalisation. Celle-ci consiste à éliminer toutes les quantités infinies qui apparaissent dans les calculs en retranchant à celles-ci un petit nombre de quantités elles-mêmes infinies, de sorte d'obtenir un résultat fini.
Une dernière piste, plus audacieuse, consiste à imaginer que l'espace lui-même pourrait être discret, c'est-à-dire structuré selon un réseau, dont la maille, finie et non nulle, représenterait une distance minimale au-dessous de laquelle il serait impossible de descendre. Toute divergence serait ainsi évitée. Mais là aussi, de terribles problèmes se posent. D'abord, quelle serait la taille de la maille et d'où proviendrait-elle ? Ensuite, un tel réseau introduirait des directions privilégiées qui détruirait l'isotropie de l'espace, c'est-à-dire son invariance par rotation. Or cette invariance joue, avec d'autres symétries du même type, un rôle fondamental dans toute la physique en imposant des lois de conservation très contraignantes.
Des travaux mathématiques récents, notamment effectués par Alain Connes dans les années 1980, pourraient toutefois changer la donne. Ils concernent ce qu'on appelle la géométrie non commutative. Celle-ci permet de considérer des structures spatiales qui présentent un caractère discontinu mais qui ne brisent pas les symétries fondamentales. Cette nouvelle géométrie est obtenue en remplaçant les coordonnées spatiales usuelles, qui sont des nombres ordinaires, par des opérateurs algébriques. L'appellation de la théorie provient de ce que ces opérateurs ne commutent pas entre eux (l'ordre de leur application n'est pas indifférent), mais vérifient au contraire certaines relations de commutation qui définissent les propriétés de l'espace à petite échelle. Les propriétés habituelles de l'espace étant restituées aux échelles de la physique habituelle, ce n'est qu'au-dessous d'une certaine échelle que les effets de cette géométrie apparaissent. Cette échelle, qui pourrait être celle dite de Planck (10-35 m), représenterait une limite à la divisibilité de l'espace.
Mais revenons-en au temps. Les physiciens le supposent constitué d'instants qui se succèdent dans une structure continue. Ces instants jouent pour le temps le même rôle que le point pour l'espace. Ils sont tout aussi inaccessibles à la perception. En effet, nous ne sentons pas les instants qui passent. Pour nous, ainsi que nous l'avons déjà dit, le présent est une sorte de fluide continu qui mélange un peu du passé immédiat et du futur imminent, sans qu'aucune de nos sensations ne vienne indiquer l'alchimie par laquelle une succession d'instants parvient à s’épaissir en durée. L'idée d'un temps discontinu, c'est-à-dire d'une atomicité de la durée, est parfois évoquée, mais aucune théorie n'est jamais venue l'éclairer, du moins à ma connaissance. Il faut dire qu'elle pose d'énormes difficultés conceptuelles : comment le temps pourrait-il être constitué d'instants séparés par des durées privées de temps ? L'impossibilité d'observer les instants ne va en tous cas pas contre l'idée d'un temps continu, de la même façon que l'absence d'objet véritablement ponctuel ne va contre la possibilité d'un espace continu.
La causalité et l’interdiction des voyages dans le temps
Le mouvement des aiguilles de nos montres incite à assimiler le temps à un flux composé d'instants infiniment proches parcourus les uns après les autres, c'est-à-dire à une variable à une seule dimension. Cette représentation du temps accorde au temps une topologie beaucoup plus pauvre que celle de l’espace, qui lui a trois dimensions. Elle n'offre en fait que deux variantes, la ligne ou le cercle, selon que la courbe du temps est ouverte ou fermée. Il n’y a donc a priori que deux types de temps possibles, le temps linéaire et le temps cyclique. Le cours du temps se manifeste sur ces courbes par le fait qu'elles sont orientées, c'est-à-dire parcourues dans un sens bien défini, du passé vers le futur.
Si les physiciens ont choisi d'adopter un temps linéaire plutôt que cyclique, c'est en vertu du principe de causalité selon lequel la cause d'un phénomène est nécessairement antérieure au phénomène lui-même. Ce principe de causalité interdit en outre les voyages dans le temps, car ceux-ci permettraient en principe de rétroagir dans le passé pour modifier une séquence d’événements ayant déjà eu lieu. Une telle possibilité conduirait à affronter de pénibles situations : un jeune homme pourrait rejoindre dans le passé sa grand-mère alors que celle-ci est encore jeune, lui faire un brin de cour au volant d'une belle voiture de sport, rater un virage et expédier la jeune femme ad patres, l'empêchant ainsi de mettre au monde le premier maillon de la descendance dont le susdit jeune homme fait pourtant partie… Un tel paradoxe, possible avec un temps cyclique puisque ce qu’on appelle la cause pourrait tout aussi bien être l’effet et vice versa, ne l'est pas avec un temps linéaire, celui-ci ordonnant les événements selon un enchaînement chronologique irrémédiable. On en peut pas à la fois aller vers le passé et vers l'avenir. De même qu'un fleuve coule toujours dans le même sens, de l'amont vers l'aval, le temps a un cours bien défini, s'écoulant du passé vers l'avenir, sans jamais rebrousser chemin ni faire de boucle, de sorte qu'un instant donné ne peut jamais se reproduire…
Le principe de causalité se décline de différentes façons selon les théories physiques. Il ne renvoie pas toujours explicitement à l'idée de cause, se contentant parfois d'imposer une chronologie obligatoire entre certains types d'événements. Mentionnons rapidement, à titre d'illustrations, la façon dont il est pris en compte en relativité (restreinte ou générale) et en physique quantique.
En relativité restreinte
Le principe de causalité est garanti par l'impossibilité de transmettre de l'énergie ou de l'information à une vitesse supérieure à celle de la lumière. Cette impossibilité interdit les voyages dans le temps et les renversements de chronologie.
En relativité générale
La causalité est violée s’il existe une boucle temporelle, c’est-à-dire une ligne d’univers refermée sur elle-même. La théorie prévoit que de telles boucles pourraient apparaître derrière l’horizon de trous noirs en rotation très rapide, mais rien ne garantit qu'elles existent.
En physique quantique non relativiste
La causalité est inscrite dans l’équation de Schrödinger qui fait jouer au Hamiltonien le rôle de générateur infinitésimal des translations dans le temps. Il s’agit d’une causalité sans cause explicite.
En théorie quantique des champs
Les contraintes de la causalité s’expriment au moyen des règles de commutation des opérateurs de champs. Un opérateur de création Ф*(x) d’une particule au point x et l’opérateur d’annihilation de cette même particule Ф(y) au point y doivent commuter pour une séparation du genre espace et ne pas commuter pour une séparation du genre temps. Ces règles empêchent une particule de se propager sur une ligne du genre espace (la particule se propagerait plus vite que la lumière) et imposent, pour une propagation sur une ligne du genre temps, que la création d’une particule précède son annihilation. Ces contraintes ne peuvent être satisfaites que si la décomposition en ondes planes des opérateurs de champs contient des fréquences négatives, correspondant à des antiparticules. L’antimatière est donc la trace « matérielle » du fait que le temps passe en sens unique.
D'une façon générale, le principe de causalité s'exprime par le biais de ce que l'on appelle l'invariance CPT, sur laquelle nous allons nous attarder.
L'invariance CPT
Certaines symétries géométriques nous sont familières. D’autres, plus abstraites, sont couramment invoquées par les physiciens. C'est le cas de la « parité », de la « conjugaison de charge », et du « renversement du temps ».
La parité est une opération, notée P, qui consiste à regarder l'image d'une expérience donnée dans un miroir. Prenons l’exemple d'une expérience réelle mettant en jeu une collision entre particules. Appliquer l'opération P à une telle situation consiste à réaliser par la pensée l'expérience telle qu'elle serait vue dans un miroir. La nature des particules mises en jeu reste la même. En revanche, leurs positions sont modifiées puisque droite et gauche sont inversées dans l'opération.
La question se pose évidemment de savoir si, une fois cette opération réalisée, la nouvelle expérience peut ou non se réaliser dans la nature ou en laboratoire. Si la réponse est oui, on dira que l'expérience respecte la symétrie P. Dans le cas contraire, on dira qu'elle la viole.
À toute particule est par ailleurs associée une antiparticule, de même masse qu'elle et dont toutes les charges, notamment la charge électrique, sont opposées à celle de la particule correspondante. La conjugaison de charge est précisément l'opération qui consiste à transformer (sur le papier) une particule en son antiparticule, et vice versa. Par exemple, elle transforme l'électron en positron et le positron en électron, le proton en antiproton et l'antiproton en proton. Cette opération est notée C, pour « charge », en raison de l'inversion des charges entre particule et antiparticule.
Partons à nouveau d'une expérience réelle mettant en jeu une collision entre particules. Enregistrons soigneusement les vitesses et les positions de chacune des particules qui interviennent tout au long de l'expérience. Appliquons maintenant l'opération C : à chaque fois que l'on rencontre une particule, on la remplace par son antiparticule et on lui impose de suivre exactement la même trajectoire que celle qu'avait la particule dans la situation initiale. Si par exemple on regarde une collision entre un proton et un neutron, l'opération C nous décrira la « même » collision, sauf qu'elle se produira entre un antiproton et un antineutron. Si, une fois cette opération accomplie, la nouvelle expérience peut se réaliser, on dira que l'expérience respecte la symétrie C. Dans le cas contraire, on dira qu'elle la viole.
Enfin, l'opération « renversement du temps », notée T, correspond à un renversement du mouvement plutôt qu'à une inversion du temps proprement dit. Elle consiste à dérouler un phénomène dans le sens inverse de celui dans lequel il s'est produit, autrement dit à passer le film à l'envers. Selon les lois classiques, si à un instant donné t0, pris comme origine des temps ( t0 = 0), les vitesses de chaque astre du système solaire (Soleil, planètes et leurs satellites) étaient renversées, leur trajectoire ne serait pas modifiée, mais la position de chaque astre sur sa trajectoire à l'instant ultérieur t serait celle qu'il occupait à l'instant -t.
La parité, la conjugaison de charge et le renversement du temps jouent un rôle fondamental dans les équations que manient les physiciens des particules, par le biais de l'invariance CPT : comme son sigle l'indique, l'opération CPT est le produit des trois opérations C, P et T. Cette opération ne modifiant aucune des lois connues de la physique, on parle d'invariance CPT.
En langage imagé, l'invariance CPT se traduit en disant que les lois physiques qui gouvernent notre monde sont identiques à celles d'un monde d'antimatière observé dans un miroir et où le temps s'écoulerait à l'envers. Fondamentalement liée au principe de causalité, qui ordonne les événements selon un enchaînement irrémédiable, elle a notamment comme conséquence une sorte de symétrie entre la matière et l'antimatière. En particulier, elle prévoit que la masse et la durée de vie des particules sont rigoureusement égales à celles de leurs antiparticules.
L’interaction faible et les kaons neutres
Pendant longtemps, les physiciens, s'appuyant sur le sens commun, crurent que toutes les lois de la physique respectaient la symétrie P. N'est-il pas évident, lorsque nous voyons un arrangement d'objets dans un miroir, que nous pourrions réaliser cet arrangement dans la réalité aussi ? Pourtant, il fut démontré en 1957, à la surprise générale, que l'interaction nucléaire faible, responsable notamment de la radioactivité  par laquelle un neutron se désintègre en un proton et un électron, ne respecte pas la symétrie P. Autrement dit, l'image dans un miroir d'un phénomène régi par l'interaction faible correspond à un phénomène qui n'existe pas dans la nature et qu'on ne peut pas non plus produire en laboratoire. Cette violation de la parité, apanage de l'interaction faible, permet de définir de façon absolue la droite et la gauche.
On démontra dans le même temps que l’interaction faible violait également l’invariance par conjugaison de charge, d’une façon telle que la symétrie globale PC était, elle, préservée. Cette invariance par CP, combinée à l’invariance CPT, impliquait l‘invariance par T. Ce résultat rassurant ne tint que quelques années. En 1964, une expérience révéla que l’invariance par PC est elle aussi brisée, même si ce n’est que très légèrement, lors de la désintégration (par l’interaction faible) de particules étranges qu’on appelle les kaons neutres. Ces particules sont les seules pour lesquelles une telle dissymétrie ait jamais été observée. Mais alors, CPT étant toujours conservée, si PC ne l’est pas en l’occurrence, c’est que T ne l’est pas non plus, mais cette violation n’avait pas été mise en évidence directement.
Une expérience du CERN, baptisée CPLEAR, a apporté en 1998 une pierre décisive à ce débat. Elle a permis de mettre en évidence, de façon directe, une violation de la symétrie temporelle au sein d’un système microscopique particulier, celui formé par un kaon neutre et son antiparticule. Il est établi depuis longtemps qu’un kaon neutre se transforme au cours du temps en sa propre antiparticule, qui à son tour se retransforme en kaon neutre. Ce que l’expérience CPLEAR vient de mettre en évidence, c’est que la vitesse à laquelle un kaon neutre se transforme en son antiparticule n’est pas exactement la même que celle du processus inverse, contrairement à ce que la symétrie T prévoit. C’est la première fois qu’est mesurée directement une différence entre un processus microscopique et le processus inverse. L’origine profonde de cette légère brisure de la symétrie temporelle passé-futur demeure mystérieuse.
La question de la flèche du temps
Pour nous, passé et futur ne sont pas équivalents. Par exemple, nous nous souvenons en partie du passé, mais pas du tout de l’avenir. Cette asymétrie entre passé et futur est la manifestation du cours même du temps. Depuis Newton, les physiciens se demandent si cette distinction existe également au niveau des phénomènes physiques. Font-ils eux aussi la distinction entre le passé et l'avenir ?
Pensons à une table de billard sur laquelle nous faisons entrer deux boules en collision. Après le choc, les deux boules repartent dans des directions opposées. Si les frottements sont négligeables, leurs vitesses resteront constantes. Imaginons que nous ayons filmé la collision et que nous projetions le film à l’envers. Cela équivaut à échanger les rôles respectifs du passé et de l’avenir, c’est-à-dire à inverser le cours du temps. Ce que l’on voit alors à l’écran, c’est une autre collision de deux boules, correspondant à la collision qui s’est réellement produite mais avec toutes les vitesses inversées.
Le point important est qu'un spectateur qui ne verrait que la projection du film inversé serait tout à fait incapable de dire si ce qu’il voit correspond à ce qui s’est réellement passé ou si le film a effectivement été retourné. La raison de cette ambiguïté est que la deuxième collision est régie par les mêmes lois dynamiques que la première. Elle est donc tout aussi « physique », au sens où elle est tout aussi réalisable que la collision originale. Autrement dit, une telle collision est « réversible ». Sa dynamique ne dépendant pas de l’orientation du cours du temps, elle ne fait aucune distinction entre le passé et l’avenir. Cela signifie, non pas qu'elle autorise les voyages dans le temps, mais que pour elle le cours du temps est arbitraire.
Selon la physique d’aujourd’hui, tous les phénomènes ayant lieu au niveau microscopique sont comme ces collisions de boules de billard, c'est-à-dire réversibles. Or à notre échelle, nous n'observons que des phénomènes irréversibles, à commencer par le fait que nous vieillissons : si nous filmons une scène de la vie courante et projetons le film à l’envers, nous voyons dès les premières images qu’il y a eu inversion (le plongeur est expulsé de la piscine et se retrouve bien sec sur son plongeoir). A l'échelle macroscopique, le temps ne fait donc pas que passer : il invente, il crée, il use, il détruit, sans jamais pouvoir refaire ce qu'il a défait.
Comment expliquer l’émergence de cette irréversibilité observée à l’échelle macroscopique à partir de lois physiques qui l’ignorent à l’échelle microscopique ? Ce problème, dit de « la flèche du temps » a été ardemment discuté depuis deux siècles. La plus ancienne explication s'appuie sur l'irréversibilité associée au second principe de la thermodynamique, selon lequel l'entropie d'un système isolé ne peut qu'augmenter au cours du temps : de même que de l'eau tiède ne redevient jamais une juxtaposition d'eau chaude et d'eau froide, un système macroscopique qui évolue ne peut revenir à sa configuration initiale. Plus récemment, des physiciens ont suggéré que la flèche du temps proviendrait plutôt de l'expansion même de l'univers, qui orienterait tous les processus physiques selon un cours irréversible. D'autres pistes faisant référence à la physique quantique ou à la physique des particules ont également été proposées. Toutefois, aucune de ces explications ne peut être présentée comme universelle et définitive. Il semble donc qu'il n'y ait pas d'unité théorique autour du concept de temps, comme si deux façons de penser ne cessent de s'affronter, celle qui se fonde sur l'histoire et le temps, et celle qui se fonde sur l'invariance et l'absence de temps. Elles correspondent peut-être à deux composantes contradictoires mais inséparables de notre effort pour comprendre le monde : nous ne pouvons pas penser le monde sans le temps et nous ne savons pas le raconter sans imaginer qu’il monnaie quelque invariance.

 

VIDEO            CANAL  U               LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

LES MATÉRIAUX MAGNÉTIQUES

 

Texte de la 230e conférence de l’Université de tous les savoirs donnée le 17 août 2000.Les matériaux magnétiques : de la boussole à l'électronique de spinpar Michel Piecuch Les matériaux magnétiques sont omniprésents dans notre environnement. Une voiture moderne, par exemple, peut contenir jusqu'à 70 dispositifs différents utilisant ces matériaux comme des moteurs électriques, des actionneurs ou transmetteurs de mouvement, des capteurs... Leur présence cachée au sein d'innombrables objets technologiques reste cependant mystérieuse comme le mot lui même. Nous essayerons, dans la suite, d'éclairer le fonctionnement de ces matériaux et les concepts scientifiques qui les sous tendent. Un peu d'histoire L'histoire des matériaux magnétiques remonte à une époque très ancienne, à peu près contemporaine à la découverte du fer. Les premières mentions de l'existence des aimants écrites par les Grecs, datent d'environ 800 avant Jésus-Christ*, le nom de « magnétés » est rapporté par plusieurs philosophes. L'origine de ce nom est controversée, ma version préférée est celle de William Gilbert, médecin de la reine Élisabeth I qui dit la tenir de Pline, le nom de magnétite viendrait du nom du berger Magnés : « Les clous de ses sandales et le bout ferré de son bâton pastoral se sont collés à une pierre magnétique quand il gardait son troupeau ». Parallèlement aux grecs, les chinois découvrirent également les aimants, mais ils remarquèrent, découverte décisive, la directivité des pierres d'aimants dans le champ magnétique terrestre. Un instrument directif constitué d'une cuillère posée sur un plateau est représenté dans une peinture datant d'environ 50 après Jésus-Christ. Une boussole chinoise classique est constituée d'un poisson en fine tôle de fer porté au rouge puis trempé dans l'eau froide et mis au dessus d'un bol d'eau; il indique le nord magnétique (vers l'an 1000). En Europe, le premier livre sérieux sur le sujet De Magnete fut publié par Pierre Pèlerin de Maricourt en 1269. Il fut celui qui parla le premier de pôle magnétique. La science moderne du magnétisme est plus tardive et date des découvertes de Charles Augustin Coulomb. En utilisant une balance de torsion, il établit la loi de variation de la force magnétique en fonction de la distance (1785). Une expérience très importante fut faite en avril 1820 par le physicien danois Hans Christian Oersted. Il montra qu'un fil parcouru par un courant électrique produit un champ magnétique : « une boussole placée à proximité de ce fil est déviée quand le fil est parcouru par un courant électrique ». Cette découverte est à l'origine de tous les moteurs électriques : l'interaction d'un matériau magnétique avec un courant électrique produit du mouvement. Michael Faraday découvrit, l'année suivante (1821), le phénomène d'induction : un champ magnétique variable placé à proximité d'une spire crée un courant électrique dans cette spire. C'est la découverte du processus qui produit de l'électricité dans les dynamos et les alternateurs. Avec les découvertes d'Oersted et de Faraday s'ouvrait l'ère de la deuxième révolution industrielle, on avait les moyens de produire de l'électricité et on savait l'utiliser pour faire des moteurs. La physique du magnétisme CONCEPTS DE BASE Les deux concepts centraux dans la physique du magnétisme sont les concepts de champ et de moment magnétique. L'objet magnétique le plus simple est un aimant permanent. Cet aimant exerce une force sur un autre aimant ou sur des matériaux magnétiques comme le fer. Si on observe deux aimants en train d'interagir, ils s'attirent ou se repoussent, il y a une action à distance, c'est le champ magnétique produit par l'un des aimants qui interagit avec l'autre aimant. Si l'un des deux aimants est libre, il tourne si il est dans le « mauvais sens », on dit que l'aimant a deux pôles. Deux pôles identiques se repoussent, deux pôles différents s'attirent. Pour préciser cette notion de pôles, on définit le moment magnétique, qui est un vecteur allant du pôle sud au pôle nord. Un aimant possède donc un moment magnétique et ce moment produit un champ magnétique. Le plus simple des circuits électriques est une boucle de courant. Elle est équivalente à un aimant permanent (fig. 1). Le moment magnétique de la boucle est un vecteur perpendiculaire au plan de la boucle et dont l'intensité est donnée par le produit de l'intensité du courant électrique passant dans la boucle par sa surface. Le champ magnétique produit par la boucle est alors donné par les mêmes formules que le champ électrique produit par un dipôle électrique (deux charges de signe contraire). Figure 1 Une boucle de courant (un circuit) et un aimant sont des sources de champ magnétique équivalentes, on les représente par un vecteur, le moment magnétique. La force exercée par un champ magnétique sur un moment magnétique (par un aimant sur un autre aimant par exemple), repose sur un principe très simple : elle est fondée sur la recherche de l'énergie minimum. L'énergie d'interaction entre un champ magnétique et un moment magnétique est donnée par le produit scalaire des deux vecteurs : Où q est l'angle entre les deux vecteurs. Le moment magnétique d'un aimant va donc vouloir s'aligner avec le champ magnétique (pour rendre l'angle plus petit ou le cosinus plus grand), il va tourner, et ensuite l'aimant va aller vers le champ maximum, comme le champ croit quand on s'approche d'un aimant, c'est ce qui explique l'attraction de deux aimants. L'ORIGINE MICROSCOPIQUE La mécanique quantique décrit le mouvement des électrons dans les atomes. Classiquement, on peut imaginer, un électron en train de décrire une orbite autour du noyau de l'atome. Cette charge électrique en train de tourner est équivalente à une boucle de courant et produit donc un champ magnétique, le moment magnétique correspondant est appelé moment magnétique orbital. L'électron a un autre moment magnétique, que l'on peut imaginer comme correspondant au mouvement de rotation propre de l'électron (l'électron comme la terre tourne autour du noyau (le soleil) et sur lui même), mais qui, en fait, ne peut être compris qu'avec la mécanique quantique. Ce moment magnétique est proportionnel à un vecteur décrivant cet état de rotation propre que l'on appelle « le spin ». Une telle description tend à faire croire que tous les atomes portent un moment magnétique (somme des moments orbitaux et de spin de tous les électrons présents dans l'atome). Cependant, le principe de remplissage des différents états électroniques de l'atome, le principe d'exclusion de Pauli (les électrons sont d'incorrigibles individualistes et on ne peut avoir deux électrons dans le même état) et la construction par couches successives font que les moments magnétiques se compensent. Dans une couche complète, par exemple, deux électrons ne peuvent avoir le même état orbital que si leurs spins sont différents c'est à dire opposés (un des électrons tourne dans un sens, l'autre dans l'autre). Malgré tout, pour des couches atomiques incomplètes, il reste un moment magnétique atomique et donc presque tous les atomes portent un moment, l'unité de moment magnétique des atomes est le magnéton de Bohr qui correspond au moment de spin d'un électron indépendant. Quand on construit des molécules, les mécanismes qui régissent les liaisons chimiques sont fondés sur la construction de couches complètes (deux atomes, dont l'un a N électrons de valence (les électrons de sa couche incomplète) et l'autre M, forment une liaison chimique si M+N=8, c'est à dire si le nombre total d'électrons de valence correspond à une couche complète) et donc les molécules ne portent pas de moments magnétiques (dans une couche complète il y a autant d'électrons de spin dans un sens que dans l'autre et autant d'électrons tournent autour du noyau dans un sens que dans l'autre). Ces composés acquièrent cependant un moment sous l'action d'un champ magnétique, ce moment tend à créer une réaction au champ appliqué : il lui est opposé, ces matériaux dit diamagnétiques sont donc repoussés par un champ. Quand les atomes possèdent des couches qui n'interviennent pas ou peu dans la liaison chimique, comme les électrons dit « d » des métaux de transition dont la première série va du scandium au cuivre en passant par le fer, le cobalt et le nickel, ou comme les électrons « f » des terres rares (série qui va du lanthane au lutécium en passant par le gadolinium), les atomes conservent un moment magnétique dans l'état solide. L'état le plus simple de ces solides est l'état paramagnétique où les moments magnétiques des différents atomes sont désordonnés, un paramagnétique a un moment global qui est donc la somme vectorielle de moments désordonnés, ce moment global est nul sous champ nul. Quand on applique un champ, il lui est proportionnel et est dans le même sens que lui. LE COMPORTEMENT COLLECTIF DES MOMENTS MAGNÉTIQUES ATOMIQUES Les moments magnétiques d'atomes différents interagissent entre eux, de façon directe par ce qu'on appelle l'interaction dipolaire (le champ magnétique créé par un moment magnétique interagit avec un autre moment pour l'aligner dans le champ produit), mais aussi et surtout par des effets plus subtils que l'on appelle interaction d'échange, produisant une énergie d'interaction entre les moments magnétiques de deux atomes. Il existe deux types d'interactions : l'interaction ferromagnétique qui favorise la configuration où les deux moments magnétiques sont parallèles et l'interaction antiferromagnétique qui favorise l'état où les deux moments sont antiparallèles. Un matériau ferromagnétique est un matériau où toutes les interactions sont ferromagnétiques. Il a donc un moment permanent macroscopique qui est la somme de tous les moments magnétiques de ses atomes (qui sont tous parallèle). Un matériau antiferromagnétique a ses moments alternativement dans un sens puis dans l'autre, il se comporte globalement comme un paramagnétique puisque son moment global (la somme des moments magnétiques atomiques ou aimantation) est également nul en l'absence de champ appliqué. La théorie du ferromagnétisme fut faite par Pierre Weiss au début de ce siècle, la théorie de l'antiferromagnétisme par Louis Néel en 1932 ( Prix Nobel 1970). Cette description de l'ordre est valable au zéro absolu, si on augmente la température, deux mécanismes sont en compétition, la température, d'une part, tend à favoriser l'agitation thermique et donc le désordre des moments et l'énergie d'interaction, d'autre part, tend à aligner ces moments. Il y a donc, une température dite température de Curie (dans un ferromagnétique) au dessous de laquelle les spins de tous les atomes sont rangés (au dessus de la température de Curie le désordre l'emporte sur l'ordre et le solide devient paramagnétique). LES MATÉRIAUX FERROMAGNETIQUES La plupart des matériaux magnétiques utilisés dans des applications sont ferromagnétiques. Le comportement d'un ferromagnétique sous champ appliqué est décrit par ce qu'on appelle le cycle d'hystérésis (fig. 2). Si on part d'une situation où le corps ferromagnétique a un moment global nul et l'on applique un champ, le moment magnétique mesuré va croître assez rapidement jusqu'à une situation où tous les moments magnétiques atomiques sont alignés avec le champ extérieur, c'est la saturation qui correspond pour du fer métallique, par exemple, à 2,2 magnétons de Bohr par atomes. Ensuite, si on abaisse le champ pour l'annuler, la courbe n'est pas réversible, en champ nul il reste un moment magnétique global ou aimantation rémanente, et il faut appliquer un champ magnétique négatif (le champ coercitif) pour supprimer ce moment. Figure 2 Cycle d'hystérésis. Après saturation, la baisse du champ magnétique appliqué conduit à l'aimantation rémanente MR et il faut appliquer un champ magnétique négatif suffisant, le champ coercitif HC pour annuler à nouveau l'aimantation. Ce cycle d'hystérésis est essentiellement expliqué par la théorie des domaines. Quand Pierre Weiss proposa sa théorie des matériaux ferromagnétiques : l'alignement spontané des moments magnétiques atomiques, une objection lui vint naturellement, pourquoi existe t-il des états de ferromagnétiques où l'aimantation est nulle? Il trouva la réponse, un matériau ferromagnétique dans son état totalement ordonné crée un champ magnétique considérable à l'extérieur mais aussi à l'intérieur de lui même, ce champ dit champ démagnétisant est opposé à l'aimantation et donc son interaction avec les moments magnétiques coûte de l'énergie. Pour minimiser cet effet Pierre Weiss a proposé que, sous champ nul, une substance ferromagnétique soit constituée de nombreux domaines d'aimantations opposées, qui fassent que le champ démagnétisant soit diminué ou supprimé, c'est effectivement ce qu'on observe. On comprend alors la courbe d'hystérésis décrite plus haut : l'échantillon avait au départ une structure en domaines et une aimantation nulle. Le champ magnétique a déplacé les parois de domaines jusqu'à les supprimer pour atteindre la saturation. Quand on abaisse le champ, on peut créer des domaines, mais cela coûte de l'énergie (énergie de paroi) et il reste donc une aimantation rémanente. Les applications LES AIMANTS PERMANENTS OU MATÉRIAUX DURS On classe les matériaux ferromagnétiques suivant la valeur de leurs champs coercitifs, les matériaux dits durs sont les matériaux qui ont un grand champ coercitif, les matériaux doux sont les matériaux qui ont un champ coercitif faible (historiquement, les aciers mécaniquement doux avaient le champ coercitif le plus faible). Les matériaux magnétiques les plus spectaculaires sont les aimants permanents, un aimant permanent est un matériau ferromagnétique à fort champ coercitif, c'est un matériau dur. Il est aimanté à saturation, puis on annule le champ appliqué et comme il a un champ coercitif très élevé, il garde une aimantation forte, les aimants permanents modernes sont des alliages de métaux de terre rare et de fer ou de cobalt. L'utilisation la plus courante de ces aimants permanents est la construction des moteurs électriques. Mais ils sont aussi utilisés dans de multiples capteurs. LES MATÉRIAUX DOUX Les matériaux doux dont le prototype est l'acier au silicium sont utilisés dans les transformateurs. Un transformateur est une boucle d'aimant, un enroulement électrique fait N tours autour de la boucle et aimante le matériau, les variations de flux produites (si le courant est alternatif) sont transmise à travers l'aimant à un autre enroulement de n spires et produisent dans ces spires une force électromotrice, le rapport des tensions est donné par le rapport n/N du nombre de spires. Un électroaimant fonctionne sur le même principe mais avec un seul circuit excitateur et une coupure dans le matériau magnétique l'entrefer où l'on peut utiliser le champ magnétique produit. Les matériaux doux sont aussi utilisés dans les alternateurs et dans de nombreux dispositifs de l'électrotechnique. L'ENREGISTREMENT MAGNÉTIQUE Une autre application courante est l'enregistrement magnétique. Le principe de l'enregistrement magnétique est extrêmement simple, on utilise l'hystérésis des matériaux magnétiques pour stocker des informations, un signal d'entrée aimante le média (disque ou bande) et le média conserve ensuite un moment magnétique proportionnel au signal (dans le cas analogique) ou un moment dans un sens (le 1) ou dans l'autre (le 0) dans le cas digital. Ensuite, en lecture, la tête passe devant le média et détecte des changements de flux en présence ou en absence de moment magnétique. Les médias sont en général des matériaux ferromagnétiques, les bandes magnétiques sont constitués de petits grains de divers matériaux (oxydes de fer, de chrome, fer métal...) dispersés dans une matrice plastique. Les disques durs d'ordinateurs comportent une couche mince de matériau magnétique déposée par les techniques modernes et gravée en pistes. Les recherches actuelles Les recherches actuelles sur les matériaux magnétiques ont été stimulées par une découverte faite à Orsay en 1998. Il s'agit de la magnétorésistance géante. La résistance d'un métal magnétique ordinaire dépend du champ magnétique extérieur appliqué mais cet effet est très faible, aussi le monde du magnétisme fut très surpris par la découverte du groupe d'Albert Fert à Orsay en 1988. Ces chercheurs ont mesuré la résistance sous champ magnétique d'une multicouche fer/chrome (empilement de quelques dizaines de couches identiques de fer et de chrome d'épaisseurs de l'ordre du nanomètre (milliardième de mètre)) et ont trouvé une variation de résistance très importante (plusieurs dizaines de %) sous des champs appliqués relativement modestes. Albert Fert expliqua l'effet observé. Il était bien connu depuis les années 60 que les électrons des deux types de spin dans un métal ferromagnétique ont une résistivité différente, les électrons dont le spin est antiparallèle à l'aimantation conduisent mieux que ceux qui ont un spin parallèle à cette aimantation (ou l'inverse suivant les métaux). Dans les multicouches fer/chrome, deux couches de fer voisines subissent une interaction antiferromagnétique à travers le chrome, leurs moments magnétiques sont donc opposés en champ nul, un champ élevé détruit cet ordre antiferromagnétique en mettant tous les moments parallèles. En champ nul, un électron a donc un spin parallèle à l'aimantation dans une couche et antiparallèle dans la couche adjacente, la résistance est la moyenne de la résistance des deux spins. En champ élevé, un électron a, soit son spin toujours parallèle à l'aimantation et une grande résistance, soit toujours antiparallèle et donc une résistance très faible. C'est cet effet de court circuit pour une partie des électrons qui produit la magnétorésistance géante (un électron très bien portant vaut mieux que deux électrons a moitié malades). Cette découverte encouragea la recherche technologique sur de nouveaux capteurs de champs magnétiques, on utilisa les techniques de gravure et de dépôts qui avaient été développées dans le domaine des semi-conducteurs durant les années 80 pour construire des dispositifs gravés en couches très minces. Les applications de ces capteurs sont multiples (par exemple dans le freinage ABS des voitures) mais ils sont principalement utilisés dans les têtes de lecture des disques durs d'ordinateurs. Une tête magnétoresistive typique est séparée en deux parties, une tête d'écriture qui est une spire génératrice de champ et une tête de lecture qui est magnétoresistive. Depuis l'introduction des têtes magnétoresistives, la capacité des disques durs croit deux fois plus vite, on approche actuellement de 1gigabit/cm2 (un disque standard actuel a une capacité de 2 gigabits mais une surface beaucoup plus grande que 2 cm2). Les premières têtes magnétorésistances, tout en utilisant les techniques de gravure et de films minces, reposaient sur la magnétorésistance classique, la deuxième génération utilise l'effet découvert par Albert Fert. Enfin la troisième reposera sur un nouvel effet, la magnétorésistance tunnel. Au début des années 90 des chercheurs du MIT à Boston ont redécouvert l'effet tunnel polarisé en spin qui avait été mis en évidence dans les années 70 à Rennes par Jullière. Cet effet est depuis lors l'objet d'une compétition acharnée de part et d'autre de l'Atlantique pour préparer les capteurs de demain. La physique de base est extrêmement simple, on élabore un objet où deux couches ferromagnétiques sont séparées par une couche isolante très mince (quelques nanomètres), on trouve un moyen pour que les deux couches magnétiques aient la possibilité d'avoir leurs aimantations parallèles puis antiparallèles, enfin, on mesure le courant transmis à travers l'isolant dans les deux cas. Le courant peut varier énormément entre les deux configurations magnétiques. La possibilité de faire passer du courant à travers un isolant très mince est un effet purement quantique et est dû au caractère ondulatoire des électrons, les électrons passent à travers l'isolant qui devrait les arrêter comme la lumière passe à travers une couche très mince de métal alors qu'elle devrait être totalement réfléchie. L'intérêt par rapport aux couches à magnétorésistance géante est que la résistance du dispositif est relativement grande, ce qui permet de le rendre très petit. L'existence de deux types d'électrons dans un ferromagnétique (ceux de spin parallèle à l'aimantation et ceux de spin antiparallèle) ayant des comportements de transport différent a amené les physiciens du magnétisme à faire l'analogie avec les semi-conducteurs où deux types de charges, les électrons et les trous, produisent des propriétés qui sont à la base de l'électronique moderne. On proposa donc le transistor magnétique : un transistor magnétique typique est constitué de trois couches avec une électrode de commande, la grille, qui contrôle le passage du courant entre les deux autres. Plusieurs applications de ces transistors magnétiques sont envisagées comme les capteurs, les magnétomètres, l'enregistrement, l'électronique proprement dite (remplacement des transistors à semi-conducteurs) mais surtout les mémoires non volatiles. Actuellement, la mémoire centrale d'un ordinateur est une mémoire à semi-conducteur qui nécessite un rafraîchissement constant et surtout qui perd toutes ses informations quand on coupe le courant. Dans le dispositif à mémoire magnétique, l'élément de mémoire individuel est une tricouche comme celle décrite ci dessus et les deux états 0 et 1 sont les états d'aimantation antiparallèle et parallèle, les temps d'accès de ces mémoires sont du même ordre de grandeur que celles à semi-conducteurs mais elles ont l'avantage considérable d'être permanentes, elles ne sont pas effacées quand on coupe le courant. Ces mémoires sont appelées MRAM ( magnetic random access memory). Petite conclusion Les matériaux magnétiques ont constamment accompagné l'histoire du progrès technique depuis le début de l'age du fer. L'utilisation de la boussole a permis l'essor du commerce maritime qui est à l'origine de la première révolution industrielle. Les découvertes d'Oersted et de Faraday au siècle dernier ont permis le développement des moteurs électriques et des alternateurs et ont conduit à la deuxième révolution industrielle. De multiples dispositifs de mémoire magnétique sont utilisés et seront utilisés dans les ordinateurs et les machines d'enregistrement qui permettent la troisième révolution industrielle celle de l'information et de la communication. La recherche actuelle sur les matériaux magnétiques est toujours très féconde et développe de nouvelles voies comme l'électronique de spin qui sera peut être la technique dominante pour les machines intelligentes au début du siècle prochain. 
* Des références historiques plus détaillées peuvent être trouvées dans "Magnétisme", volume 1 Fondements. Sous la direction d'Etienne du Trémolet de Lachaisserie Presses universitaire de Grenoble 1999.

 

VIDEO                 CANAL  U                 LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

NANOÉLECTRONIQUE

 

Paris, 13 mars 2008


Nanoélectronique : les chercheurs observent en direct la compression de la lumière


Une équipe de chercheurs du CEA(1) et de l'Université de Technologie de Troyes associée au CNRS(2) a visualisé, au microscope, des plasmons à la surface de conducteurs mesurant 30 nanomètres. L'utilisation de ces plasmons, signaux à la limite de l'électronique et de l'optique, devient, à cette échelle, un enjeu important pour la miniaturisation recherchée des circuits électroniques.
C'est la première fois que des images d'une telle résolution sont obtenues pour ces phénomènes étudiés depuis une dizaine d'années. Cette observation fait l'objet d'une publication dans Nano Letters du 12 mars 2008.
En électronique, les efforts technologiques se poursuivent pour réaliser des circuits de plus en plus fins et permettant de traiter l'information à des fréquences de plus en plus élevées. Si les dispositifs électroniques deviennent plus petits et plus complexes (les micro-processeurs des ordinateurs), ils restent limités à des fréquences usuelles de l'ordre du gigahertz. Les fréquences optiques sont un million de fois plus élevées (1015 Hz), mais les limites spatiales imposées par la longueur d'onde de la lumière (de l'ordre du micron) empêchent une miniaturisation plus poussée.
Pour réduire encore la longueur d’onde, et en quelque sorte comprimer la lumière, une solution consiste à convertir le signal lumineux en « plasmon ». Le plasmon est un phénomène ayant tous les caractères d’une onde lumineuse, sauf qu’il reste bloqué aux parois d’un métal conducteur. Lorsque le diamètre de l’objet métallique est réduit à 30 nm, le plasmon développe un mode dit « lent » (on parle de plasmon lent). Or ce mode lent a la propriété d’osciller à la fréquence de l’onde lumineuse tout en ayant une longueur d’onde très inférieure à celle de  la lumière !
Les chercheurs s’y intéressent car c’est à cette même échelle approchant les 30 nm que se poseront bientôt les limites de miniaturisation en électronique.

Ces principes étaient connus, mais il restait à les observer concrètement. Lorsque le plasmon excité par la lumière se propage sur le conducteur, différents effets secondaires apparaissent, parmi lesquels l’émission d’électrons. Les chercheurs ont donc utilisé un microscope PEEM (Photo Emission Electron Microscopy) pour obtenir ces images.

 

DOCUMENT                CNRS                     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google