intelligence artificielle
 



 

 

 

 

 

        INTELLIGENCE ARTIFICIELLE
               Intelligence artificielle et sciences

intelligence artificielle

Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.

Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.

Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.

Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.

Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise

Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.

Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.

Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
  L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE
 



 

 

 

 

 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

Le texte de Bernard Cabane et Rodolphe Vuilleumier ci-dessous est similaire aux principaux points développés lors de la 593 ème conférence de lUniversité de tous les savoirs donnée le 15 juillet 2005 1
Par Bernard Cabane, Rodolphe Vuilleumier : « La physique de leau liquide »
L'eau est le liquide le plus abondant à la surface de la terre. C'est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. L'eau est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Ainsi, l'eau reste liquide à pression atmosphérique jusqu'à 100 °C, alors que l'extrapolation de la série H2S, H2Se, H2Te donnerait une température d'ébullition de - 80°C. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie, avec les alcools et les amines, d'un petit groupe de liquides qu'on appelle liquides associés (Figure 1). Parmi ces liquides, la cohésion de l'eau est remarquable. Par exemple, l'eau a des températures de fusion et d'ébullition très supérieures à celles de l'ammoniac et de l'acide fluorhydrique, qui font des liaisons H plus faibles ou spatialement moins développées.

Figure 1. Densités électroniques du dimère, obtenues par calcul des orbitales localisées via la mécanique quantique. Le "pont" de densité électronique qui joint les deux molécules est la « signature » de la liaison H.
La cohésion de l'eau se traduit aussi par une chaleur spécifique énorme : il faut 3 fois plus d'énergie pour réchauffer l'eau que pour la même masse de pentane, et 10 fois plus que pour la même masse de fer. Cette chaleur spécifique est aussi beaucoup plus élevée que celle du solide (plus de 2 fois supérieure à celle de la glace), alors que la plupart des liquides ont des chaleurs spécifiques proches de celles des solides correspondants. Elle est due à l'absorption de chaleur par la rupture de liaisons hydrogène : la chaleur absorbée par ces processus n'est pas disponible pour augmenter l'énergie cinétique des molécules, ce qui réduit l'élévation de température. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat.

L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait pour un liquide non associé sur la base du moment dipolaire de la molécule isolée. Qualitativement, cette réponse très forte aux champs électriques est due à l'enchaînement des molécules par les liaisons hydrogène, car les molécules liées par des liaisons hydrogène se polarisent mutuellement (Figure 2).
Figure 2. Variations de densité électronique causées par les interactions des deux molécules du dimère, par rapport aux densités électroniques de molécules isolées. Les régions où la densité électronique du dimère est excédentaire sont ombrées en gris, celles qui ont perdu de la densité électronique en blanc. L'alternance régulière de régions contenant un excès et un défaut de densité électronique crée une polarisation des molécules, qui augmente le moment dipolaire du dimère.

C'est grâce à cette constante diélectrique exceptionnelle que la vie a pu se développer dans l'eau (Figure 3). La plupart des molécules biologiques sont en effet ioniques, et les processus biochimiques requièrent la dissociation des paires d'ions et l'écrantage des charges électriques. C'est la polarisation des molécules d'eau autour d'un ion qui compense le champ électrique créé par l'ion, et permet ainsi la dissociation des paires d'ions et la dissolution des cristaux ioniques. L'exemple le plus courant de solution ionique est, bien sur, l'eau de mer, qui ne contient que 9 molécules d'eau par paire d'ions.
Figure 3. Constantes diélectriques relatives des liquides polaires usuels (variation parabolique en fonction du moment dipolaire de la molécule isolée) et de liquides associés points situés très au dessus). La valeur anormalement élevée de la constante diélectrique de l'eau est due à la polarisation mutuelle des molécules dans le liquide
L'eau est, dans les conditions usuelles de température et de pression, un liquide peu dense. Sa masse volumique est relativement peu élevée pour un liquide aussi cohésif (les huiles ont des densités comparables, mais sont beaucoup moins cohésives). Cette faible masse volumique exprime le fait que le volume occupé par les atomes est faible par rapport au volume total : les atomes de la molécule d'eau n'occupent que 49 % du volume disponible par molécule. Une grande partie du volume de l'eau liquide est donc formée de cavités.

L'eau présente toute une série d'anomalies liées aux variations de son volume. Tout d'abord, la variation en température de sa masse volumique est anormale à basse température. Pour presque tous les liquides, le volume occupé diminue régulièrement lorsqu'on abaisse la température, par suite de la réduction du désordre et surtout du nombre de lacunes excitées thermiquement. Au contraire, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité (TMD H + 4 °C pour H2O). L'eau liquide à basse température est un liquide peu dense par rapport à ce qu'on attendrait d'après sa densité à haute température.
Figure 4 Variation de la masse volumique de l'eau liquide avec la température. Pour les liquides « normaux », la masse volumique décroit de manière monotone. La température du maximum de densité de l'eau vaut 4 °C dans H2O, 11.2 °C dans D2O et 13,4 °C dans T2O. La décroissance de la densité à basse température résulte d'un changement de la structure du liquide, qui crée systématiquement des liaisons et des cavités.

Pour presque tous les liquides, le volume occupé se réduit d'environ 10 % lors de la cristallisation, car les atomes ou les molécules sont empilés de manière plus efficace dans le cristal. Au contraire, l'eau se dilate d'environ 9 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans.

Les propriétés de l'eau confinée dans des pores ou des films nanométriques diffèrent aussi de celles des autres liquides. La plupart des liquides se stratifient lorsqu'ils sont confinés entre deux surfaces planes, et ils résistent comme des solides lorsqu'on essaie de les faire s'écouler. Au contraire, l'eau reste fluide même dans des géométries extrêmement confinées. Cette résistance à la solidification semble être due aux anomalies volumiques de l'eau, qui devient plus fluide lorsqu'elle est soumise à une pression. La persistance de l'état fluide de l'eau est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules. De même le passage des ions à travers les canaux qui traversent les membranes n'est possible grâce à la fluidité de cette eau confinée.

Les propriétés de l'eau comme solvant sont aussi très surprenantes. On comprend bien que les molécules polaires ou ioniques se dissolvent facilement dans l'eau, tandis que les molécules apolaires se dissolvent beaucoup plus difficilement. Cette préférence est à l'origine de phénomènes physico-chimiques comme la micellisation des molécules de tensioactifs, la formation des membranes biologiques, et le repliement ou la dénaturation des protéines. Cependant le passage dans l'eau de ces molécules hydrophobes ou amphiphiles se fait de manière tout à fait anormale : alors que la dissolution dans n'importe quel solvant est un processus défavorable du point de vue des énergies, mais favorisé par l'entropie, c'est l'inverse qui se produit pour la dissolution des molécules apolaires dans l'eau. Ces effets varient fortement avec la température, et on trouve que les solubilités augmentent aussi bien quand on va vers les basses températures (c'est bien pour les poissons, qui respirent l'oxygène dissous) que lorsqu'on va vers les températures élevées (l'eau super-critique est un bon solvant, utilisé, par exemple, pour extraire la caféine). Le minimum de solubilité coïncide à peu près avec le minimum de densité de l'eau pure, ce qui suggère que ces solubilités anormales sont liées à l'équation d'état (anormale elle aussi) de l'eau liquide.

Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, formamide etc). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ - bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette explication n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant.
Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

On ne compte plus les théories proposées pour expliquer telle ou telle anomalie de l'eau, et abandonnées parce qu'elles n'expliquent que certaines anomalies, mais pas l'ensemble des propriétés de l'eau. On peut ainsi citer la théorie des « icebergs », dans sa version liquide pur (l'eau liquide serait formée de petits groupes de molécules ayant la structure de la glace, séparées par un liquide désordonné) et dans sa version solvant (les molécules d'eau se réorganiseraient autour d'un soluté apolaire pour former plus de liaisons hydrogène que l'eau pure, ce qui expliquerait le coût entropique de l'introduction du soluté). De nombreuses théories ont aussi postulé des structures particulières, comme des structures de type « clathrates », semblables aux cages que forment les molécules d'eau dans les hydrates de gaz cristallins. On discute actuellement une série de modèles qui postulent que l'eau serait formée de deux liquides mélangés dans des proportions qui changeraient avec la température et la pression, mais ne se sépareraient que dans des conditions de température inaccessibles aux expériences.
Il peut sembler paradoxal qu'une civilisation qui comprend la physique de l'infiniment grand et de l'infiniment petit, et qui est capable de prouesses technologiques considérables, n'arrive pas à décrire le liquide dans lequel tous les systèmes vivants fonctionnent. En fait, il s'agit d'un problème dur. Les verrous tiennent, pour une part, à une limitation des informations expérimentales. En effet, nous ne savons pas mesurer, dans un liquide, les fonctions de corrélation qui décrivent les arrangements de petits groupes de molécules (3 ou plus) : depuis un demi-siècle, nous sommes limités aux fonctions de corrélation de paires. Ils sont aussi dus à notre incapacité à simplifier correctement la description d'un liquide dans lequel les molécules forment des liaisons ayant un fort caractère orientationnel. Nous savons, bien sur, décrire ces liaisons, et nous pouvons simuler numériquement les mouvements des molécules soumises à ces interactions et à l'agitation thermique : nous pouvons ainsi reproduire certaines propriétés du liquide (mais pas toutes à la fois !) Par contre, nous ne savons pas, actuellement, construire une théorie de l'eau en utilisant les outils de la physique statistique.

Pour en savoir plus :
« The physics of liquid water »
B. Cabane, R. Vuilleumier
C. R. Geosciences. 337 (2005) 159
Liquides : solutions, dispersions, émulsions, gels
B. Cabane et S. Hénon
Livre publié par Belin (2003)

 

  VIDEO       CANAL  U         LIEN

 
 
 
  LA TRIBOLOGIE
 

 

 

 

 

 

 

LA TRIBOLOGIE


La tribologie est la science des frottements. Un 'frottement' intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est en fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., on pourrait multiplier les exemples connus de tous. La plupart de ces phénomènes peuvent se comprendre sur la base des lois du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant), à partir de la notion de coefficient de frottement. Pourtant l'évidence apparente de ce 'vieux problème' cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, etc. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes sous-jacents, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans. Dans cet exposé, j'aborderai quelques manifestations du frottement sur différents exemples illustrant la complexité du phénomène. Je discuterai ensuite des causes du frottement, des premières interprétations de Amontons, Coulomb et d'autres au 18ème siècle en terme de rugosité de la surface, jusqu'aux travaux les plus modernes sur la nano-tribologie des contacts. Je décrirai en particulier les outils d'investigation modernes, tels que le microscope à force atomique, la machine de force de surfaces, les simulations numériques à l'échelle moléculaire, qui permettent désormais d'accéder aux fondements intimes du frottement aux échelles moléculaires avec des manifestations parfois étonnantes. Le développement de ces techniques d'investigation performantes ouvre désormais de nouvelles perspectives dans la compréhension et l'optimisation du frottement.

Texte de la 597 e conférence de l'Université de tous les savoirs prononcée le 19 juillet 2005
Par Lydéric Bocquet: « Approche physique du frottement »
La tribologie est la science des frottements. Un « frottement » intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est de fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement de craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., etc. On pourrait multiplier les exemples connus de tous. Le frottement est ainsi intimement associé à la perception de notre environnement immédiat. Au cours de l'histoire humaine, les efforts pour s'en affranchir ont d'ailleurs été un facteur de progrès considérable, depuis l'invention de la roue plus de 3000 ans avant Jésus-Christ, jusqu'aux développements technologiques les plus récents dans la recherche de nouveaux matériaux (par exemple les composites céramiques pour la réalisation de prothèses artificielles). L'augmentation des performances techniques passe souvent par le développement de matériaux spécifiques qui permettent de diminuer les efforts de frottement : on limite ainsi l'usure, tout en réduisant la consommation énergétique, et en limitant le vieillissement des pièces. Dans d'autres domaines, l'effort est inversement plutôt concentré sur une augmentation du frottement, par exemple dans les dispositifs de freinage, ou les composites constituants les freins.
Les sciences du frottement sont donc intimement liées au développement technologique, tournées vers l'application. Pourtant c'est un domaine qui continue de soulever de nombreuses questions au niveau le plus fondamental. L'origine même du frottement reste largement incomprise et suscite de nombreuses études au niveau mondial, avec des découvertes récentes très prometteuses.
Des lois simples pour des phénomènes complexes -
La plupart des phénomènes associés au frottement peuvent se comprendre sur la base des lois phénoménologiques du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant). Ces lois empiriques font intervenir une quantité clef : le coefficient de frottement, coefficient sans dimension que l'on note en général m. Plaçons un objet sur une surface plane : par exemple un kilo de sucre sur une table. Pour déplacer cet objet, de poids P (la masse multipliée par la constante de gravité, g=9.8 m/s2), il faut exercer une force FT parallèlement à la surface de la table. Mais l'expérience montre que cet objet ne se déplacera pas tant que la force FT est inférieure à une force minimale. De plus Amontons et Coulomb ont montré que cette force minimale est directement proportionnelle à la force normale, donc ici au poids : autrement dit, l'objet ne se déplace pas tant que
|FT |S |P|,
mS définissant le « coefficient de frottement statique ». D'autre part, si l'objet se déplace maintenant à vitesse constante sur la surface, l'expérience montre dans ce cas que la force de frottement tangentielle subie par l'objet est également proportionnelle à la force normale et (quasiment) indépendante de la vitesse :
|FT | = mD |P|,
mD définissant le « coefficient de frottement dynamique ». De façon générale on mesure que mD est plus petit que mS. De plus, Amontons et Coulomb, mais également Léonard de Vinci, ont mis en évidence que ces coefficients mS et mD ne dépendent pas de l'aire de contact de l'objet frottant (voir figure 3) : que l'on pose le kilo de sucre bien à plat ou sur la tranche, la force de frottement est la même, ce qui est assez peu conforme à l'intuition ! Nous reviendrons plus loin sur ce « mystère des surfaces », qui n'a été élucidé qu'assez récemment.
Un autre fait étonnant concerne la valeur typique de ces coefficients de frottement, qui s'écarte assez peu de m~0.3, pour des surfaces très différentes les unes des autres. La technologie permet toutefois de concevoir des surfaces avec des coefficients de frottement soit bien plus petits (m~0.001) soit plus grand (m > 1).
Le stick-slip, du violon aux tremblements de terre -
Ces lois simples permettent de rationaliser beaucoup des phénomènes observés pour les objets frottants. Nous nous attardons en particulier sur l'une des manifestations les plus marquantes du frottement, le stick-slip. Cette expression anglophone traduit parfaitement le phénomène, le stick-slip caractérisant un mouvement saccadé. Ce type de mouvement est observé lorsque l'on tire sur un objet frottant par l'intermédiaire d'un ressort : par exemple un paquet de sucre tiré par un élastique. Le mouvement de l'objet qui en résulte n'est en général pas uniforme mais saccadé : avec des périodes où l'objet résiste et ne bouge pas (« stick ») ; puis des périodes plus courtes où le seuil de résistance est dépassé et l'objet glisse sur une distance importante (« slip »). Les lois de Amontons-Coulomb permettent d'en comprendre les mécanismes élémentaires, et montrent que l'origine du « stick-slip » dans ce système mécanique simple {objet-ressort} est liée à l'inégalité des coefficients de frottement soulignée précédemment mD S. Les deux phases du mouvement reflètent ainsi deux états distincts du système : la phase statique (« stick ») est sous contrôle du frottement statique entre l'objet et la surface, tandis que la phase de glissement (« slip ») correspond au mouvement presque libre de l'objet sous l'action du ressort.
Cette dynamique saccadée se retrouve de façon générique dans des phénomènes pourtant très différents : du grincement des portes aux tremblements de terre, en passant par la mise en vibration d'une corde de violoncelle sous le frottement d'un archer. Même si ils se produisent à des échelles spatiales très différentes, ces phénomènes sont tous associés à une dynamique intrinsèque de type « stick-slip », associant les deux éléments mécaniques clefs : un corps frottant et un « ressort ». Dans le cas des instruments à cordes frottés, ces deux éléments sont aisés à identifier : le frottement se déroule à l'interface entre les crins de l'archer et la corde de l'instrument (via la colophane, résine qui augmente le frottement), tandis que la corde joue le rôle du « ressort ». Le mouvement continu de l'archer provoque une suite de petits déplacements de la corde, telle une multitude de pizzicati, qui produit in fine ce son velouté caractéristique des cordes frottées. Dans le cas des tremblements de terre, le frottement a lieu à l'interface entre plaques continentales qui jouent donc à la fois le rôle d'objet frottant (à leurs interfaces) et de ressort (dans leur globalité). Le déplacement des plaques continentales les unes par rapport aux autres pendant la phase stick conduit à l'accumulation de contraintes gigantesques à l'interface entre plaques. Le relâchement brutal de ces contraintes lorsque le seuil de résistance est atteint libère une énergie considérable et destructrice pendant la phase slip. Ici encore, le caractère saccadé du phénomène conduit à la production de vibrations, sous la forme d'ondes sismiques qui sont enregistrées par les sismographes. Si les mécanismes de base sont simples, la prédiction des tremblements de terre s'avère extrêmement complexe et continue à susciter des recherches poussées.
De l'origine des lois de Amontons-Coulomb -
Les lois du frottement énoncées précédemment sont très simples dans leur formulation, qui ne nécessite que l'introduction de coefficients sans dimension (mS et mD). Pourtant l'évidence apparente de ces lois cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, et cette liste n'est pas exhaustive. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes mis en jeu, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans.
Les premières tentatives d'explication des lois du frottement ont été proposées par Belidor et Coulomb au 18ème siècle, qui ont associé l'existence du frottement à la rugosité des surfaces. L'idée originale se base sur l'emboîtement des rugosités de surface qui conduit à l'existence d'un coefficient de frottement (voir Figure 1). Une schématisation simple de cette idée est représentée sur la figure 1 (droite), avec deux surfaces présentant des rugosités en dents de scie. Si l'on applique une force normale N sur la surface supérieure et une force horizontale T, un bilan des forces horizontales permet de montrer que l'équilibre des forces est rompu lorsque la force tangentielle est supérieure à une valeur de rupture : Tmax=mS |N|, définissant ainsi un coefficient de frottement statique mS=tan(a). L'angle a est ici la pente de la rugosité par rapport à l'horizontale. Aussi simpliste qu'il soit, cet argument permet de lier le frottement (statique) aux caractéristiques de la rugosité. De plus les valeurs expérimentales typiques des coefficients de frottement statique, de l'ordre de 0.3, correspondent à des pentes de la rugosité de surface de l'ordre de 15-20 degrés, ce qui est tout à fait compatible avec les caractéristiques typiques que l'on peut mesurer pour les rugosités de surfaces.
Cet argument repose cependant sur une hypothèse implicite : l'emboîtement parfait entre les rugosités des deux surfaces, tel que cela est illustré de façon schématique sur la figure 1, et sur la figure 2 (gauche) pour une surface schématique à l'échelle « atomique ». On parle dans ce cas de surfaces commensurables. Ca n'est bien sûr pas le cas en général dans la nature : même à l'échelle atomique, deux surfaces idéales, telles que celles qui sont représentés à l'échelle atomique sur la figure 2, présentent des légères différences de distance interatomique. Une légère disparité suffit à rendre très irrégulière la répartition des points de contact entre les deux surfaces (voir figure 2 droite), contrairement au cas commensurable (figure 2 gauche). On parle alors de surfaces incommensurables. On peut montrer par un raisonnement similaire à celui mené précédemment que la répartition irrégulière des contacts entre surfaces incommensurables conduit à l'annulation des
Figure 2 : Contact schématique entre deux surfaces (les disques esquissant les atomes de chaque surface en contact. (gauche) Deux surfaces commensurables en contact. Les points de contact entre surfaces (étoiles) sont répartis régulièrement. (droite) Deux surfaces incommensurables en contact. Les contacts entre surfaces (étoiles) se répartissent de façon irrégulière.

forces de frottement tangentielles : la force de frottement statique est identiquement nulle entre surfaces incommensurables !
Autrement dit, on aboutit à la conclusion que le frottement entre deux surfaces commensurables est non-nul, tandis qu'il s'annule exactement si ces deux surfaces sont incommensurables.
Ce résultat très étonnant a été confirmé pour la première fois dans des expériences très récentes par le groupe de M. Hirano et collaborateurs au japon [Hirano1997], puis confirmé par d'autre groupes de recherche, notamment pour des surfaces de graphite [Dienwiebel 2004].
Ce phénomène est désormais connu sous le nom de « supra friction » et a ouvert une voie de recherche très prometteuse pour le développement de surfaces avec des frottements très faibles, le graal des tribologues.
Cependant, la suprafriction est pour l'instant observée dans des conditions drastiques, assez éloignées des conditions de la vie réelle. Ces mesures sont notamment réalisées en plaçant ces surfaces dans une enceinte où un vide très poussé est réalisé. On supprime ainsi tout contaminant présent dans l'atmosphère (poussière, molécule organique, ...) qui, comme on va le voir, supprimerait cet état de suprafriction et conduirait à une force de frottement non-nulle. Il reste donc encore du chemin à parcourir pour obtenir des surfaces « supra-frottantes » dans des conditions d'utilisations technologiques, où il est difficile de supprimer la présence de polluants.
Le « troisième corps »- le grain de sable dans les rouages
La remarque précédente pointe le rôle joué dans le frottement par les contaminants et plus généralement les corps intersticiels. Ce rôle a été reconnu assez récemment dans l'histoire de la tribologie. Pourtant les corps intersticiels constituent un ingrédient incontournable du frottement. En effet, les surfaces laissées à l'air libre se polluent très rapidement sous l'effet de poussières, molécules organiques, de l'humidité, etc. présentes dans l'air. De plus le contact frottant entre deux surfaces génère lui-même des débris d'usure, grains de matière de tailles variées qui vont se retrouver dans les interstices à l'interface entre les deux surfaces. Une illustration simple est la trace laissée par une craie sur un tableau, ou d'un pneu lors du freinage.
Or la présence de contaminants modifie profondément le frottement, et notamment le scénario discuté précédemment en ce qui concerne la commensurabilité des surfaces frottantes. Des travaux récents utilisant des simulations numériques de ces processus à l'échelle moléculaire ont montré que la présence de quelques contaminants dans l'interstice entre les deux surfaces suffit à rétablir systématiquement un coefficient de frottement non-nul, même dans le cas où les deux surfaces sont incommensurables [Robbins]. Les contaminants mobiles viennent se placer dans les interstices laissés libres entre les surfaces et contribuent à rétablir une « commensurabilité effective » des surfaces, sous la forme d'un emboîtement partiel. Le coefficient de frottement prend alors une valeur non nulle, même pour des surfaces incommensurables. Les contaminants viennent jouer le rôle du « grain de sable » dans les rouages.
A cause de ces corps intersticiels, le contact entre deux surfaces dans des conditions de la vie quotidienne a donc assez peu à voir avec l'idée d'une assemblée d'atomes telle qu'elle est représentée sur la figure 2. Le « frottement idéal » qui y est représenté n'existe que dans des conditions très particulières. Ce résultat donne donc une perspective différente concernant l'origine du frottement entre surfaces, en pointant la contribution essentielle des impuretés.
Pour prendre en compte ces impuretés, les tribologues ont introduit la notion de « 3ème corps », qui regroupe l'ensemble des corps situés entre les deux surfaces en contacts (les deux premiers corps). Un problème de frottement doit donc en principe prendre en compte ces trois corps et les échanges (de matière, chaleur, etc.) qui peuvent exister entre eux. On voit ici poindre la complexité du problème de frottement. Les lois de Coulomb et l'origine même du frottement prennent leur origine non pas dans un seul phénomène bien identifié à l'échelle atomique, mais résulte d'un ensemble de phénomènes couplés.
Le mystère des surfaces -

Figure 3 : dessins de Léonard de Vinci, illustrant ses expériences démontrant l'indépendance du coefficient de frottement vis-à-vis de l'aire de contact entre le corps frottant et la surface (tiré de [Dowson]).

Cette complexité sous-jacente se retrouve dans une autre manifestation des lois de Amontons-Coulomb : l'indépendance des coefficients de frottement vis-à-vis de l'aire de contact. Léonard de Vinci avait déja observé ce phénomène, comme le montre l'une de ses planches (figure 3). Quelque soit la surface de contact de l'objet frottant, la force de frottement est identique. Ce résultat très contre-intuitif a défié l'imagination des scientifiques plusieurs siècles avant que Bowden et Tabor au Cavendish à Cambridge n'en proposent une explication dans les années 1950.
La clef de ce phénomène est une nouvelle fois la rugosité de surface. Comme on le montre schématiquement sur la figure 4, à cause de la rugosité, les zones de contact réel entre les surfaces sont bien plus petites que l'aire de contact apparente entre les surfaces, telle qu'elle nous apparait de visu.

Aréelle
Figure 4 : Illustration de deux surfaces rugueuses en contact. L'aire de contact réelle (Aréelle) entre les surfaces est bien plus petite que l'aire apparente (Aapp).
Aapp

Cette distinction entre surface réelle et surface apparente a été démontré par visualisation optique directe de la surface de contact, notamment par Dieterich et Kilgore et plus récemment par Ronsin et Baumberger. Cette observation donne une image de zones de contact réel très clairsemées, avec une taille typique pour chaque zone de l'ordre du micron. Ainsi l'aire de contact réelle entre deux objets macroscopiques ne représente typiquement que 0.1 % de l'aire de contact totale : Aréelle /Aapp~0.001.
Une conséquence immédiate est que la force normale (FN) à laquelle on soumet l'objet ne se répartit que sur les aspérités en contact et non sur l'ensemble de la surface de l'objet. En conséquence la pression au sein de ces contacts, c'est-à-dire la force par unité de surface, Pcontact=FN/Aréelle , est bien plus grande que celle que l'on attendrait a priori si la force FN se répartissait sur l'ensemble de la surface, Papp=FN/Aapp. Or aux très grandes pressions, un matériau devient en général plastique, c'est à dire qu'il s'écrase sans que sa pression ne varie. La valeur de la pression à laquelle se déroule ce phénomène est appelée dureté du matériau, que l'on notera H. La pression au sein des contacts étant fixée à H, on en déduit alors que l'aire réelle du contact est directement proportionnelle à la force appliquée : Aréelle = FN/H. Autrement dit, plus la force appliquée est grande, plus le contact réel est grand, ce qui est finalement assez intuitif.
Ce mécanisme permet de retrouver les lois de Coulomb. En effet, l'aire frottante étant l'aire réelle, on s'attend à ce que la force de frottement tangentielle soit proportionnelle à cette aire : Ffrottement = g Aréelle. Le coefficient de proportionalité g a les dimensions d'une force par unité de surface (donc d'une pression). On note plus généralement ce coefficient sY, « contrainte de cisaillement ». En utilisant l'expression précédente pour l'aire de contact réelle, Aréelle = FN/H, on aboutit à une force de frottement qui prend la forme d'une loi de Amontons-Coulomb : Ffrottement = m FN, avec m=sY/H qui est bien une caractéristique du matériau à la surface.
Cette explication de Bowden et Tabor au phénomène de frottement permet donc de comprendre la proportionalité de la force de frottement vis-à-vis de la force normale, mais également l'indépendance du coefficient de frottement vis-à-vis de la surface apparente de contact.
Cette explication repose cependant sur l'hypothèse de déformation plastique des aspérités, qui, si elle est pertinente pour des métaux, pose question pour d'autres matériaux (comme par exemple les élastomères). De fait, Greenwood et Williamson ont montré dans les années 1960 que le point clef du raisonnement précédent, c'est à dire la proportionalité entre aire de contact réelle et force normale FN, est maintenu même dans le cadre d'aspérités qui se déforment élastiquement, par un effet de moyenne statistique sur l'ensemble des aspérités en contact.
Une autre hypothèse implicite du raisonnement précédent est que la contrainte de cisaillement que nous avons introduit, sY, est une caractéristique des matériaux, indépendante des conditions du frottement, notamment de la vitesse. Ce point mérite de s'y attarder un peu plus longuement. La contrainte de cisaillement sY est associée aux propriétés mécaniques du contact à l'interface entre aspérités de tailles micrométriques. Des expériences récentes ont pu sonder indirectement les propriétés mécaniques de ces jonctions [Bureau]. Ces expériences suggèrent qu'à la jonction entre deux aspérités en contact, le matériaux se comporte comme un milieu « vitreux » et que la contrainte seuil est intimement associée à ces propriétés vitreuses. Qu'est-ce qu'on appelle un « milieux vitreux » ? Ce sont des milieux dont la structure microscopique est désordonnée (comme un liquide), mais figée (comme un solide). Leur propriétés sont intermédiaires entre celles d'un liquide et celles d'un solide : entre autres, ils ne coulent pas au repos (comme des solides), mais au delà d'une contrainte minimale appliquée, ils s'écoulent (comme des liquides). De tels matériaux sont omniprésents dans notre vie quotidienne : verre, mousses alimentaires, émulsions (mayonnaise), gels, milieux granulaires, etc. Ce sont justement ces propriétés mi-liquide, mi-solide qui constituent leur intérêt industriel (et notamment agro-alimentaire). Au delà des intérêts industriels évidents, ces milieux vitreux font actuellement l'objet d'une recherche fondamentale très intense, avec des progrès récents dans la compréhension des mécanismes élémentaires associés à leur façon très particulière de couler.
La question du frottement se trouve précisement liée à la compréhension des processus d'écoulement de tels milieux, pourtant à une tout autre échelle spatiale. Comprendre l'origine de la contrainte de cisaillement à l'échelle (quasi-nanométrique) des jonctions entre aspérités en contact rejoint ainsi la compréhension des propriétés d'écoulement de la mayonnaise ! Au delà de l'anecdote, cette compréhension soulève dans les deux cas des problèmes fondamentaux très délicats.
La lubrification -
Jusqu'à présent, nous avons concentré notre discussion sur le frottement dit « sec », qui correspond à la situation où les deux surfaces frottantes sont en contact direct. Mais du point de vue technologique et pratique, cette situation est à proscrire si l'on veut un frottement faible. Cela apparaît comme une évidence pratique qu'il faut lubrifier les pièces mécaniques et « mettre de l'huile dans les rouages ». Un moteur à explosion qui « tourne » sans huile va chauffer, jusqu'à subir des dommages définitifs. La diminution du frottement par l'ajout de lubrifiants est connu depuis des milliers d'années, comme le démontre ce bas-relief égyptien représenté sur la figure 5, datant de 1880 avant Jésus-Christ (document tiré de [Dowson]). Parmi les centaines d'hommes occupés à déplacer le traîneau sur lequel repose la statue, un personnage a un rôle bien particulier puisqu'on le voit verser du liquide devant le traîneau déplacé afin de lubrifier le contact entre le traîneau et le sol.

Figure 5 : Bas-relief égyptien montrant une statue tirée par 170 hommes. Le personnage encerclé verse du liquide pour lubrifier le frottement entre le support de la statue et le sol (tiré de [Dowson]).

Un autre exemple est la lubrification des articulations du corps humain. Par exemple, au niveau du genou, ce rôle du lubrifiant est tenu par le liquide synovial, liquide rendu très visqueux par la présence de molécules organiques très longues (l'acide hyaluronique). A l'inverse certaines pathologies, comme l'arthrose, sont associées à la baisse du pouvoir lubrifiant de ce liquide, notamment par la baisse de la viscosité.
Il apparaît donc naturel d'utiliser des liquides très visqueux comme lubrifiants (huiles, ou graisses). Ainsi, l'eau, liquide très peu visqueux, est en général un très mauvais lubrifiant. On peut s'en convaincre par une expérience très simple : des mains mouillées par de l'eau et frottées l'une contre l'autre maintiennent un fort frottement lors du mouvement, tandis que quelques gouttes d'huile suffisent à rendre les mains complètement glissantes. Si ce phénomène paraît intuitivement évident, il est toutefois étonnant de réaliser que c'est le liquide le moins fluide qui conduit au frottement le plus réduit.
Attardons-nous sur le rôle du lubrifiant dans le frottement. L'action du lubrifiant est double : d'une part le frottement entre les deux objets se réalise via un liquide et non plus directement sous la forme d'un frottement « sec » entre solides, ce qui conduit à un frottement fluide beaucoup plus faible ; et d'autre part, et c'est le point crucial, il permet d'éviter le contact solide direct. Autrement dit, l'un des rôles du lubrifiant est de maintenir la présence d'un film liquide entre les deux parois solides, empêchant ainsi les aspérités solides d'entrer en contact direct.
C'est justement là où va intervenir la viscosité. Un liquide visqueux coule « difficilement ». Lorsque l'on va presser les deux surfaces l'une contre l'autre (par exemple les mains dans l'exemple précédent), le liquide le plus visqueux sera le plus difficile à déplacer. Il se maintiendra donc sous la forme d'un film liquide entre les deux surfaces et c'est ce film liquide maintenu qui assurera le frottement fluide, donc la lubrification. A l'inverse, l'eau, fluide peu visqueux, va disparaître du contact lorsque les deux surfaces seront pressées l'une contre l'autre : un contact solide direct sera rétabli et l'on retrouve ainsi un frottement « sec » avec un coefficient de frottement élevé.
D'autres propriétés du lubrifiant vont également jouer un rôle dans ce mécanisme, notamment la « mouillabilité », c'est à dire l'affinité du liquide vis-à-vis de la surface, qui va influer sur la capacité du lubrifiant à recouvrir la surface et ses anfractuosités.
Le lubrifiant doit donc assurer des fonctions relativement antagonistes : l'une est d'être suffisamment fluide pour assurer un faible frottement, l'autre d'être suffisamment visqueux pour éviter le contact direct. Une huile de type moteur est donc un mélange complexe, contenant des dizaines d'additifs dont l'assemblage permet au final d'atteindre ces deux objectifs de façon optimale.
Conclusions :
Dans ce texte, nous avons présenté quelques points intervenant dans le problème du frottement entre solide. En aucun cas, il ne s'agit ici d'un panorama exhaustif et nous n'avons pas parlé ici de nombre de phénomènes également présent dans les problèmes de frottement, comme la physico-chimie des surfaces, la thermique, le vieillissement, l'usure, l'abrasion, etc...qui auraient tout aussi bien nécessités une discussion approfondie.
La tribologie est ainsi une science par essence pluridisciplinaire. Le phénomène de frottement résulte non pas d'un mécanisme unique, mais d'une multitude de phénomènes complexe et souvent couplés, qui aboutissent in fine aux lois pourtant simples d'Amontons-Coulomb.
C'est également vrai dans l'approche scientifique de ces problèmes. La science des frottements associe ingénieurs et scientifiques, recherche appliquée et fondamentale. Ces deux approches sont par nature couplées. Ainsi, si les questions soulevées sont anciennes, c'est un domaine dans lequel les derniers développements fondamentaux ont permis de mettre en évidence des phénomènes complètement inattendus, laissant augurer de progrès technologiques important dans un avenir proche.
Références :
[Bowden-Tabor] F.P. Bowden and D. Tabor, « The friction and lubrication of solids » (Clarendon Press, London, 1950).
[Bureau] L. Bureau, T. Baumberger, C. Caroli, « Jamming creep at a frictional interface », Physical Review E, 64, 031502 (2001).
[Dowson] D. Dowson « History of Tribology » (Longman, New York, 1979).
[Dienwiebel] M. Dienwiebel et al., « Superlubricity of Graphite », Physical Review Letters, 92, (2004).
[Hirano1997] M. Hirano, K. Shinjo, R. Kaneko and Y. Murata, « Observation of superlubricity by scanning tunneling microscopy », Physical Review Letters, 78, pp.1448-1451 (1997)
[Robbins] G. He, M. Müser, M. Robbins « Adsorbed Layer and the origin of static friction », Science 284 1650-1652 (1999).

 

 VIDEO       CANAL  U         LIEN

 
 
 
  LASER
 

 

 

 

 

 

 

CLAUDE COHEN-TANNOUDJI « Le laser ouvre de nouveaux champs de recherche »


La mise au point du laser, en 1960, a transformé l'étude de la lumière. Claude Cohen-Tannoudji, acteur majeur de ces cinquante années de recherche, livre son regard sur une histoire qui continue à s'écrire.
LA RECHERCHE : Comment un chercheur envisage-t-il l'étude de la lumière ?

CLAUDE COHEN-TANNOUDJI : La lumière ne peut s'étudier que par son interaction avec la matière. L'étude expérimentale de la lumière a débuté au XVIIe siècle. Descartes et Newton furent les premiers à réellement développer des modèles satisfaisants de la lumière. Il s'agissait de modèles corpusculaires. Newton pensait ainsi que la lumière était un jet de corpuscules et qu'il existait des corpuscules différents selon la couleur de la lumière. Ils étaient, selon lui, responsables de la sensation lumineuse.

C'est une conception ondulatoire de la lumière qui a rapidement eu la faveur des scientifiques ?
C.C.-T. En effet ; peu après, il y a eu toute une série de mises en évidence de propriétés ondulatoires à la suite des travaux de Huygens, de Fresnel et de Young. L'apogée fut la formulation des équations de Maxwell dans la seconde moitié du XIXe siècle, qui englobaient dans un même schéma cohérent l'électricité, le magnétisme et la propagation des ondes électro-magnétiques. Et il y a enfin eu les expériences de Hertz qui ont permis de montrer que les ondes électro-magnétiques lumineuses et radio avaient la même nature et ne différaient que par la fréquence.
Après cette compétition entre les modèles corpusculaire et ondulatoire, il semblait que la théorie ondulatoire allait triompher définitivement. Elle expliquait les phénomènes d'interférence, de diffraction, avec une grande précision. Elle donnait une explication cohérente d'une série d'observations. L'électromagnétisme était l'une des premières grandes synthèses de la physique.

Mais, à la fin du XIXe siècle, elle va être remise en question...
C.C.-T. Oui, il y avait alors deux petits « nuages » qui obscurcissaient ce tableau. Le premier était un constat d'échec. Les scientifiques pensaient qu'un milieu était nécessaire pour permettre la propagation d'une onde : un milieu appelé « éther » pour la lumière, comme l'air pour une onde sonore. Or toutes les tentatives de mettre en évidence un mouvement de la Terre par rapport à l'éther avaient échoué, remettant en question l'existence de ce milieu hypothétique.
Le second « nuage » était l'analyse du spectre du « corps noir » : en appliquant à la lumière les lois de la physique statistique* et en calculant la répartition en fréquences du rayonnement émis par un corps à une température T, on trouvait quelque chose d'aberrant. Aux hautes fréquences, l'intensité du rayonnement émis à la fréquence v décroissait trop lentement quand v tendait vers l'infini et l'on prévoyait un résultat infini pour l'énergie lumineuse totale rayonnée !

C'est pour expliquer ces résultats curieux que Planck a l'idée d'introduire les quanta ?
C.C.-T. Planck propose une nouvelle théorie selon laquelle il obtient le bon spectre en modélisant les atomes émetteurs comme un ensemble d'oscillateurs matériels interagissant avec le rayonnement. Dans cette théorie, il fait appel à un artifice mathématique classique : il remplace une distribution continue par une distribution discrète. Cela permet de simplifier le calcul, à la fin duquel on fait tendre vers zéro les « pas » du calcul pour rétablir la distribution continue. Seulement, il n'obtient les bons résultats qu'en s'affranchissant de cette dernière étape et en conservant jusqu'au bout une quantification discrète des échanges d'énergie entre les oscillateurs et le rayonnement. Planck n'est pas satisfait de ce résultat, car la démarche lui semble artificielle ! Mais c'est ainsi qu'il introduit la constante qui porte son nom et que l'on écrit h, du mot allemand Hilfsgrösse voulant dire « grandeur auxiliaire ». Cependant, personne n'imagine encore que la lumière est constituée de grains : ce sont seulement les échanges d'énergie entre la matière et le rayonnement qui se font de façon quantifiée.

Quand apparaît le concept de photon ?
C.C.-T. Dans l'un des trois articles fondamentaux d'Einstein - vraisemblablement le plus révolutionnaire -, en 1905. Il calcule l'entropie* du rayonnement et conclut que tout se passe comme si le rayonnement était constitué de corpuscules d'énergie quantifiée. La quantification n'est donc plus envisagée pour les seuls échanges d'énergie, mais pour le rayonnement lui-même.

Quelle est la réaction de la communauté scientifique des physiciens ?
C.C.-T. Scepticisme général : personne n'y croit. Quand Planck présente Einstein à l'Académie de Prusse en 1913, il parle d'un scientifique remarquable, qui a apporté des contributions fondamentales dans de nombreux domaines, mais qui a commis quelques erreurs de jeunesse comme l'idée de ce quantum lumineux - qu'on appellera photon par la suite -, pour lesquelles il faut lui pardonner.
On ne sait pas comment on peut réconcilier les quanta lumineux avec l'aspect ondulatoire. Ce n'est que petit à petit que les gens accepteront cette idée. Ainsi, après une dizaine d'années d'expérience, Robert A. Millikan dut admettre ne pas avoir réussi à mettre en défaut l'équation d'Einstein sur l'effet photo-électrique à laquelle il ne croyait pas.

Est-ce à cette époque que germe l'idée du laser ?
C.C.-T. Il faut remonter à 1917 et à l'article dans lequel Einstein essaie de retrouver la loi de Planck de façon simple en étudiant les échanges d'énergie dans des processus d'émission et d'absorption de photons par un atome à deux niveaux d'énergies différentes. Einstein introduit pour la première fois dans ce domaine l'idée de processus non déterministe : l'atome passe du niveau supérieur (d'énergie la plus élevée) au niveau inférieur (état fondamental supposé stable) avec une certaine probabilité par unité de temps d'émettre un photon de manière spontanée. Cette idée est révolutionnaire parce que toute la physique est déterministe à l'époque : si on connaît les conditions initiales, on pense que le système doit évoluer d'une manière bien définie. L'idée de probabilité de transition est nouvelle. Einstein considère dans son article que l'atome dans l'état fondamental peut absorber un photon avec une certaine probabilité de transition, puis retomber dans l'état fondamental par émission spontanée.
Einstein introduit aussi dans le même article l'idée d'émission stimulée : si un rayonnement incident arrive sur un atome dans l'état excité, il peut stimuler l'atome à revenir au niveau fondamental en émettant un photon identique au photon incident. En étudiant l'état d'équilibre atteint sous l'effet combiné des processus d'absorption, d'émission spontanée et stimulée, il retrouve en quelques lignes de calcul la loi de Planck, de façon beaucoup plus élégante qu'auparavant. Mais toutes ces idées nouvelles, qui paraissent alors vraiment académiques, vont rester en sommeil jusqu'au début des années 1950.

Que devient alors la polémique sur la nature ondulatoire ou corpusculaire de la lumière ?
C.C.-T. Einstein montre que dans l'interaction entre la matière et le rayonnement, il y a des phénomènes où la lumière apparaît de manière corpusculaire et des phénomènes où elle apparaît de manière ondulatoire, mais il ne propose pas de théorie précise. Louis de Broglie étend à la matière la notion de dualité onde-corpuscule, ouvrant la voie à de nombreux développements : l'équation de Schrödinger, la mécanique quantique, la liaison chimique, la théorie des solides... Peu à peu, le cadre pour une théorie complètement quantique de l'interaction entre la matière et le rayonnement se met en place. Et, à la fin des années 1920, l'Italien Enrico Fermi et le Britannique Paul Dirac proposent enfin une théorie satisfaisante englobant l'aspect corpusculaire et l'aspect ondulatoire, qui allait ouvrir la voie à l'élaboration de l'électrodynamique quantique.

Comment est née l'idée du laser ?
C.C.-T. Pendant la Seconde Guerre mondiale, de nombreux travaux avaient porté sur les micro-ondes et le radar en particulier ainsi que sur les jets atomiques et moléculaires. La connaissance des niveaux atomiques et moléculaires avait beaucoup progressé et on savait mieux réaliser des situations « hors d'équilibre », où les populations des divers niveaux d'énergie sont différentes de leurs valeurs d'équilibre. Le physicien américain Charles Townes connaissait tous ces développements : il avait notamment travaillé sur le radar pour l'armée et avait écrit un livre sur la spectroscopie micro-onde avec Arthur Leonard Schawlow. Il eut ainsi l'idée - tôt le matin en se promenant dans un parc, raconte-t-il - d'utiliser l'émission induite dans un milieu hors d'équilibre, où le niveau supérieur d'une transition atomique est plus peuplé que le niveau inférieur, pour amplifier un rayonnement traversant le milieu. Les photons nouveaux obtenus par émission induite, identiques aux incidents, sont en plus grand nombre que les photons disparaissant par absorption. En 1954, il obtient la première preuve d'oscillation maser (microwave amplification by stimulated emission of radiation).

Auparavant, le Français Alfred Kastler n'avait-il pas eu l'idée du « pompage optique » ?
C.C.-T. Kastler avait eu l'idée de manipuler les atomes par la lumière, de les mettre dans une situation hors équilibre, mais il n'avait jamais pensé à combiner cette possibilité avec l'émission stimulée pour amplifier un rayonnement. C'est pourquoi il n'aimait pas qu'on associe son nom au maser ou au laser. Townes, en revanche, voulait faire des sources de rayonnement avec des caractéristiques complètement différentes des sources classiques : directivité, puissance, monochromaticité, etc.

Comment est-on passé du maser au laser ?
C.C.-T. Naturellement. Cinq ans après avoir conçu le maser, Charles Townes et Arthur Leonard Schawlow - qui était son beau-frère - se sont demandé pourquoi ne pas mettre en oeuvre le processus d'amplification dans le domaine optique. Il leur fallait trouver comment faire des inversions de populations - obtenir davantage d'atomes dans le niveau supérieur d'une transition atomique que dans le niveau inférieur - dans cette gamme de longueur d'onde. C'est alors que Townes est venu un an ici, dans le laboratoire d'Alfred Kastler, en séjour sabbatique. Nous partagions le même bureau.

Vous-même n'étudiiez pas le laser ?
C.C.-T. Non, nous travaillions sur le pompage optique, nous ne pouvions pas tout faire. Et ce n'était pas du tout évident que l'amplification dans le domaine optique allait fonctionner. Finalement le premier laser (le « l » de light remplace le « m » de microwave) a été obtenu en 1960 par le physicien américain Theodore Maiman dans un cristal de rubis. Peu après, Ali Javan, alors au Massachusetts Institute of Technology, a présenté le premier laser à gaz. Toutes les voies pour faire des inversions de populations ont été explorées. Townes racontait même que Schawlow avait fabriqué un laser comestible avec des gélatines de molécules fluorescentes.

Comment ces découvertes ont-elles été perçues ?
C.C.-T. Tous ces travaux étaient considérés comme des recherches purement académiques. On parlait même de « solution en attente d'un problème » ! Je me souviens d'un congrès d'électronique quantique à Paris en 1963 où l'on disait que c'étaient de belles réalisations, mais en quelque sorte des curiosités de laboratoire. Cependant, le laser était pour nous une nouvelle source de lumière très intéressante, car elle avait des caractéristiques complètement différentes de celles des autres sources dont on disposait à l'époque. Des possibilités de faire des expériences nouvelles s'ouvraient à nous. Nous ne pensions pas encore aux applications pratiques. Quand les premiers lasers sont apparus, c'étaient des objets complexes, sophistiqués et difficiles à régler. Et puis, comme toujours, la technologie a fait des pas de géant, s'est simplifiée, des lasers ont été industrialisés et, dans les années 1970, on a pu en acheter comme on achetait un oscilloscope. Ce n'est qu'à ce moment-là qu'ils sont réellement devenus des nouveaux outils pour nos recherches.

Vous avez alors reformulé vos problèmes ?
C.C.-T. Le laser nous offrait la possibilité d'étendre dans le domaine optique toute une série de concepts qui avaient été développés auparavant dans l'étude de la « résonance magnétique », où l'onde interagissant avec l'atome pouvait être considérée comme une onde électromagnétique classique. On pouvait dès lors essayer de voir si le traitement quantique de l'interaction ne permettrait pas de mettre en évidence ses effets nouveaux.
Il y a eu aussi l'apparition de la spectroscopie laser. Jusqu'alors, les sources pour exciter un atome avaient une très grande largeur spectrale et une intensité très faible. Les sources laser avaient, elles, une largeur spectrale très faible, ce qui permettait de mesurer les fréquences des transitions atomiques avec une meilleure précision. L'intensité élevée des rayonnements délivrés par les sources laser mettait aussi en évidence une foison d'effets « non linéaires » nouveaux.
Il y a eu enfin beaucoup de travaux sur les statistiques de photons : on n'observait pas les mêmes corrélations temporelles entre les impulsions observées sur un détecteur selon que le faisceau lumineux envoyé sur lui provenait d'une source classique ou d'un laser. L'étude de ces phénomènes a donné naissance à l'optique quantique, où la lumière est décrite comme un champ quantique, discipline qui a été à l'honneur avec le prix Nobel de Roy Glauber, en 2005.
Quel était l'état d'esprit lors du déroulement de ces travaux ?

C.C.-T. La recherche fondamentale a réellement été régénérée par le laser. Des domaines complètement nouveaux se sont ouverts, comme l'optique non linéaire, qui permettait d'éclairer un milieu avec une onde laser et de récupérer des nouvelles ondes dont la fréquence était double ou triple. De façon plus générale, en partant d'une fréquence donnée, on pouvait en obtenir de nouvelles. Autre exemple : à la fin des années 1970, on entrevoyait la possibilité de changer la vitesse de l'atome et de contrôler sa position avec des lasers. C'est ce qui a débouché sur le refroidissement et le piégeage des atomes par laser.

Comment est née l'idée de se servir d'un laser pour refroidir les atomes ?
C.C.-T. Au début des années 1980, il y avait une vingtaine de personnes dans le monde, au maximum, qui travaillaient sur ces sujets et, essentiellement, sur un plan théorique. En ce qui me concerne, je faisais à cette époque un cours au Collège de France sur les forces radiatives qui s'étendait sur quatre ans et qui m'a permis d'approfondir le sujet. Et puis, au milieu des années 1980, le domaine a explosé. On s'est rendu compte que l'on pouvait refroidir des atomes à des températures très basses de manière relativement simple. Des perspectives nouvelles s'ouvraient pour la spectroscopie : les atomes froids se déplacent à des vitesses très faibles de sorte qu'on peut les observer pendant un temps plus long et espérer ainsi faire des mesures beaucoup plus précises - plus une mesure dure longtemps, plus elle est précise. Sont apparues ensuite les horloges atomiques à atomes froids et la condensation de Bose-Einstein* au milieu des années 1990. Il y a maintenant plusieurs laboratoires qui travaillent sur ces sujets.

Quels courants de recherche se sont imposés sur le long terme ?
C.C.-T. La recherche sur les atomes froids a été extrêmement féconde, avec des progrès spectaculaires en métrologie : on gagnait trois ou quatre ordres de grandeur sur la précision ! Un autre exemple de domaine de recherche nouveau concerne ce qu'on appelle les simulateurs quantiques. L'idée est de réaliser des systèmes modèles qui rappellent les systèmes de la matière condensée, mais qui sont bien plus simples à analyser, leurs paramètres étant modifiables beaucoup plus aisément. Par exemple, on sait maintenant, en utilisant des ondes laser stationnaires, piéger des atomes froids dans des réseaux de puits de potentiel répartis de manière périodique dans l'espace. Le mouvement des atomes dans cette structure rappelle celui des électrons dans le potentiel périodique créé par les ions d'un cristal. Et comment ne pas mentionner aussi l'information quantique, qui consiste à utiliser des systèmes quantiques pour transmettre l'information, la traiter, faire de la cryptographie quantique, etc. Tous ces domaines avancent parallèlement et rien de tout cela n'existerait sans le laser. Il ne faut pas pour autant négliger d'autres technologies qui ont évolué en parallèle. Ainsi, les détecteurs : ce n'est pas un hasard si le dernier prix Nobel de physique a été attribué pour le développement des caméras CCD*.

Le laser a-t-il permis de clore le chapitre de l'étude de l'interaction de la lumière avec la matière ?
C.C.-T. Disons que notre compréhension de la lumière et de ses interactions avec la matière a beaucoup progressé. Mais les progrès continus des lasers, du point de vue tant de la puissance que de la durée des impulsions, ouvrent des champs de recherche nouveaux. Par exemple, la réalisation d'impulsions laser femtoseconde* a permis d'avoir accès à la dynamique des noyaux au cours des réactions chimiques : c'est la femtochimie, couronnée par le prix Nobel d'Ahmed Zewail en 1999. Maintenant, on arrive à l'attoseconde, mille fois plus petite : c'est la dynamique des électrons qui devient accessible. En ce qui concerne la puissance, on atteint couramment aujourd'hui le domaine du térawatt* et même du petawatt* : de nombreux problèmes nouveaux se posent concernant le comportement de la matière dans des champs aussi élevés.
À la fin de sa vie, Einstein disait qu'il avait réfléchi cinquante ans sur la lumière et qu'il ne savait toujours pas ce qu'étaient les quanta lumineux ! Le monde quantique est bien mystérieux et nous réserve sans doute encore bien des surprises.

*LA PHYSIQUE STATISTIQUE décrit les systèmes qui comportent un grand nombre de particules à partir des propriétés de leurs constituants microscopiques.

*L'ENTROPIE est une mesure du désordre d'un système au niveau microscopique.

*LA CONDENSATION DE BOSE-EINSTEIN est l'apparition d'un état de la matière dans lequel les particules identiques et de spin entier occupent toutes le même état quantique, celui de plus basse énergie.

*UNE CAMÉRA CCD (charged coupled device) transforme un signal lumineux en signal électrique grâce à une matrice d'éléments semi-conducteurs.

*UNE FEMTOSECONDE est un millionième de milliardième de seconde, soit 10-15 seconde.

*UN TÉRAWATT est mille milliards de watts et UN PETAWATT est un million de milliards de watts.

 

DOCUMENT      larecherche        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales / Confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google