|
|
|
|
 |
|
L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE |
|
|
|
|
|
L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE
L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.
Le texte de Bernard Cabane et Rodolphe Vuilleumier ci-dessous est similaire aux principaux points développés lors de la 593 ème conférence de lUniversité de tous les savoirs donnée le 15 juillet 2005 1
Par Bernard Cabane, Rodolphe Vuilleumier : « La physique de leau liquide »
L'eau est le liquide le plus abondant à la surface de la terre. C'est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. L'eau est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Ainsi, l'eau reste liquide à pression atmosphérique jusqu'à 100 °C, alors que l'extrapolation de la série H2S, H2Se, H2Te donnerait une température d'ébullition de - 80°C. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie, avec les alcools et les amines, d'un petit groupe de liquides qu'on appelle liquides associés (Figure 1). Parmi ces liquides, la cohésion de l'eau est remarquable. Par exemple, l'eau a des températures de fusion et d'ébullition très supérieures à celles de l'ammoniac et de l'acide fluorhydrique, qui font des liaisons H plus faibles ou spatialement moins développées.
Figure 1. Densités électroniques du dimère, obtenues par calcul des orbitales localisées via la mécanique quantique. Le "pont" de densité électronique qui joint les deux molécules est la « signature » de la liaison H.
La cohésion de l'eau se traduit aussi par une chaleur spécifique énorme : il faut 3 fois plus d'énergie pour réchauffer l'eau que pour la même masse de pentane, et 10 fois plus que pour la même masse de fer. Cette chaleur spécifique est aussi beaucoup plus élevée que celle du solide (plus de 2 fois supérieure à celle de la glace), alors que la plupart des liquides ont des chaleurs spécifiques proches de celles des solides correspondants. Elle est due à l'absorption de chaleur par la rupture de liaisons hydrogène : la chaleur absorbée par ces processus n'est pas disponible pour augmenter l'énergie cinétique des molécules, ce qui réduit l'élévation de température. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat.
L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait pour un liquide non associé sur la base du moment dipolaire de la molécule isolée. Qualitativement, cette réponse très forte aux champs électriques est due à l'enchaînement des molécules par les liaisons hydrogène, car les molécules liées par des liaisons hydrogène se polarisent mutuellement (Figure 2).
Figure 2. Variations de densité électronique causées par les interactions des deux molécules du dimère, par rapport aux densités électroniques de molécules isolées. Les régions où la densité électronique du dimère est excédentaire sont ombrées en gris, celles qui ont perdu de la densité électronique en blanc. L'alternance régulière de régions contenant un excès et un défaut de densité électronique crée une polarisation des molécules, qui augmente le moment dipolaire du dimère.
C'est grâce à cette constante diélectrique exceptionnelle que la vie a pu se développer dans l'eau (Figure 3). La plupart des molécules biologiques sont en effet ioniques, et les processus biochimiques requièrent la dissociation des paires d'ions et l'écrantage des charges électriques. C'est la polarisation des molécules d'eau autour d'un ion qui compense le champ électrique créé par l'ion, et permet ainsi la dissociation des paires d'ions et la dissolution des cristaux ioniques. L'exemple le plus courant de solution ionique est, bien sur, l'eau de mer, qui ne contient que 9 molécules d'eau par paire d'ions.
Figure 3. Constantes diélectriques relatives des liquides polaires usuels (variation parabolique en fonction du moment dipolaire de la molécule isolée) et de liquides associés points situés très au dessus). La valeur anormalement élevée de la constante diélectrique de l'eau est due à la polarisation mutuelle des molécules dans le liquide
L'eau est, dans les conditions usuelles de température et de pression, un liquide peu dense. Sa masse volumique est relativement peu élevée pour un liquide aussi cohésif (les huiles ont des densités comparables, mais sont beaucoup moins cohésives). Cette faible masse volumique exprime le fait que le volume occupé par les atomes est faible par rapport au volume total : les atomes de la molécule d'eau n'occupent que 49 % du volume disponible par molécule. Une grande partie du volume de l'eau liquide est donc formée de cavités.
L'eau présente toute une série d'anomalies liées aux variations de son volume. Tout d'abord, la variation en température de sa masse volumique est anormale à basse température. Pour presque tous les liquides, le volume occupé diminue régulièrement lorsqu'on abaisse la température, par suite de la réduction du désordre et surtout du nombre de lacunes excitées thermiquement. Au contraire, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité (TMD H + 4 °C pour H2O). L'eau liquide à basse température est un liquide peu dense par rapport à ce qu'on attendrait d'après sa densité à haute température.
Figure 4 Variation de la masse volumique de l'eau liquide avec la température. Pour les liquides « normaux », la masse volumique décroit de manière monotone. La température du maximum de densité de l'eau vaut 4 °C dans H2O, 11.2 °C dans D2O et 13,4 °C dans T2O. La décroissance de la densité à basse température résulte d'un changement de la structure du liquide, qui crée systématiquement des liaisons et des cavités.
Pour presque tous les liquides, le volume occupé se réduit d'environ 10 % lors de la cristallisation, car les atomes ou les molécules sont empilés de manière plus efficace dans le cristal. Au contraire, l'eau se dilate d'environ 9 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans.
Les propriétés de l'eau confinée dans des pores ou des films nanométriques diffèrent aussi de celles des autres liquides. La plupart des liquides se stratifient lorsqu'ils sont confinés entre deux surfaces planes, et ils résistent comme des solides lorsqu'on essaie de les faire s'écouler. Au contraire, l'eau reste fluide même dans des géométries extrêmement confinées. Cette résistance à la solidification semble être due aux anomalies volumiques de l'eau, qui devient plus fluide lorsqu'elle est soumise à une pression. La persistance de l'état fluide de l'eau est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules. De même le passage des ions à travers les canaux qui traversent les membranes n'est possible grâce à la fluidité de cette eau confinée.
Les propriétés de l'eau comme solvant sont aussi très surprenantes. On comprend bien que les molécules polaires ou ioniques se dissolvent facilement dans l'eau, tandis que les molécules apolaires se dissolvent beaucoup plus difficilement. Cette préférence est à l'origine de phénomènes physico-chimiques comme la micellisation des molécules de tensioactifs, la formation des membranes biologiques, et le repliement ou la dénaturation des protéines. Cependant le passage dans l'eau de ces molécules hydrophobes ou amphiphiles se fait de manière tout à fait anormale : alors que la dissolution dans n'importe quel solvant est un processus défavorable du point de vue des énergies, mais favorisé par l'entropie, c'est l'inverse qui se produit pour la dissolution des molécules apolaires dans l'eau. Ces effets varient fortement avec la température, et on trouve que les solubilités augmentent aussi bien quand on va vers les basses températures (c'est bien pour les poissons, qui respirent l'oxygène dissous) que lorsqu'on va vers les températures élevées (l'eau super-critique est un bon solvant, utilisé, par exemple, pour extraire la caféine). Le minimum de solubilité coïncide à peu près avec le minimum de densité de l'eau pure, ce qui suggère que ces solubilités anormales sont liées à l'équation d'état (anormale elle aussi) de l'eau liquide.
Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, formamide etc). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ - bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette explication n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant.
Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.
On ne compte plus les théories proposées pour expliquer telle ou telle anomalie de l'eau, et abandonnées parce qu'elles n'expliquent que certaines anomalies, mais pas l'ensemble des propriétés de l'eau. On peut ainsi citer la théorie des « icebergs », dans sa version liquide pur (l'eau liquide serait formée de petits groupes de molécules ayant la structure de la glace, séparées par un liquide désordonné) et dans sa version solvant (les molécules d'eau se réorganiseraient autour d'un soluté apolaire pour former plus de liaisons hydrogène que l'eau pure, ce qui expliquerait le coût entropique de l'introduction du soluté). De nombreuses théories ont aussi postulé des structures particulières, comme des structures de type « clathrates », semblables aux cages que forment les molécules d'eau dans les hydrates de gaz cristallins. On discute actuellement une série de modèles qui postulent que l'eau serait formée de deux liquides mélangés dans des proportions qui changeraient avec la température et la pression, mais ne se sépareraient que dans des conditions de température inaccessibles aux expériences.
Il peut sembler paradoxal qu'une civilisation qui comprend la physique de l'infiniment grand et de l'infiniment petit, et qui est capable de prouesses technologiques considérables, n'arrive pas à décrire le liquide dans lequel tous les systèmes vivants fonctionnent. En fait, il s'agit d'un problème dur. Les verrous tiennent, pour une part, à une limitation des informations expérimentales. En effet, nous ne savons pas mesurer, dans un liquide, les fonctions de corrélation qui décrivent les arrangements de petits groupes de molécules (3 ou plus) : depuis un demi-siècle, nous sommes limités aux fonctions de corrélation de paires. Ils sont aussi dus à notre incapacité à simplifier correctement la description d'un liquide dans lequel les molécules forment des liaisons ayant un fort caractère orientationnel. Nous savons, bien sur, décrire ces liaisons, et nous pouvons simuler numériquement les mouvements des molécules soumises à ces interactions et à l'agitation thermique : nous pouvons ainsi reproduire certaines propriétés du liquide (mais pas toutes à la fois !) Par contre, nous ne savons pas, actuellement, construire une théorie de l'eau en utilisant les outils de la physique statistique.
Pour en savoir plus :
« The physics of liquid water »
B. Cabane, R. Vuilleumier
C. R. Geosciences. 337 (2005) 159
Liquides : solutions, dispersions, émulsions, gels
B. Cabane et S. Hénon
Livre publié par Belin (2003)
VIDEO CANAL U LIEN |
|
|
|
|
 |
|
LA TRIBOLOGIE |
|
|
|
|
|
LA TRIBOLOGIE
La tribologie est la science des frottements. Un 'frottement' intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est en fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., on pourrait multiplier les exemples connus de tous. La plupart de ces phénomènes peuvent se comprendre sur la base des lois du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant), à partir de la notion de coefficient de frottement. Pourtant l'évidence apparente de ce 'vieux problème' cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, etc. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes sous-jacents, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans. Dans cet exposé, j'aborderai quelques manifestations du frottement sur différents exemples illustrant la complexité du phénomène. Je discuterai ensuite des causes du frottement, des premières interprétations de Amontons, Coulomb et d'autres au 18ème siècle en terme de rugosité de la surface, jusqu'aux travaux les plus modernes sur la nano-tribologie des contacts. Je décrirai en particulier les outils d'investigation modernes, tels que le microscope à force atomique, la machine de force de surfaces, les simulations numériques à l'échelle moléculaire, qui permettent désormais d'accéder aux fondements intimes du frottement aux échelles moléculaires avec des manifestations parfois étonnantes. Le développement de ces techniques d'investigation performantes ouvre désormais de nouvelles perspectives dans la compréhension et l'optimisation du frottement.
Texte de la 597 e conférence de l'Université de tous les savoirs prononcée le 19 juillet 2005
Par Lydéric Bocquet: « Approche physique du frottement »
La tribologie est la science des frottements. Un « frottement » intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est de fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement de craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., etc. On pourrait multiplier les exemples connus de tous. Le frottement est ainsi intimement associé à la perception de notre environnement immédiat. Au cours de l'histoire humaine, les efforts pour s'en affranchir ont d'ailleurs été un facteur de progrès considérable, depuis l'invention de la roue plus de 3000 ans avant Jésus-Christ, jusqu'aux développements technologiques les plus récents dans la recherche de nouveaux matériaux (par exemple les composites céramiques pour la réalisation de prothèses artificielles). L'augmentation des performances techniques passe souvent par le développement de matériaux spécifiques qui permettent de diminuer les efforts de frottement : on limite ainsi l'usure, tout en réduisant la consommation énergétique, et en limitant le vieillissement des pièces. Dans d'autres domaines, l'effort est inversement plutôt concentré sur une augmentation du frottement, par exemple dans les dispositifs de freinage, ou les composites constituants les freins.
Les sciences du frottement sont donc intimement liées au développement technologique, tournées vers l'application. Pourtant c'est un domaine qui continue de soulever de nombreuses questions au niveau le plus fondamental. L'origine même du frottement reste largement incomprise et suscite de nombreuses études au niveau mondial, avec des découvertes récentes très prometteuses.
Des lois simples pour des phénomènes complexes -
La plupart des phénomènes associés au frottement peuvent se comprendre sur la base des lois phénoménologiques du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant). Ces lois empiriques font intervenir une quantité clef : le coefficient de frottement, coefficient sans dimension que l'on note en général m. Plaçons un objet sur une surface plane : par exemple un kilo de sucre sur une table. Pour déplacer cet objet, de poids P (la masse multipliée par la constante de gravité, g=9.8 m/s2), il faut exercer une force FT parallèlement à la surface de la table. Mais l'expérience montre que cet objet ne se déplacera pas tant que la force FT est inférieure à une force minimale. De plus Amontons et Coulomb ont montré que cette force minimale est directement proportionnelle à la force normale, donc ici au poids : autrement dit, l'objet ne se déplace pas tant que
|FT |S |P|,
mS définissant le « coefficient de frottement statique ». D'autre part, si l'objet se déplace maintenant à vitesse constante sur la surface, l'expérience montre dans ce cas que la force de frottement tangentielle subie par l'objet est également proportionnelle à la force normale et (quasiment) indépendante de la vitesse :
|FT | = mD |P|,
mD définissant le « coefficient de frottement dynamique ». De façon générale on mesure que mD est plus petit que mS. De plus, Amontons et Coulomb, mais également Léonard de Vinci, ont mis en évidence que ces coefficients mS et mD ne dépendent pas de l'aire de contact de l'objet frottant (voir figure 3) : que l'on pose le kilo de sucre bien à plat ou sur la tranche, la force de frottement est la même, ce qui est assez peu conforme à l'intuition ! Nous reviendrons plus loin sur ce « mystère des surfaces », qui n'a été élucidé qu'assez récemment.
Un autre fait étonnant concerne la valeur typique de ces coefficients de frottement, qui s'écarte assez peu de m~0.3, pour des surfaces très différentes les unes des autres. La technologie permet toutefois de concevoir des surfaces avec des coefficients de frottement soit bien plus petits (m~0.001) soit plus grand (m > 1).
Le stick-slip, du violon aux tremblements de terre -
Ces lois simples permettent de rationaliser beaucoup des phénomènes observés pour les objets frottants. Nous nous attardons en particulier sur l'une des manifestations les plus marquantes du frottement, le stick-slip. Cette expression anglophone traduit parfaitement le phénomène, le stick-slip caractérisant un mouvement saccadé. Ce type de mouvement est observé lorsque l'on tire sur un objet frottant par l'intermédiaire d'un ressort : par exemple un paquet de sucre tiré par un élastique. Le mouvement de l'objet qui en résulte n'est en général pas uniforme mais saccadé : avec des périodes où l'objet résiste et ne bouge pas (« stick ») ; puis des périodes plus courtes où le seuil de résistance est dépassé et l'objet glisse sur une distance importante (« slip »). Les lois de Amontons-Coulomb permettent d'en comprendre les mécanismes élémentaires, et montrent que l'origine du « stick-slip » dans ce système mécanique simple {objet-ressort} est liée à l'inégalité des coefficients de frottement soulignée précédemment mD S. Les deux phases du mouvement reflètent ainsi deux états distincts du système : la phase statique (« stick ») est sous contrôle du frottement statique entre l'objet et la surface, tandis que la phase de glissement (« slip ») correspond au mouvement presque libre de l'objet sous l'action du ressort.
Cette dynamique saccadée se retrouve de façon générique dans des phénomènes pourtant très différents : du grincement des portes aux tremblements de terre, en passant par la mise en vibration d'une corde de violoncelle sous le frottement d'un archer. Même si ils se produisent à des échelles spatiales très différentes, ces phénomènes sont tous associés à une dynamique intrinsèque de type « stick-slip », associant les deux éléments mécaniques clefs : un corps frottant et un « ressort ». Dans le cas des instruments à cordes frottés, ces deux éléments sont aisés à identifier : le frottement se déroule à l'interface entre les crins de l'archer et la corde de l'instrument (via la colophane, résine qui augmente le frottement), tandis que la corde joue le rôle du « ressort ». Le mouvement continu de l'archer provoque une suite de petits déplacements de la corde, telle une multitude de pizzicati, qui produit in fine ce son velouté caractéristique des cordes frottées. Dans le cas des tremblements de terre, le frottement a lieu à l'interface entre plaques continentales qui jouent donc à la fois le rôle d'objet frottant (à leurs interfaces) et de ressort (dans leur globalité). Le déplacement des plaques continentales les unes par rapport aux autres pendant la phase stick conduit à l'accumulation de contraintes gigantesques à l'interface entre plaques. Le relâchement brutal de ces contraintes lorsque le seuil de résistance est atteint libère une énergie considérable et destructrice pendant la phase slip. Ici encore, le caractère saccadé du phénomène conduit à la production de vibrations, sous la forme d'ondes sismiques qui sont enregistrées par les sismographes. Si les mécanismes de base sont simples, la prédiction des tremblements de terre s'avère extrêmement complexe et continue à susciter des recherches poussées.
De l'origine des lois de Amontons-Coulomb -
Les lois du frottement énoncées précédemment sont très simples dans leur formulation, qui ne nécessite que l'introduction de coefficients sans dimension (mS et mD). Pourtant l'évidence apparente de ces lois cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, et cette liste n'est pas exhaustive. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes mis en jeu, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans.
Les premières tentatives d'explication des lois du frottement ont été proposées par Belidor et Coulomb au 18ème siècle, qui ont associé l'existence du frottement à la rugosité des surfaces. L'idée originale se base sur l'emboîtement des rugosités de surface qui conduit à l'existence d'un coefficient de frottement (voir Figure 1). Une schématisation simple de cette idée est représentée sur la figure 1 (droite), avec deux surfaces présentant des rugosités en dents de scie. Si l'on applique une force normale N sur la surface supérieure et une force horizontale T, un bilan des forces horizontales permet de montrer que l'équilibre des forces est rompu lorsque la force tangentielle est supérieure à une valeur de rupture : Tmax=mS |N|, définissant ainsi un coefficient de frottement statique mS=tan(a). L'angle a est ici la pente de la rugosité par rapport à l'horizontale. Aussi simpliste qu'il soit, cet argument permet de lier le frottement (statique) aux caractéristiques de la rugosité. De plus les valeurs expérimentales typiques des coefficients de frottement statique, de l'ordre de 0.3, correspondent à des pentes de la rugosité de surface de l'ordre de 15-20 degrés, ce qui est tout à fait compatible avec les caractéristiques typiques que l'on peut mesurer pour les rugosités de surfaces.
Cet argument repose cependant sur une hypothèse implicite : l'emboîtement parfait entre les rugosités des deux surfaces, tel que cela est illustré de façon schématique sur la figure 1, et sur la figure 2 (gauche) pour une surface schématique à l'échelle « atomique ». On parle dans ce cas de surfaces commensurables. Ca n'est bien sûr pas le cas en général dans la nature : même à l'échelle atomique, deux surfaces idéales, telles que celles qui sont représentés à l'échelle atomique sur la figure 2, présentent des légères différences de distance interatomique. Une légère disparité suffit à rendre très irrégulière la répartition des points de contact entre les deux surfaces (voir figure 2 droite), contrairement au cas commensurable (figure 2 gauche). On parle alors de surfaces incommensurables. On peut montrer par un raisonnement similaire à celui mené précédemment que la répartition irrégulière des contacts entre surfaces incommensurables conduit à l'annulation des
Figure 2 : Contact schématique entre deux surfaces (les disques esquissant les atomes de chaque surface en contact. (gauche) Deux surfaces commensurables en contact. Les points de contact entre surfaces (étoiles) sont répartis régulièrement. (droite) Deux surfaces incommensurables en contact. Les contacts entre surfaces (étoiles) se répartissent de façon irrégulière.
forces de frottement tangentielles : la force de frottement statique est identiquement nulle entre surfaces incommensurables !
Autrement dit, on aboutit à la conclusion que le frottement entre deux surfaces commensurables est non-nul, tandis qu'il s'annule exactement si ces deux surfaces sont incommensurables.
Ce résultat très étonnant a été confirmé pour la première fois dans des expériences très récentes par le groupe de M. Hirano et collaborateurs au japon [Hirano1997], puis confirmé par d'autre groupes de recherche, notamment pour des surfaces de graphite [Dienwiebel 2004].
Ce phénomène est désormais connu sous le nom de « supra friction » et a ouvert une voie de recherche très prometteuse pour le développement de surfaces avec des frottements très faibles, le graal des tribologues.
Cependant, la suprafriction est pour l'instant observée dans des conditions drastiques, assez éloignées des conditions de la vie réelle. Ces mesures sont notamment réalisées en plaçant ces surfaces dans une enceinte où un vide très poussé est réalisé. On supprime ainsi tout contaminant présent dans l'atmosphère (poussière, molécule organique, ...) qui, comme on va le voir, supprimerait cet état de suprafriction et conduirait à une force de frottement non-nulle. Il reste donc encore du chemin à parcourir pour obtenir des surfaces « supra-frottantes » dans des conditions d'utilisations technologiques, où il est difficile de supprimer la présence de polluants.
Le « troisième corps »- le grain de sable dans les rouages
La remarque précédente pointe le rôle joué dans le frottement par les contaminants et plus généralement les corps intersticiels. Ce rôle a été reconnu assez récemment dans l'histoire de la tribologie. Pourtant les corps intersticiels constituent un ingrédient incontournable du frottement. En effet, les surfaces laissées à l'air libre se polluent très rapidement sous l'effet de poussières, molécules organiques, de l'humidité, etc. présentes dans l'air. De plus le contact frottant entre deux surfaces génère lui-même des débris d'usure, grains de matière de tailles variées qui vont se retrouver dans les interstices à l'interface entre les deux surfaces. Une illustration simple est la trace laissée par une craie sur un tableau, ou d'un pneu lors du freinage.
Or la présence de contaminants modifie profondément le frottement, et notamment le scénario discuté précédemment en ce qui concerne la commensurabilité des surfaces frottantes. Des travaux récents utilisant des simulations numériques de ces processus à l'échelle moléculaire ont montré que la présence de quelques contaminants dans l'interstice entre les deux surfaces suffit à rétablir systématiquement un coefficient de frottement non-nul, même dans le cas où les deux surfaces sont incommensurables [Robbins]. Les contaminants mobiles viennent se placer dans les interstices laissés libres entre les surfaces et contribuent à rétablir une « commensurabilité effective » des surfaces, sous la forme d'un emboîtement partiel. Le coefficient de frottement prend alors une valeur non nulle, même pour des surfaces incommensurables. Les contaminants viennent jouer le rôle du « grain de sable » dans les rouages.
A cause de ces corps intersticiels, le contact entre deux surfaces dans des conditions de la vie quotidienne a donc assez peu à voir avec l'idée d'une assemblée d'atomes telle qu'elle est représentée sur la figure 2. Le « frottement idéal » qui y est représenté n'existe que dans des conditions très particulières. Ce résultat donne donc une perspective différente concernant l'origine du frottement entre surfaces, en pointant la contribution essentielle des impuretés.
Pour prendre en compte ces impuretés, les tribologues ont introduit la notion de « 3ème corps », qui regroupe l'ensemble des corps situés entre les deux surfaces en contacts (les deux premiers corps). Un problème de frottement doit donc en principe prendre en compte ces trois corps et les échanges (de matière, chaleur, etc.) qui peuvent exister entre eux. On voit ici poindre la complexité du problème de frottement. Les lois de Coulomb et l'origine même du frottement prennent leur origine non pas dans un seul phénomène bien identifié à l'échelle atomique, mais résulte d'un ensemble de phénomènes couplés.
Le mystère des surfaces -
Figure 3 : dessins de Léonard de Vinci, illustrant ses expériences démontrant l'indépendance du coefficient de frottement vis-à-vis de l'aire de contact entre le corps frottant et la surface (tiré de [Dowson]).
Cette complexité sous-jacente se retrouve dans une autre manifestation des lois de Amontons-Coulomb : l'indépendance des coefficients de frottement vis-à-vis de l'aire de contact. Léonard de Vinci avait déja observé ce phénomène, comme le montre l'une de ses planches (figure 3). Quelque soit la surface de contact de l'objet frottant, la force de frottement est identique. Ce résultat très contre-intuitif a défié l'imagination des scientifiques plusieurs siècles avant que Bowden et Tabor au Cavendish à Cambridge n'en proposent une explication dans les années 1950.
La clef de ce phénomène est une nouvelle fois la rugosité de surface. Comme on le montre schématiquement sur la figure 4, à cause de la rugosité, les zones de contact réel entre les surfaces sont bien plus petites que l'aire de contact apparente entre les surfaces, telle qu'elle nous apparait de visu.
Aréelle
Figure 4 : Illustration de deux surfaces rugueuses en contact. L'aire de contact réelle (Aréelle) entre les surfaces est bien plus petite que l'aire apparente (Aapp).
Aapp
Cette distinction entre surface réelle et surface apparente a été démontré par visualisation optique directe de la surface de contact, notamment par Dieterich et Kilgore et plus récemment par Ronsin et Baumberger. Cette observation donne une image de zones de contact réel très clairsemées, avec une taille typique pour chaque zone de l'ordre du micron. Ainsi l'aire de contact réelle entre deux objets macroscopiques ne représente typiquement que 0.1 % de l'aire de contact totale : Aréelle /Aapp~0.001.
Une conséquence immédiate est que la force normale (FN) à laquelle on soumet l'objet ne se répartit que sur les aspérités en contact et non sur l'ensemble de la surface de l'objet. En conséquence la pression au sein de ces contacts, c'est-à-dire la force par unité de surface, Pcontact=FN/Aréelle , est bien plus grande que celle que l'on attendrait a priori si la force FN se répartissait sur l'ensemble de la surface, Papp=FN/Aapp. Or aux très grandes pressions, un matériau devient en général plastique, c'est à dire qu'il s'écrase sans que sa pression ne varie. La valeur de la pression à laquelle se déroule ce phénomène est appelée dureté du matériau, que l'on notera H. La pression au sein des contacts étant fixée à H, on en déduit alors que l'aire réelle du contact est directement proportionnelle à la force appliquée : Aréelle = FN/H. Autrement dit, plus la force appliquée est grande, plus le contact réel est grand, ce qui est finalement assez intuitif.
Ce mécanisme permet de retrouver les lois de Coulomb. En effet, l'aire frottante étant l'aire réelle, on s'attend à ce que la force de frottement tangentielle soit proportionnelle à cette aire : Ffrottement = g Aréelle. Le coefficient de proportionalité g a les dimensions d'une force par unité de surface (donc d'une pression). On note plus généralement ce coefficient sY, « contrainte de cisaillement ». En utilisant l'expression précédente pour l'aire de contact réelle, Aréelle = FN/H, on aboutit à une force de frottement qui prend la forme d'une loi de Amontons-Coulomb : Ffrottement = m FN, avec m=sY/H qui est bien une caractéristique du matériau à la surface.
Cette explication de Bowden et Tabor au phénomène de frottement permet donc de comprendre la proportionalité de la force de frottement vis-à-vis de la force normale, mais également l'indépendance du coefficient de frottement vis-à-vis de la surface apparente de contact.
Cette explication repose cependant sur l'hypothèse de déformation plastique des aspérités, qui, si elle est pertinente pour des métaux, pose question pour d'autres matériaux (comme par exemple les élastomères). De fait, Greenwood et Williamson ont montré dans les années 1960 que le point clef du raisonnement précédent, c'est à dire la proportionalité entre aire de contact réelle et force normale FN, est maintenu même dans le cadre d'aspérités qui se déforment élastiquement, par un effet de moyenne statistique sur l'ensemble des aspérités en contact.
Une autre hypothèse implicite du raisonnement précédent est que la contrainte de cisaillement que nous avons introduit, sY, est une caractéristique des matériaux, indépendante des conditions du frottement, notamment de la vitesse. Ce point mérite de s'y attarder un peu plus longuement. La contrainte de cisaillement sY est associée aux propriétés mécaniques du contact à l'interface entre aspérités de tailles micrométriques. Des expériences récentes ont pu sonder indirectement les propriétés mécaniques de ces jonctions [Bureau]. Ces expériences suggèrent qu'à la jonction entre deux aspérités en contact, le matériaux se comporte comme un milieu « vitreux » et que la contrainte seuil est intimement associée à ces propriétés vitreuses. Qu'est-ce qu'on appelle un « milieux vitreux » ? Ce sont des milieux dont la structure microscopique est désordonnée (comme un liquide), mais figée (comme un solide). Leur propriétés sont intermédiaires entre celles d'un liquide et celles d'un solide : entre autres, ils ne coulent pas au repos (comme des solides), mais au delà d'une contrainte minimale appliquée, ils s'écoulent (comme des liquides). De tels matériaux sont omniprésents dans notre vie quotidienne : verre, mousses alimentaires, émulsions (mayonnaise), gels, milieux granulaires, etc. Ce sont justement ces propriétés mi-liquide, mi-solide qui constituent leur intérêt industriel (et notamment agro-alimentaire). Au delà des intérêts industriels évidents, ces milieux vitreux font actuellement l'objet d'une recherche fondamentale très intense, avec des progrès récents dans la compréhension des mécanismes élémentaires associés à leur façon très particulière de couler.
La question du frottement se trouve précisement liée à la compréhension des processus d'écoulement de tels milieux, pourtant à une tout autre échelle spatiale. Comprendre l'origine de la contrainte de cisaillement à l'échelle (quasi-nanométrique) des jonctions entre aspérités en contact rejoint ainsi la compréhension des propriétés d'écoulement de la mayonnaise ! Au delà de l'anecdote, cette compréhension soulève dans les deux cas des problèmes fondamentaux très délicats.
La lubrification -
Jusqu'à présent, nous avons concentré notre discussion sur le frottement dit « sec », qui correspond à la situation où les deux surfaces frottantes sont en contact direct. Mais du point de vue technologique et pratique, cette situation est à proscrire si l'on veut un frottement faible. Cela apparaît comme une évidence pratique qu'il faut lubrifier les pièces mécaniques et « mettre de l'huile dans les rouages ». Un moteur à explosion qui « tourne » sans huile va chauffer, jusqu'à subir des dommages définitifs. La diminution du frottement par l'ajout de lubrifiants est connu depuis des milliers d'années, comme le démontre ce bas-relief égyptien représenté sur la figure 5, datant de 1880 avant Jésus-Christ (document tiré de [Dowson]). Parmi les centaines d'hommes occupés à déplacer le traîneau sur lequel repose la statue, un personnage a un rôle bien particulier puisqu'on le voit verser du liquide devant le traîneau déplacé afin de lubrifier le contact entre le traîneau et le sol.
Figure 5 : Bas-relief égyptien montrant une statue tirée par 170 hommes. Le personnage encerclé verse du liquide pour lubrifier le frottement entre le support de la statue et le sol (tiré de [Dowson]).
Un autre exemple est la lubrification des articulations du corps humain. Par exemple, au niveau du genou, ce rôle du lubrifiant est tenu par le liquide synovial, liquide rendu très visqueux par la présence de molécules organiques très longues (l'acide hyaluronique). A l'inverse certaines pathologies, comme l'arthrose, sont associées à la baisse du pouvoir lubrifiant de ce liquide, notamment par la baisse de la viscosité.
Il apparaît donc naturel d'utiliser des liquides très visqueux comme lubrifiants (huiles, ou graisses). Ainsi, l'eau, liquide très peu visqueux, est en général un très mauvais lubrifiant. On peut s'en convaincre par une expérience très simple : des mains mouillées par de l'eau et frottées l'une contre l'autre maintiennent un fort frottement lors du mouvement, tandis que quelques gouttes d'huile suffisent à rendre les mains complètement glissantes. Si ce phénomène paraît intuitivement évident, il est toutefois étonnant de réaliser que c'est le liquide le moins fluide qui conduit au frottement le plus réduit.
Attardons-nous sur le rôle du lubrifiant dans le frottement. L'action du lubrifiant est double : d'une part le frottement entre les deux objets se réalise via un liquide et non plus directement sous la forme d'un frottement « sec » entre solides, ce qui conduit à un frottement fluide beaucoup plus faible ; et d'autre part, et c'est le point crucial, il permet d'éviter le contact solide direct. Autrement dit, l'un des rôles du lubrifiant est de maintenir la présence d'un film liquide entre les deux parois solides, empêchant ainsi les aspérités solides d'entrer en contact direct.
C'est justement là où va intervenir la viscosité. Un liquide visqueux coule « difficilement ». Lorsque l'on va presser les deux surfaces l'une contre l'autre (par exemple les mains dans l'exemple précédent), le liquide le plus visqueux sera le plus difficile à déplacer. Il se maintiendra donc sous la forme d'un film liquide entre les deux surfaces et c'est ce film liquide maintenu qui assurera le frottement fluide, donc la lubrification. A l'inverse, l'eau, fluide peu visqueux, va disparaître du contact lorsque les deux surfaces seront pressées l'une contre l'autre : un contact solide direct sera rétabli et l'on retrouve ainsi un frottement « sec » avec un coefficient de frottement élevé.
D'autres propriétés du lubrifiant vont également jouer un rôle dans ce mécanisme, notamment la « mouillabilité », c'est à dire l'affinité du liquide vis-à-vis de la surface, qui va influer sur la capacité du lubrifiant à recouvrir la surface et ses anfractuosités.
Le lubrifiant doit donc assurer des fonctions relativement antagonistes : l'une est d'être suffisamment fluide pour assurer un faible frottement, l'autre d'être suffisamment visqueux pour éviter le contact direct. Une huile de type moteur est donc un mélange complexe, contenant des dizaines d'additifs dont l'assemblage permet au final d'atteindre ces deux objectifs de façon optimale.
Conclusions :
Dans ce texte, nous avons présenté quelques points intervenant dans le problème du frottement entre solide. En aucun cas, il ne s'agit ici d'un panorama exhaustif et nous n'avons pas parlé ici de nombre de phénomènes également présent dans les problèmes de frottement, comme la physico-chimie des surfaces, la thermique, le vieillissement, l'usure, l'abrasion, etc...qui auraient tout aussi bien nécessités une discussion approfondie.
La tribologie est ainsi une science par essence pluridisciplinaire. Le phénomène de frottement résulte non pas d'un mécanisme unique, mais d'une multitude de phénomènes complexe et souvent couplés, qui aboutissent in fine aux lois pourtant simples d'Amontons-Coulomb.
C'est également vrai dans l'approche scientifique de ces problèmes. La science des frottements associe ingénieurs et scientifiques, recherche appliquée et fondamentale. Ces deux approches sont par nature couplées. Ainsi, si les questions soulevées sont anciennes, c'est un domaine dans lequel les derniers développements fondamentaux ont permis de mettre en évidence des phénomènes complètement inattendus, laissant augurer de progrès technologiques important dans un avenir proche.
Références :
[Bowden-Tabor] F.P. Bowden and D. Tabor, « The friction and lubrication of solids » (Clarendon Press, London, 1950).
[Bureau] L. Bureau, T. Baumberger, C. Caroli, « Jamming creep at a frictional interface », Physical Review E, 64, 031502 (2001).
[Dowson] D. Dowson « History of Tribology » (Longman, New York, 1979).
[Dienwiebel] M. Dienwiebel et al., « Superlubricity of Graphite », Physical Review Letters, 92, (2004).
[Hirano1997] M. Hirano, K. Shinjo, R. Kaneko and Y. Murata, « Observation of superlubricity by scanning tunneling microscopy », Physical Review Letters, 78, pp.1448-1451 (1997)
[Robbins] G. He, M. Müser, M. Robbins « Adsorbed Layer and the origin of static friction », Science 284 1650-1652 (1999).
VIDEO CANAL U LIEN |
|
|
|
|
 |
|
LASER |
|
|
|
|
|
CLAUDE COHEN-TANNOUDJI « Le laser ouvre de nouveaux champs de recherche »
La mise au point du laser, en 1960, a transformé l'étude de la lumière. Claude Cohen-Tannoudji, acteur majeur de ces cinquante années de recherche, livre son regard sur une histoire qui continue à s'écrire.
LA RECHERCHE : Comment un chercheur envisage-t-il l'étude de la lumière ?
CLAUDE COHEN-TANNOUDJI : La lumière ne peut s'étudier que par son interaction avec la matière. L'étude expérimentale de la lumière a débuté au XVIIe siècle. Descartes et Newton furent les premiers à réellement développer des modèles satisfaisants de la lumière. Il s'agissait de modèles corpusculaires. Newton pensait ainsi que la lumière était un jet de corpuscules et qu'il existait des corpuscules différents selon la couleur de la lumière. Ils étaient, selon lui, responsables de la sensation lumineuse.
C'est une conception ondulatoire de la lumière qui a rapidement eu la faveur des scientifiques ?
C.C.-T. En effet ; peu après, il y a eu toute une série de mises en évidence de propriétés ondulatoires à la suite des travaux de Huygens, de Fresnel et de Young. L'apogée fut la formulation des équations de Maxwell dans la seconde moitié du XIXe siècle, qui englobaient dans un même schéma cohérent l'électricité, le magnétisme et la propagation des ondes électro-magnétiques. Et il y a enfin eu les expériences de Hertz qui ont permis de montrer que les ondes électro-magnétiques lumineuses et radio avaient la même nature et ne différaient que par la fréquence.
Après cette compétition entre les modèles corpusculaire et ondulatoire, il semblait que la théorie ondulatoire allait triompher définitivement. Elle expliquait les phénomènes d'interférence, de diffraction, avec une grande précision. Elle donnait une explication cohérente d'une série d'observations. L'électromagnétisme était l'une des premières grandes synthèses de la physique.
Mais, à la fin du XIXe siècle, elle va être remise en question...
C.C.-T. Oui, il y avait alors deux petits « nuages » qui obscurcissaient ce tableau. Le premier était un constat d'échec. Les scientifiques pensaient qu'un milieu était nécessaire pour permettre la propagation d'une onde : un milieu appelé « éther » pour la lumière, comme l'air pour une onde sonore. Or toutes les tentatives de mettre en évidence un mouvement de la Terre par rapport à l'éther avaient échoué, remettant en question l'existence de ce milieu hypothétique.
Le second « nuage » était l'analyse du spectre du « corps noir » : en appliquant à la lumière les lois de la physique statistique* et en calculant la répartition en fréquences du rayonnement émis par un corps à une température T, on trouvait quelque chose d'aberrant. Aux hautes fréquences, l'intensité du rayonnement émis à la fréquence v décroissait trop lentement quand v tendait vers l'infini et l'on prévoyait un résultat infini pour l'énergie lumineuse totale rayonnée !
C'est pour expliquer ces résultats curieux que Planck a l'idée d'introduire les quanta ?
C.C.-T. Planck propose une nouvelle théorie selon laquelle il obtient le bon spectre en modélisant les atomes émetteurs comme un ensemble d'oscillateurs matériels interagissant avec le rayonnement. Dans cette théorie, il fait appel à un artifice mathématique classique : il remplace une distribution continue par une distribution discrète. Cela permet de simplifier le calcul, à la fin duquel on fait tendre vers zéro les « pas » du calcul pour rétablir la distribution continue. Seulement, il n'obtient les bons résultats qu'en s'affranchissant de cette dernière étape et en conservant jusqu'au bout une quantification discrète des échanges d'énergie entre les oscillateurs et le rayonnement. Planck n'est pas satisfait de ce résultat, car la démarche lui semble artificielle ! Mais c'est ainsi qu'il introduit la constante qui porte son nom et que l'on écrit h, du mot allemand Hilfsgrösse voulant dire « grandeur auxiliaire ». Cependant, personne n'imagine encore que la lumière est constituée de grains : ce sont seulement les échanges d'énergie entre la matière et le rayonnement qui se font de façon quantifiée.
Quand apparaît le concept de photon ?
C.C.-T. Dans l'un des trois articles fondamentaux d'Einstein - vraisemblablement le plus révolutionnaire -, en 1905. Il calcule l'entropie* du rayonnement et conclut que tout se passe comme si le rayonnement était constitué de corpuscules d'énergie quantifiée. La quantification n'est donc plus envisagée pour les seuls échanges d'énergie, mais pour le rayonnement lui-même.
Quelle est la réaction de la communauté scientifique des physiciens ?
C.C.-T. Scepticisme général : personne n'y croit. Quand Planck présente Einstein à l'Académie de Prusse en 1913, il parle d'un scientifique remarquable, qui a apporté des contributions fondamentales dans de nombreux domaines, mais qui a commis quelques erreurs de jeunesse comme l'idée de ce quantum lumineux - qu'on appellera photon par la suite -, pour lesquelles il faut lui pardonner.
On ne sait pas comment on peut réconcilier les quanta lumineux avec l'aspect ondulatoire. Ce n'est que petit à petit que les gens accepteront cette idée. Ainsi, après une dizaine d'années d'expérience, Robert A. Millikan dut admettre ne pas avoir réussi à mettre en défaut l'équation d'Einstein sur l'effet photo-électrique à laquelle il ne croyait pas.
Est-ce à cette époque que germe l'idée du laser ?
C.C.-T. Il faut remonter à 1917 et à l'article dans lequel Einstein essaie de retrouver la loi de Planck de façon simple en étudiant les échanges d'énergie dans des processus d'émission et d'absorption de photons par un atome à deux niveaux d'énergies différentes. Einstein introduit pour la première fois dans ce domaine l'idée de processus non déterministe : l'atome passe du niveau supérieur (d'énergie la plus élevée) au niveau inférieur (état fondamental supposé stable) avec une certaine probabilité par unité de temps d'émettre un photon de manière spontanée. Cette idée est révolutionnaire parce que toute la physique est déterministe à l'époque : si on connaît les conditions initiales, on pense que le système doit évoluer d'une manière bien définie. L'idée de probabilité de transition est nouvelle. Einstein considère dans son article que l'atome dans l'état fondamental peut absorber un photon avec une certaine probabilité de transition, puis retomber dans l'état fondamental par émission spontanée.
Einstein introduit aussi dans le même article l'idée d'émission stimulée : si un rayonnement incident arrive sur un atome dans l'état excité, il peut stimuler l'atome à revenir au niveau fondamental en émettant un photon identique au photon incident. En étudiant l'état d'équilibre atteint sous l'effet combiné des processus d'absorption, d'émission spontanée et stimulée, il retrouve en quelques lignes de calcul la loi de Planck, de façon beaucoup plus élégante qu'auparavant. Mais toutes ces idées nouvelles, qui paraissent alors vraiment académiques, vont rester en sommeil jusqu'au début des années 1950.
Que devient alors la polémique sur la nature ondulatoire ou corpusculaire de la lumière ?
C.C.-T. Einstein montre que dans l'interaction entre la matière et le rayonnement, il y a des phénomènes où la lumière apparaît de manière corpusculaire et des phénomènes où elle apparaît de manière ondulatoire, mais il ne propose pas de théorie précise. Louis de Broglie étend à la matière la notion de dualité onde-corpuscule, ouvrant la voie à de nombreux développements : l'équation de Schrödinger, la mécanique quantique, la liaison chimique, la théorie des solides... Peu à peu, le cadre pour une théorie complètement quantique de l'interaction entre la matière et le rayonnement se met en place. Et, à la fin des années 1920, l'Italien Enrico Fermi et le Britannique Paul Dirac proposent enfin une théorie satisfaisante englobant l'aspect corpusculaire et l'aspect ondulatoire, qui allait ouvrir la voie à l'élaboration de l'électrodynamique quantique.
Comment est née l'idée du laser ?
C.C.-T. Pendant la Seconde Guerre mondiale, de nombreux travaux avaient porté sur les micro-ondes et le radar en particulier ainsi que sur les jets atomiques et moléculaires. La connaissance des niveaux atomiques et moléculaires avait beaucoup progressé et on savait mieux réaliser des situations « hors d'équilibre », où les populations des divers niveaux d'énergie sont différentes de leurs valeurs d'équilibre. Le physicien américain Charles Townes connaissait tous ces développements : il avait notamment travaillé sur le radar pour l'armée et avait écrit un livre sur la spectroscopie micro-onde avec Arthur Leonard Schawlow. Il eut ainsi l'idée - tôt le matin en se promenant dans un parc, raconte-t-il - d'utiliser l'émission induite dans un milieu hors d'équilibre, où le niveau supérieur d'une transition atomique est plus peuplé que le niveau inférieur, pour amplifier un rayonnement traversant le milieu. Les photons nouveaux obtenus par émission induite, identiques aux incidents, sont en plus grand nombre que les photons disparaissant par absorption. En 1954, il obtient la première preuve d'oscillation maser (microwave amplification by stimulated emission of radiation).
Auparavant, le Français Alfred Kastler n'avait-il pas eu l'idée du « pompage optique » ?
C.C.-T. Kastler avait eu l'idée de manipuler les atomes par la lumière, de les mettre dans une situation hors équilibre, mais il n'avait jamais pensé à combiner cette possibilité avec l'émission stimulée pour amplifier un rayonnement. C'est pourquoi il n'aimait pas qu'on associe son nom au maser ou au laser. Townes, en revanche, voulait faire des sources de rayonnement avec des caractéristiques complètement différentes des sources classiques : directivité, puissance, monochromaticité, etc.
Comment est-on passé du maser au laser ?
C.C.-T. Naturellement. Cinq ans après avoir conçu le maser, Charles Townes et Arthur Leonard Schawlow - qui était son beau-frère - se sont demandé pourquoi ne pas mettre en oeuvre le processus d'amplification dans le domaine optique. Il leur fallait trouver comment faire des inversions de populations - obtenir davantage d'atomes dans le niveau supérieur d'une transition atomique que dans le niveau inférieur - dans cette gamme de longueur d'onde. C'est alors que Townes est venu un an ici, dans le laboratoire d'Alfred Kastler, en séjour sabbatique. Nous partagions le même bureau.
Vous-même n'étudiiez pas le laser ?
C.C.-T. Non, nous travaillions sur le pompage optique, nous ne pouvions pas tout faire. Et ce n'était pas du tout évident que l'amplification dans le domaine optique allait fonctionner. Finalement le premier laser (le « l » de light remplace le « m » de microwave) a été obtenu en 1960 par le physicien américain Theodore Maiman dans un cristal de rubis. Peu après, Ali Javan, alors au Massachusetts Institute of Technology, a présenté le premier laser à gaz. Toutes les voies pour faire des inversions de populations ont été explorées. Townes racontait même que Schawlow avait fabriqué un laser comestible avec des gélatines de molécules fluorescentes.
Comment ces découvertes ont-elles été perçues ?
C.C.-T. Tous ces travaux étaient considérés comme des recherches purement académiques. On parlait même de « solution en attente d'un problème » ! Je me souviens d'un congrès d'électronique quantique à Paris en 1963 où l'on disait que c'étaient de belles réalisations, mais en quelque sorte des curiosités de laboratoire. Cependant, le laser était pour nous une nouvelle source de lumière très intéressante, car elle avait des caractéristiques complètement différentes de celles des autres sources dont on disposait à l'époque. Des possibilités de faire des expériences nouvelles s'ouvraient à nous. Nous ne pensions pas encore aux applications pratiques. Quand les premiers lasers sont apparus, c'étaient des objets complexes, sophistiqués et difficiles à régler. Et puis, comme toujours, la technologie a fait des pas de géant, s'est simplifiée, des lasers ont été industrialisés et, dans les années 1970, on a pu en acheter comme on achetait un oscilloscope. Ce n'est qu'à ce moment-là qu'ils sont réellement devenus des nouveaux outils pour nos recherches.
Vous avez alors reformulé vos problèmes ?
C.C.-T. Le laser nous offrait la possibilité d'étendre dans le domaine optique toute une série de concepts qui avaient été développés auparavant dans l'étude de la « résonance magnétique », où l'onde interagissant avec l'atome pouvait être considérée comme une onde électromagnétique classique. On pouvait dès lors essayer de voir si le traitement quantique de l'interaction ne permettrait pas de mettre en évidence ses effets nouveaux.
Il y a eu aussi l'apparition de la spectroscopie laser. Jusqu'alors, les sources pour exciter un atome avaient une très grande largeur spectrale et une intensité très faible. Les sources laser avaient, elles, une largeur spectrale très faible, ce qui permettait de mesurer les fréquences des transitions atomiques avec une meilleure précision. L'intensité élevée des rayonnements délivrés par les sources laser mettait aussi en évidence une foison d'effets « non linéaires » nouveaux.
Il y a eu enfin beaucoup de travaux sur les statistiques de photons : on n'observait pas les mêmes corrélations temporelles entre les impulsions observées sur un détecteur selon que le faisceau lumineux envoyé sur lui provenait d'une source classique ou d'un laser. L'étude de ces phénomènes a donné naissance à l'optique quantique, où la lumière est décrite comme un champ quantique, discipline qui a été à l'honneur avec le prix Nobel de Roy Glauber, en 2005.
Quel était l'état d'esprit lors du déroulement de ces travaux ?
C.C.-T. La recherche fondamentale a réellement été régénérée par le laser. Des domaines complètement nouveaux se sont ouverts, comme l'optique non linéaire, qui permettait d'éclairer un milieu avec une onde laser et de récupérer des nouvelles ondes dont la fréquence était double ou triple. De façon plus générale, en partant d'une fréquence donnée, on pouvait en obtenir de nouvelles. Autre exemple : à la fin des années 1970, on entrevoyait la possibilité de changer la vitesse de l'atome et de contrôler sa position avec des lasers. C'est ce qui a débouché sur le refroidissement et le piégeage des atomes par laser.
Comment est née l'idée de se servir d'un laser pour refroidir les atomes ?
C.C.-T. Au début des années 1980, il y avait une vingtaine de personnes dans le monde, au maximum, qui travaillaient sur ces sujets et, essentiellement, sur un plan théorique. En ce qui me concerne, je faisais à cette époque un cours au Collège de France sur les forces radiatives qui s'étendait sur quatre ans et qui m'a permis d'approfondir le sujet. Et puis, au milieu des années 1980, le domaine a explosé. On s'est rendu compte que l'on pouvait refroidir des atomes à des températures très basses de manière relativement simple. Des perspectives nouvelles s'ouvraient pour la spectroscopie : les atomes froids se déplacent à des vitesses très faibles de sorte qu'on peut les observer pendant un temps plus long et espérer ainsi faire des mesures beaucoup plus précises - plus une mesure dure longtemps, plus elle est précise. Sont apparues ensuite les horloges atomiques à atomes froids et la condensation de Bose-Einstein* au milieu des années 1990. Il y a maintenant plusieurs laboratoires qui travaillent sur ces sujets.
Quels courants de recherche se sont imposés sur le long terme ?
C.C.-T. La recherche sur les atomes froids a été extrêmement féconde, avec des progrès spectaculaires en métrologie : on gagnait trois ou quatre ordres de grandeur sur la précision ! Un autre exemple de domaine de recherche nouveau concerne ce qu'on appelle les simulateurs quantiques. L'idée est de réaliser des systèmes modèles qui rappellent les systèmes de la matière condensée, mais qui sont bien plus simples à analyser, leurs paramètres étant modifiables beaucoup plus aisément. Par exemple, on sait maintenant, en utilisant des ondes laser stationnaires, piéger des atomes froids dans des réseaux de puits de potentiel répartis de manière périodique dans l'espace. Le mouvement des atomes dans cette structure rappelle celui des électrons dans le potentiel périodique créé par les ions d'un cristal. Et comment ne pas mentionner aussi l'information quantique, qui consiste à utiliser des systèmes quantiques pour transmettre l'information, la traiter, faire de la cryptographie quantique, etc. Tous ces domaines avancent parallèlement et rien de tout cela n'existerait sans le laser. Il ne faut pas pour autant négliger d'autres technologies qui ont évolué en parallèle. Ainsi, les détecteurs : ce n'est pas un hasard si le dernier prix Nobel de physique a été attribué pour le développement des caméras CCD*.
Le laser a-t-il permis de clore le chapitre de l'étude de l'interaction de la lumière avec la matière ?
C.C.-T. Disons que notre compréhension de la lumière et de ses interactions avec la matière a beaucoup progressé. Mais les progrès continus des lasers, du point de vue tant de la puissance que de la durée des impulsions, ouvrent des champs de recherche nouveaux. Par exemple, la réalisation d'impulsions laser femtoseconde* a permis d'avoir accès à la dynamique des noyaux au cours des réactions chimiques : c'est la femtochimie, couronnée par le prix Nobel d'Ahmed Zewail en 1999. Maintenant, on arrive à l'attoseconde, mille fois plus petite : c'est la dynamique des électrons qui devient accessible. En ce qui concerne la puissance, on atteint couramment aujourd'hui le domaine du térawatt* et même du petawatt* : de nombreux problèmes nouveaux se posent concernant le comportement de la matière dans des champs aussi élevés.
À la fin de sa vie, Einstein disait qu'il avait réfléchi cinquante ans sur la lumière et qu'il ne savait toujours pas ce qu'étaient les quanta lumineux ! Le monde quantique est bien mystérieux et nous réserve sans doute encore bien des surprises.
*LA PHYSIQUE STATISTIQUE décrit les systèmes qui comportent un grand nombre de particules à partir des propriétés de leurs constituants microscopiques.
*L'ENTROPIE est une mesure du désordre d'un système au niveau microscopique.
*LA CONDENSATION DE BOSE-EINSTEIN est l'apparition d'un état de la matière dans lequel les particules identiques et de spin entier occupent toutes le même état quantique, celui de plus basse énergie.
*UNE CAMÉRA CCD (charged coupled device) transforme un signal lumineux en signal électrique grâce à une matrice d'éléments semi-conducteurs.
*UNE FEMTOSECONDE est un millionième de milliardième de seconde, soit 10-15 seconde.
*UN TÉRAWATT est mille milliards de watts et UN PETAWATT est un million de milliards de watts.
DOCUMENT larecherche LIEN |
|
|
|
|
 |
|
ÉLECTRON |
|
|
|
|
|
électron
(anglais electron, de electric et anion)
Cet article fait partie du dossier consacré à la matière.
Particule fondamentale portant l'unité naturelle de charge électrique et appartenant à la classe des leptons.
Pour la physique, l'électron est l'objet théorique par excellence. C'est à son propos qu'ont été élaborées la plupart des théories importantes du xxe s., à commencer par la physique quantique. La physique atomique et moléculaire est essentiellement une physique des électrons. La chimie étudie la formation et la transformation des molécules, c'est-à-dire les transferts d'électrons d'un atome à un autre. La physique de l'état solide s'intéresse à la cohésion de la matière, assurée par les électrons. Plusieurs technologies ont spécifiquement l'électron pour matériau : électronique, informatique, applications médicales des faisceaux d'électrons, etc.
L'électron est l'un des plus importants constituants universels de la matière, dont toutes les propriétés macroscopiques sont, d'une façon ou d'une autre, liées à ses caractéristiques.
* Fiche d'identité de l'électron
* • masse : me = 9,1093897 × 10−31 kg ;
* • charge électrique élémentaire : e = −1,60217733 × 10−19 C ;
* • spin : ½ ;
* • moment magnétique : 0,92740155 × 10−23 A·m2.
* Son antiparticule est le positron : également appelé positon, il est de même masse que l’électron mais de charge opposée.
*
1. La découverte de l'électron
L'étude de l'électrolyse apporta la première preuve expérimentale de l'hypothèse l’existence de grains matériels composant le « fluide électrique ». Diverses mesures effectuées vers les années 1880 montrèrent que la quantité d'électricité nécessaire pour dissocier une mole de n'importe quel corps est un multiple entier d'une même quantité. Le mot « électron » fut inventé en 1891 par l’Irlandais George Stoney pour désigner d'abord la quantité élémentaire d'électricité, puis la particule porteuse de cette quantité elle-même.
Pour en savoir plus, voir l'article électricité.
L'étude des décharges électriques dans des gaz raréfiés (à basse pression) imposa définitivement l'existence de l'électron. Celles-ci s'accompagnent de l'émission de « rayons » (les rayons cathodiques) qui rendent fluorescent le verre de l'ampoule. Jean Perrin en 1895 puis Joseph John Thomson en 1897 réussirent à isoler ces rayons et à montrer, d'abord, qu'ils étaient porteurs d'une charge négative, puis qu'ils étaient effectivement constitués de particules matérielles chargées, dont Thomson mesura la vitesse et le rapport ee /me de leur charge e à leur masse me. Quant à la détermination de la charge élémentaire e elle-même, ce fut l'œuvre des vingt années qui suivirent ; en 1910, Robert Millikan, au terme d'une expérience particulièrement délicate, établit la valeur de e avec une précision extraordinaire pour l'époque.
2. L’électron, constituant fondamental de l’atome
L'idée d'une structure complexe de l'atome était tellement révolutionnaire au début du xxe s. que, pour l'imaginer, on fit appel à des « modèles classiques » de la physique. Une fois les caractères des ions positifs et de l'électron maîtrisés, la question de leur coexistence dans l'atome intrigua les physiciens.
2.1. Les premières tentatives de modélisation de l'atome
Comme il n'était pas possible d'observer la structure atomique, il fallait concevoir un « modèle » qui permît de comprendre des phénomènes physiques que l'on pensait être corrélés à une telle structure. Pour Hantaro Nagaoka (1904), le critère principal, emprunté aux phénomènes chimiques, devait expliquer la formation des molécules à partir des atomes. Il imaginait l'atome comme une structure stable, semblable à la planète Saturne : il plaçait les électrons sur les anneaux et assimilait la planète au noyau. Tout en acceptant que le critère de comparaison devait être fourni par la chimie, J. J. Thomson pensait, au contraire, que les électrons circulaient à l'intérieur d'une sphère dont la surface était chargée positivement.
Ce modèle n'était plus viable dès qu'on prenait en compte un autre phénomène : la diffusion des particules α, émises par désintégration radioactive du polonium, à travers une feuille de platine, qu'Ernest Rutherford avait observée, laissait penser que la charge atomique positive était concentrée en un point car quelques particules α étaient fortement déviées. Pour que les résultats expérimentaux soient compatibles avec le modèle planétaire, il fallait considérer que la charge positive était concentrée au centre de l'atome. Vers 1911, ce modèle semble satisfaire et la chimie et la physique, même s'il est toujours impossible de montrer sa compatibilité avec l'ensemble des lois de cette dernière. L'atome ressemble au Système solaire : le noyau positif est au centre, et les électrons se déplacent sur des orbites à l'extérieur du noyau. Cependant, les électrons, en tournant, doivent émettre de l'énergie. Selon un tel modèle, encore grossier, ils s'approcheraient du noyau jusqu'à être détruits par combinaison des charges positive et négative, rendant l'atome fortement instable. Après une dizaine d'années de recherches, malgré cette objection de fond, des certitudes étaient partagées par les chercheurs : la concentration de la masse et de la charge positive dans le noyau, les électrons étant situés à l'extérieur du noyau ; autre certitude : la stabilité du modèle supposé, dit de Rutherford. Mais, pour comprendre la structure de l'atome, il fallait une clé supplémentaire.
2.2. Structure atomique et spectroscopie
Ce fut la grande intuition du Danois Niels Bohr que de corréler, en 1913, la structure des atomes avec leurs spectres. Un spectre est l'enregistrement de l'énergie absorbée ou émise par les atomes. Bien que différents pour chaque élément, les spectres ont un aspect semblable : des lignes espacées différemment entre elles, correspondant aux valeurs d'énergie absorbée ou émise. Cette structure régulière se prête bien à la traduction en formules du type « la différence d'énergie entre deux lignes est égale à un multiple entier d'une même quantité ». Or une nouvelle conception s'affirmait en physique depuis le début du siècle : l'énergie est aussi concevable comme constituée de petits grains, unités appelées au début « quanta de lumière » (Einstein, 1905), et depuis 1924 « photons ».
L'énergie des spectres correspondait-elle également à des multiples entiers du quantum ? Pouvait-on corréler l'absorption ou l'émission d'énergie avec le déplacement des électrons à l'intérieur des atomes ? Y parvenir pouvait permettre d'évaluer l'énergie correspondant à un électron dans un atome. Le modèle de l'atome calqué sur la structure planétaire paraissait donc se préciser : les électrons évoluent, de manière stable, sur des orbites qui sont les seules positions possibles. Un électron peut passer d'une orbite à une autre par absorption ou émission d'énergie, cette énergie étant toujours un multiple entier du quantum.
Pour calculer les différentes orbites possibles, on fit appel aux théorèmes de la mécanique. On imagina ainsi des orbites elliptiques ; celles-ci pouvaient être inclinées différemment par rapport à un axe. Il était dès lors possible de distinguer les électrons en leur attribuant des paramètres : les deux premiers correspondaient aux deux axes de l'ellipse et le troisième, à l'inclinaison par rapport à l'axe perpendiculaire à la première orbite et passant par le noyau. Cette construction avait été rendue possible par la confrontation entre données spectroscopiques et déductions théoriques à partir des modèles mécaniques. Cette méthodologie allait pourtant achopper bientôt sur une difficulté majeure.
2.3. Le modèle quantique de l’électron
La diversité des éléments chimiques, dans le cadre du modèle des atomes planétaires, était expliquée par le fait que chaque élément est caractérisé par un nombre donné d'électrons (correspondant au numéro atomique), ceux-ci se disposant sur les orbites possibles du point de vue énergétique. Ainsi, chaque électron a d'abord été caractérisé par trois nombres entiers, dits nombres quantiques, obtenus par l'étude géométrique des orbites. On établissait aussi de cette manière l'interdépendance de ces nombres entre eux.
Le premier, le nombre quantique principal, généralement indiqué par n, est relié au niveau énergétique et indique l'axe principal de l'ellipse ; le deuxième, le nombre quantique azimutal, indiqué par l, peut assumer les valeurs 0 à (n − 1), et indique l'excentricité de l'orbite ; le troisième, le nombre quantique magnétique, indiqué par m, peut avoir les valeurs de −l à +l et représente l'inclinaison spatiale de l'orbite.
Or Wolfgang Pauli, à partir d'une analyse pointilleuse des données spectroscopiques, montra en 1924-1925 que la seule manière d'établir une correspondance entre l'ensemble des lignes observées pour un atome et les nombres quantiques était d'ajouter un quatrième nombre quantique (le spin s) en lui imposant uniquement deux valeurs : +1/2 ou −1/2. Certes, peu de temps après, George E. Uhlenbeck et Samuel A. Goudsmit réussirent à montrer, pour l'hydrogène, que ce nombre supplémentaire pouvait correspondre au moment cinétique propre de rotation de l'électron, appelé spin. Cette représentation mécanique constitue le dernier effort pour rester dans le cadre des anciens modèles. En effet, face à la multiplicité des modèles et en l'absence de critères physiques pour les départager, les physiciens furent convaincus que la structure des atomes allait devoir être repensée entièrement.
2.4. Le modèle ondulatoire de l’électron
Deux voies furent suivies en même temps : des chercheurs, abandonnant l'image trop réaliste du modèle planétaire, raisonnèrent sur les seules grandeurs observables et mesurables, d'origine mécanique comme la position et la quantité de mouvement ; d'autres mirent l'accent sur la nature ondulatoire de l'électron.
2.4.1. L’électron selon Louis de Broglie
En 1924, Louis de Broglie montrait que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire avec, comme relation fondamentale, la longueur d'onde λ = h /p, où h est la constante de Planck et p la quantité de mouvement de l'électron. On savait depuis les travaux de Hamilton, au milieu du xixe s., qu'un ensemble de corpuscules pouvait être représenté, mathématiquement, comme une onde. Cependant, s'agissait-il d'une pure possibilité mathématique ou d'une réelle capacité de l'électron à produire des phénomènes typiques de la théorie ondulatoire ? L'un de ceux-ci, le plus caractéristique même, correspond aux figures de diffraction. Ainsi, les expériences de Davisson et Germer, qui enregistrèrent en 1927 la figure de diffraction d'un faisceau d'électrons sur un mince cristal de zinc, furent considérées comme la preuve irréfutable de la double nature de l'électron : ondulatoire et corpusculaire.
L'électron présentait alors une analogie parfaite avec la lumière, qui peut être définie comme composée de photons, de spin nul, et comme une onde. Seule la valeur du spin – entier pour le photon et demi-entier pour l'électron – les départage ; ainsi, la réalité corpusculaire subatomique a comme grandeur typique le spin.
Cette conception de l'électron comme onde eut des prolongements techniques extrêmement importants. Par analogie avec le microscope optique, il a été possible de concevoir un microscope électronique (mettant en œuvre une source d'électrons, un réseau de diffraction, un système d'enregistrement – plaque photographique ou écran fluorescent – sur lequel est enregistré l'objet agrandi) dont la capacité d'agrandissement dépasse les 100 000 fois.
2.4.2. L’électron selon Erwin Schrödinger
Erwin Schrödinger décrivit l'électron comme une suite de fonctions ondulatoires. De plus, il obtenait les mêmes valeurs de l'énergie que celles que l'on calculait avec le modèle corpusculaire. Enfin, il était possible de passer de l'une à l'autre description car, du point de vue mathématique, elles sont équivalentes.
De ce fait, les physiciens se trouvaient confrontés à un problème supplémentaire : faut-il penser qu'à chaque corpuscule est étroitement associée une onde, ou que les descriptions ondulatoire et corpusculaire sont deux manières, complémentaires, de décrire une même réalité qui nous échappe ? Pour résumer, fallait-il accentuer l'analogie de ce problème avec ceux qui se posent dans d'autres domaines de la physique, comme l'optique ou l'acoustique, où cohabitent plusieurs points de vue, ou tenir ces résultats pour provisoires, en attendant une nouvelle théorie qui éliminerait le caractère de complémentarité associé à la nécessité de faire appel à deux visions ? Le débat est encore ouvert en physique, et pour l'instant il n'existe pas de théorie de remplacement.
La seule certitude des physiciens est que l'électron se situe à l'intérieur de l'atome, et qu'on ne peut indiquer que sa probabilité de présence dans ce confinement. Pour connaître la position de l'électron, il faut expérimenter ; or toute expérience perturbe le système de telle sorte qu'on ne sait plus où se situe l'électron après l'expérience. De plus, certaines grandeurs physiques mesurables sont liées entre elles de telle façon que, si l'on augmente la précision de la mesure de l'une, on réduit d'autant la précision de l'autre : il y a une indétermination fondamentale dans notre connaissance expérimentale de ces grandeurs. L'étude de l'électron aboutit donc à ces conclusions :
– toute description théorique revient à se donner des probabilités d'événements ;
– l'expérimentation perturbe tout système soumis à mesure ;
– si, au cours d'une même expérience, on veut évaluer en même temps des grandeurs liées, la précision de chaque mesure ne peut pas être arbitrairement élevée : plus on soigne l'un des paramètres, moins on obtient de précision sur l'autre ; la précision est donc toujours limitée.
3. L'électron dans les solides
Qu'apportait cette nouvelle vision à la connaissance des métaux ? D'énormes progrès avaient été réalisés dans la connaissance de leur structure. Les rayons X étant caractérisés par une faible longueur d'onde, la structure atomique d'un métal constitue un réseau naturel de diffraction pour cette « lumière », qui traverse la matière. Ainsi, en observant les réseaux de diffraction, on pouvait, par des calculs numériques extrêmement complexes, parvenir à déterminer la structure atomique. La cristallographie avait déjà habitué les savants à reconnaître dans les cristaux la présence de structures géométriques régulières ; cette connaissance fut étendue aux métaux, qui révèlent à l'échelle atomique une régularité non perceptible au niveau macroscopique. De plus, la diffraction des rayons X permettait d'apprécier la distance entre les lignes du réseau, et donc de mesurer la distance entre atomes. Ces valeurs, confrontées aux dimensions que l'on pouvait calculer à partir des modèles atomiques, montraient que la distance entre atomes d'un métal est telle qu'il faut supposer que les couches électroniques les plus externes sont en contact. La structure d'un métal est donc bien plus compacte qu'on ne l'imaginait. On conclut que les électrons de valence se déplacent dans un champ électrique intense, fort complexe, créé par les noyaux et les autres électrons atomiques. L'hypothèse des électrons libres relevait donc de la fiction. Mais comment oublier que, qualitativement au moins, un accord remarquable existait entre ce modèle et les données de l'expérience ?
3.1. L'approche chimique
La clé de cette énigme va être fournie par la compréhension de la liaison chimique. Les couches électroniques externes étant très proches, au point de se toucher, on suppose qu'il se produit un phénomène analogue à la formation d'une molécule à partir des atomes. L'analogie est presque parfaite : comme les molécules, les atomes gardent leur individualité tout en formant un nouveau composé dont l'action est spécifique ; dans le métal, les atomes gardent aussi leur individualité, et leur assemblage manifeste des caractères physico-chimiques propres.
3.1.1. Les électrons dans la liaison ionique
La cohésion moléculaire est considérée comme le résultat de l'attraction électrostatique entre ions de charge opposée. C'est le cas de la plupart des sels qui, en solution, se dissocient en ions. En général, ces molécules sont composées d'atomes de structure électronique fort dissemblable – on dit aussi qu'ils sont situés dans les cases extrêmes du tableau de Mendeleïev. L'un d'entre eux tend à se séparer de son ou de ses électrons externes pour atteindre une configuration électronique stable (huit électrons sur la couche externe), l'autre tend à s'annexer le ou les autres électrons, pour la même raison.
3.1.2. Les électrons dans la liaison covalente
Pour atteindre une configuration électronique stable, les atomes adoptent une solution de compromis : ils mettent en commun les électrons externes. C'est, par exemple, le cas de la liaison entre deux atomes de carbone, courante dans les composés organiques. Il faut l'imaginer comme un nuage électronique entourant les deux noyaux, qui se placent à une distance telle qu'elle correspond à un minimum de l'énergie pour l'ensemble du système.
3.2. Électrons et nuage électronique
Transposée au niveau des solides, l'image du nuage électronique implique le partage des électrons entre tous les atomes ; or cette image est fort semblable à l'hypothèse « ancienne » des électrons libres dans un métal, son réalisme naïf en moins. Pour la tester, il fallait faire appel aux méthodes de calcul de la mécanique quantique. Le point crucial est donc de résoudre ce problème du point de vue mathématique : il s'agit d'écrire une équation pour N corps en mouvement, N étant une valeur très grande correspondant aux électrons qui font partie de la liaison. Ce problème est soluble uniquement par des méthodes mathématiques approchées et il faut faire des hypothèses physiques « raisonnables » pour en simplifier la résolution.
L'hypothèse suivante s'est révélée féconde : les électrons gardant leur individualité, on va les considérer isolément. Il s'agit donc d'écrire l'équation du mouvement de l'un d'entre eux en présence d'un champ électrique issu des noyaux disposés selon les nœuds du réseau cristallin, champ auquel font écran les autres électrons. La nature symétrique de ce champ complexe permet d'introduire des simplifications ; il s'agit ensuite de l'évaluer raisonnablement. Si un composé ou un métal est stable, cela veut dire que son énergie est inférieure à la somme de l'énergie des atomes le composant. Transférée sur le plan de la description mathématique, cette idée revient à considérer que les fonctions atomiques qui décrivent l'électron seront sans doute changées, mais pas totalement ; elles peuvent donc constituer un point de départ raisonnable pour résoudre l'équation. Une fois trouvée une première solution, il faut modifier et le champ et les fonctions, puis répéter ce calcul tant que les petits changements apportés ne modifient pas les données importantes que sont les valeurs de l'énergie pour chaque électron dans le métal. Cette longue suite de calculs numériques est aujourd'hui possible grâce aux ordinateurs.
En général, on obtient des solutions du type suivant : les valeurs d'énergie permises au niveau atomique se regroupent dans des ensembles caractérisés par des énergies très proches, qui se confondent en une sorte de zone appelée bande. Ces bandes se distribuent sur une échelle des énergies croissantes ; elles peuvent se recouvrir en partie, ou être séparées par un large gap (écart) d'énergie. Partant de N fonctions atomiques, on obtient N niveaux énergétiques qui se regroupent en bandes. Comme dans la liaison chimique, l'occupation par les électrons des bandes les plus externes devra permettre de comprendre les phénomènes de conduction électrique et thermique. Les électrons s'« empilent » par deux et par fonction, selon le principe de Pauli. On peut alors schématiser ainsi les situations possible : la bande externe est totalement remplie d'électrons, ou elle l'est partiellement ; la bande immédiatement supérieure, vide d'électrons, recouvre partiellement ou pas du tout la bande dernièrement occupée.
3.3. Électrons et propriétés des solides
Ce simple schéma des situations possibles du point de vue énergétique permet de rendre compte de ce qui paraissait inexplicable dans l'ancienne théorie de l'électron libre. Un électron peut être considéré comme libre d'occuper n'importe quel niveau d'énergie à l'intérieur d'une bande. Si deux bandes se superposent, il peut passer aisément de l'une à l'autre.
Théoriquement, ces mini-sauts demandent toujours une dépense énergétique, mais elle peut être considérée comme suffisamment faible pour que les sauts adviennent. Cette mobilité rend bien compte des propriétés conductrices des solides. Un isolant électrique est un solide où la dernière bande est complètement remplie et la bande vide, immédiatement supérieure, nettement séparée ; pour qu'il y ait mobilité, il faudrait fournir suffisamment d'énergie pour exciter les électrons sur la bande libre. Un bon conducteur présente la configuration inverse : si les deux dernières bandes se recouvrent, il suffit de peu d'énergie pour redistribuer les électrons. Un mauvais conducteur est un solide dont la distance entre la dernière bande remplie et la bande immédiatement supérieure n'est pas très grande : il suffit de peu d'énergie pour le rendre faiblement conducteur. Un tel modèle permet aussi d'expliquer pourquoi la chaleur spécifique des solides, dans les limites de validité de la loi de Dulong et Petit, est une constante. Dans le cas des mauvais conducteurs, la contribution électronique peut être considérée comme nulle ; dans les autres cas, la mobilité électronique est telle qu'elle ne change pas considérablement par l'augmentation de la température dans des limites définies. Dans les deux cas, la contribution des électrons à la chaleur spécifique est négligeable.
Cette approche a en outre le mérite de relier aux modes de distribution électronique d'autres faits physiques, comme l'émission thermo-ionique, à l'origine de l'électronique classique, celle à tubes. On sait qu'en chauffant un métal il se produit une émission d'électrons. Cela signifie que ces électrons ont une énergie cinétique telle qu'ils dépassent la barrière représentée par la surface du métal. Ainsi, la surface devient du point de vue physique une discontinuité fondamentale dans le potentiel. Si cette analyse est bonne, on doit pouvoir expliquer, par analogie, l'effet photoélectrique, dans lequel l'énergie est fournie par le rayonnement incident. Ainsi que l'avait déjà observé Einstein, il faut un rayonnement d'une certaine longueur d'onde pour faire s’échapper des électrons d’un matériau. De ce fait, effets thermoélectrique et photoélectrique relèvent de la même explication.
L'électron décrit par les équations de la mécanique quantique perd son image de particule à laquelle sont associées une masse et une charge ; en revanche, il permet de mieux maîtriser et expliquer les phénomènes complexes propres aux solides.
DOCUMENT larousse.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] Précédente - Suivante |
|
|
|
|
|
|