ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA LUMIÈRE

 

 

 

 

 

 

 

LA LUMIÈRE


La lumière a constitué depuis l'Antiquité un objet central de recherche. Cependant ce n'est qu'au XVIIe siècle que les théories physiques de la lumière, c'est-à-dire l'étude de la lumière et des couleurs au sens où nous l'entendons encore aujourd'hui, connurent leur véritable essor. Nous présenterons donc tout d'abord le cadre historique, conceptuel et expérimental à l'intérieur duquel se sont constituées les théories de la lumière et des couleurs au XVIIe siècle. Nous nous attacherons ensuite à suivre à travers l'analyse des principaux phénomènes (interférence, diffraction, polarisation) les enjeux du débat entre théories ondulatoires et corpusculaires. Nous consacrerons la dernière partie aux aspects contemporains des théories de la lumière dans leur rapport avec la structure atomique et la mécanique quantique.

RÉSUMÉAUTEURSDOCUMENTS PÉDAGOGIQUES


Texte de la 215e conférence de l’Université de tous les savoirs donnée le 2 août 2000.


La lumière

par Michel Blay


Ce n'est qu'au XVIIe siècle que les théories physiques de la lumière, c'est-à-dire l'étude de la lumière et des phénomènes lumineux au sens où nous l'entendons encore aujourd'hui, connurent leur véritable essor. En effet, si depuis l'Antiquité les travaux sur la lumière n'ont pas manqué, la plupart d'entre eux s'inscrivent dans le cadre d'une réflexion centrée sur le problème de la vision et du regard plutôt que sur celui de la nature de la lumière.
C'est Johannes Kepler (15711630), prolongeant les remarquables études de Ibn-al-Haitham connu en Occident sous le nom d'Alhazen (c.9651039 ?), de Robert Grosseteste (11751253), de John Pecham (c.12301292) et de Witelo ou Vitelion (c.1230c.1285), qui assimile définitivement dans ses Paralipomènes à Vitelion (Francfort, 1604) l'œil à un dispositif optique conduisant à la formation d'une image réelle sur la rétine. L'optique physique acquiert son autonomie ; l'analyse de la lumière devient, en se libérant du problème de la sensation visuelle, un véritable objet de recherche.
Une nouvelle distribution du savoir se met alors en place avec Johannes Kepler et René Descartes (15961650) amenant à retenir trois champs d'investigation : la nature physique de la lumière, la transmission de l'image rétinienne au cerveau (anatomie, physiologie), et la représentation mentale. Nous ne nous attacherons ici qu'au premier de ces trois champs d'investigation : l'histoire des théories physiques de la lumière.
La problématique mécaniste cartésienne
Le développement des théories physiques de la lumière au XVIIe siècle est associé, le plus souvent, à la construction de modèles mécaniques : comment expliquer à l'aide des seuls concepts de la physique mécaniste les propriétés connues de la lumière comme la propagation rectiligne, la réflexion, la réfraction ou la genèse des couleurs ?
Ce type d'approche a été véritablement initié par Descartes. Dans le monde plein cartésien la propagation de la lumière est caractérisée par une inclination au mouvement, une poussée, un effort, c'est-à-dire qu'elle se fait sans transport de matière.
Il n'en reste pas moins que dans les premières pages de la Dioptrique, publiée en 1637 après le Discours de la méthode avec la Géométrie et Les Météores, Descartes introduit trois « comparaisons » pour aider à concevoir la lumière « en la façon qui me semble la plus commode, pour expliquer toutes celles de ses propriétés que l'expérience nous fait connaître, et pour déduire ensuite toutes les autres qui ne peuvent pas si aisément être remarquées ». Or, dans la troisième comparaison (après celles du bâton de l'aveugle et de la cuve de raisin), consacrée à l'explication des phénomènes de la réflexion et de la réfraction, Descartes fait appel au mouvement d'une balle rencontrant une surface. C'est de l'étude de cette comparaison et de ce mouvement, dans le Discours second, que Descartes tire sa fameuse loi de la réfraction exprimant que le sinus de l'angle de réfraction et le sinus de l'angle d'incidence sont dans un rapport constant (l'expression de ce rapport, déjà présente dans un manuscrit arabe de Ibn Sahl au IXe siècle, a été retrouvée également au début du XVIIe siècle par divers savants comme Thomas Harriot et W. Snell) et que, de cela, il conclut que la lumière se déplace plus « aisément » dans les corps durs comme le cristal que dans les corps mous comme l'air.
Ce résultat est contesté dès 1657 par Pierre Fermat dans sa correspondance avec Marin Cureau de la Chambre. Fermat, en s'appuyant à la fois sur le principe affirmant que la lumière suit toujours la trajectoire qui minimise le temps du déplacement ainsi que sur sa nouvelle méthode mathématique de l'adégalisation, parvient à retrouver la loi de la réfraction mais en considérant que la vitesse de propagation de la lumière est plus grande dans les milieux rares que dans les denses.
Si la propagation de la lumière est bien considérée par Descartes comme une inclination au mouvement, sans transport de matière, la troisième comparaison de la Dioptrique, celle de la balle, ouvre cependant la voie à une conception qui pourrait être corpusculaire de la lumière. Ainsi, tant chez Descartes que dans les discussions engagées par Fermat, se fait déjà jour le grand débat qui va gouverner le développement des théories physiques de la lumière : celle-ci est-elle une onde, c'est-à-dire un mouvement sans transport de matière ou un déplacement de matière (corpuscules, fluides, etc.) ?
Avant d'en venir à l'analyse et aux enjeux épistémologiques de ce débat, débat qui prend sa forme définitive avec les travaux de Christiaan Huygens (1629-1695) et de Isaac Newton (1642-1727), il importe tout d'abord de faire le point sur les principales découvertes expérimentales qui ont marqué la deuxième moitié du XVIIe siècle.
Découvertes expérimentales
La diffraction
Les premières expériences de diffraction de la lumière ont été réalisées par Francesco-Maria Grimaldi (16181663) et présentées dans son gros ouvrage intitulé : Physico-Mathesis de Lumine, Coloribus et Iride (Bononiae, 1665). C'est d'ailleurs Grimaldi qui introduit le terme de diffraction pour caractériser les nouveaux phénomènes qu'il vient de découvrir.
Utilisant un faisceau très étroit de lumière naturelle, Grimaldi observe, par exemple dans une pièce sombre que lorsqu'un petit objet est placé dans un cône lumineux émergeant d'une petite ouverture, l'ombre portée sur un écran blanc n'est pas, comme le suggère l'optique géométrique, nettement séparée de la zone lumineuse, mais que l'ombre est bordée par trois traînées lumineuses (« series lucidae ») et colorées.
Grimaldi multiplie les expériences et, à l'issue de ces travaux, rejette l'idée que les « series lucidae » pourraient être dues à la lumière directe, ou à de la lumière réfractée (les « series » ne dépendent pas de la nature de l'obstacle), ou bien encore à de la lumière réfléchie (les « series » ne dépendent pas du bord de l'obstacle). Grimaldi en conclut que la lumière doit se propager d'une autre façon bien distincte des trois précédentes et à laquelle il faut donner un nom : la diffraction.
L'observation de phénomènes d’ « interférence »
Les premiers travaux véritablement coordonnés sur ces phénomènes se rapportent aux observations des couleurs à la surface des lames minces. Ils furent l'œuvre de Robert Boyle (16271691) et apparurent dans les Experiments and Considerations Touching Colours (Londres, 1664).
Ces études sont prolongées par celles de Robert Hooke (1635-1703) dans son ouvrage consacré en particulier à des observations microscopiques intitulé Micrographia (Londres, 1665). Ce dernier remarque qu'une coloration apparaît sur une lame transparente limitée par deux surfaces réfléchissantes, de réfringence différente de celle de la lame, lorsque son épaisseur est comprise entre une limite supérieure et une inférieure au-delà desquelles ne peut être perçue aucune couleur, la lame devenant transparente. Dans le prolongement de ces expériences il réalise, entre autres, en plaçant deux lentilles l'une contre l'autre, celle dite aujourd'hui des anneaux de Newton. Ces phénomènes s'interprètent aisément depuis le début du XIXe siècle en termes d'interférence.
La biréfringence
En 1669, Erasme Bartholin (1625-1698) découvre la biréfringence en manipulant des cristaux de spath d'Islande (calcite). Il publie ses observations dans un petit Mémoire intitulé Experimenta crystalli Islandici disdiaclastici (Copenhague, 1669). Il y décrit en particulier comment ces cristaux dédoublent les images des objets ou des écrits sur lesquels ils sont placés et introduit les termes utilisés encore aujourd'hui, de réfraction ordinaire et de réfraction extraordinaire.
La vitesse de la lumière
En 1676, l'astronome Ole Römer (1644-1710), alors qu'il séjourne à l'Observatoire de Paris tout nouvellement bâti, déduit des irrégularités apparentes de la période des satellites de Jupiter une méthode de mesures de la vitesse de la lumière.
Ses résultats sont publiés dans le Journal des Sçavans du lundi 7 décembre 1676. Römer parvient à une valeur approximative de la vitesse de la lumière de 215 000 kilomètres par seconde. Il montre ainsi que l'hypothèse cartésienne de la propagation instantanée n'est pas fondée. L'ensemble de ces mesures et observations impose une refonte complète de l'optique cartésienne.
La mise en place d'une nouvelle théorie cohérente de la nature de la lumière, susceptible de rendre compte de tous les nouveaux résultats, devient alors une tâche d'une extrême difficulté qui va occuper les savants jusqu'au milieu du XIXe siècle. Elle passe d'abord par les travaux newtonien et la construction du fait général de la multiplicité des lumières homogènes.
Newton : le fait général de la multiplicité des lumières homogènes
Alors que l'épidémie de peste qui va ravager l'Angleterre jusqu'à l'incendie de Londres en 1666 conduit à la fermeture de l'Université, Newton mène dans son Lincolnshire natal ses premières recherches sur la lumière et les couleurs. Celles-ci apparaissent dans des Carnets de notes rédigés principalement en 1664 et 1666. A cette époque, les théories de la genèse des couleurs invoquent encore très largement les thèses aristotéliciennes. Celles-ci considèrent la lumière blanche comme pure et homogène tandis que les couleurs, caractérisées par leur éclat ou leur force, naissent d'une modification (atténuation ou obscurcissement) de la lumière incidente. La succession des couleurs est produite lorsque la lumière devient plus faible ou plus sombre : le rouge, couleur éclatante, par excellence contient plus de blanc et moins de noir que les autres couleurs, le vert plus de noir et moins de blanc que le rouge et le violet encore plus de noir. Une telle conception dénuée de tout support quantitatif susceptible de préciser le sens des concepts de force et de faiblesse, d'obscurité et de luminosité, ne trouve son fondement, son intelligibilité qu'en se référant directement aux impressions perçues par nos sens, à la manière dont subjectivement nous nous sentons affectés par telle ou telle couleur.
Quelques exemples permettent d'illustrer le sens de cette théorie et d'en préciser les diverses formes. Ainsi Giambattista della Porta (1533-1615) décrit ses expériences avec un prisme dans la proposition 26 de son De Refractione Optices Parte libri novem (Naples, 1558). Dans son texte, Porta stipule clairement que les couleurs dépendent de l'épaisseur du cristal traversé par la lumière, c'est-à-dire du degré de subtilité ou de finesse de la matière : les couleurs les plus vives (le rouge et le jaune) apparaissent vers le sommet, et les plus sombres (le vert et le bleu) vers la base.
Une analyse tout à fait semblable est donnée par Marco Antonio de Dominis (1566-1624) dans son De radiis visus et lucis in vitris perspectivis et iride tractatus (Venise, 1611) : « Nous pouvons dire qu'il y a trois couleurs intermédiaires. La première incorporation d'opacité qui assombrit d'une certaine quantité le blanc, engendre le rouge, et cette dernière est la plus lumineuse (maxime lucidus) des couleurs intermédiaires réparties entre les deux extrêmes, le blanc et le noir, comme cela apparaît de façon manifeste avec l'expérience du prisme (in vitro oblongo triangulari) ; les rayons du soleil qui pénètrent dans la partie la plus proche du sommet, dans celle qui a la moindre épaisseur et par là-même le moins d'opacité, émergent rouge ; ensuite pour une épaisseur plus importante apparaît le vert et enfin, le violet pour l'épaisseur maximale [...] si l'opacité augmente apparaît le violet ou le bleu qui est la couleur la plus obscure (maxime obscurus) [...] ».
Au cours du XVIIe siècle, se développent des recherches influencées par les thèses de la philosophie mécaniste et les travaux de Descartes. Ces recherches reprennent implicitement, dans le cas des théories de la genèse des couleurs, à travers la mise en place de modèles mécaniques explicites, les conceptions traditionnelles. Ainsi Descartes, prolongeant le modèle mécanique de la lumière dont nous avons précédemment donné les principaux éléments, parvient à l'idée que la multiplicité des couleurs est la représentation subjective des différentes tendances à la rotation, rotation acquise par exemple lors d'une réfraction, des boules du deuxième élément dont l'effort rectiligne correspondait à la transmission de la lumière de la source vers l'œil. Un tel modèle mécanique est dénué de tout support quantitatif : comment pourrait-on mesurer la vitesse angulaire de ces boules parfaitement inobservables et aux mouvements ou tendances aux mouvements, d'ailleurs hypothétiques ? Par conséquent, comment se fait-il que Descartes, indépendamment de toute détermination quantitative, puisse trouver, dans la correspondance établie entre la couleur perçue et la force avec laquelle les hypothétiques globules tendent à tourner, une explication satisfaisante ? Pourquoi estime-t-il avoir pleinement rendu compte de la genèse des couleurs en associant simplement, dans le cadre de son modèle mécanique, d'une part le rouge avec les globules qui tendent à tourner avec le plus de force et, d'autre part, le bleu avec les globules qui tendent à tourner avec le moins de force ?
En fait dénuées de tout support quantitatif, ces relations associant telle vitesse de rotation ou de tendance à la rotation, à telle couleur, ne peuvent être qu'arbitraires, inspirées par la conceptualisation traditionnelle de style aristotélicien qui relie la force avec la teinte rouge, la faiblesse ou la diminution de force avec la teinte bleue. C'est la correspondance entre l'intensité de la perception subjective (le rouge par son éclat nous affectant plus que le bleu) et la force de la propension au mouvement de rotation qui donne à cette explication, aux yeux de Descartes, toute son intelligibilité et toute sa légitimité. Quelques années plus tard, en 1664, Robert Hooke imagine dans la Micrographia qu'au cours de la réfraction une obliquité apparaît dans la partie de l'impulsion originellement normale à la direction de propagation de la lumière (la notion du front d'onde ne sera précisée que par Christiaan Huygens en 1690). C'est cette obliquité qui permet à Robert Hooke d'expliquer la genèse des couleurs en considérant qu'une extrémité de l'impulsion oblique est plus affaiblie que l'autre et qu'ainsi se trouvent engendrées les différentes couleurs.
Ce cadre explicatif mécaniste qui fonde son intelligibilité sur des considérations subjectives est largement partagé par les contemporains de Newton. Il lui fournit le terreau dans lequel vont pouvoir s'enraciner ses recherches initiales.
Il les commence en 1664, par des expériences, dites aujourd'hui d'iridescence, inspirées par l'idée que les couleurs naissent de la lumière et de l'obscurité, à l'occasion desquelles, observant à travers un prisme deux bandes contiguës l'une claire et l'autre sombre, il constate la présence de diverses colorations dans la zone de contact. Puis, guidé par une conception corpusculaire de la lumière, il parvient en 1665 à une interprétation qui associe un modèle hétérogène de la lumière blanche (les corpuscules constituant les rayons incidents possèdent soit des vitesses soit des masses de grandeurs différentes) et un processus de la genèse des couleurs qui se situe dans le prolongement direct de la version mécaniste des théories traditionnelles de la modification. A cette date la position de Newton reste donc très classique, du point de vue de la genèse des couleurs. Il s'attache d'ailleurs encore à l'automne 1665, comme ses contemporains, à tailler des verres de forme autre que sphérique pour résoudre le délicat problème de l'achromatisme des lentilles : on supposait alors que des verres de forme autre que sphérique pourraient remédier à ce défaut.
Au début de l'hiver 1666, Newton est cependant en possession de l'essentiel de sa théorie. C'est donc entre ces deux périodes qu'il a conçu son hypothèse définitive : il n'y a pas de surface susceptible de permettre à tous les rayons de converger en un foyer, c'est-à-dire qu'il n'y a pas de telle surface si la lumière est un mélange hétérogène de rayons différemment réfrangibles. Cette nouvelle hypothèse va constituer, pour Newton, un guide privilégié ouvrant la voie à une étude renouvelée des phénomènes de la lumière et des couleurs.
Newton reprend en premier lieu certaines des expériences de Robert Boyle contenues dans ses Experiments and Considerations Touching Colours (Londres 1664). Ses comptes rendus expérimentaux comparés à ceux donnés par Boyle d'expériences identiques sont très instructifs. Boyle, après avoir indiqué qu'une feuille d'or très fine apparaissait comme « pleine de pores », décrit le changement de couleur observé lors de la transmission de la lumière : « Mais la lumière qui traversait ces pores était, lors de son passage, si tempérée par de l'ombre et modifiée que l'œil ne discernait plus une couleur or, mais une couleur bleu-vert ». Quant à Newton, il écrit : « les rayons réfléchis par une feuille d'or sont jaunes mais ceux qui sont transmis sont bleus comme cela apparaît en tenant une feuille d'or entre l'œil et une chandelle ». La comparaison de ces comptes rendus souligne une différence radicale dans les perceptions du même phénomène par les deux savants. Si newton perçoit des rayons réfléchis jaunes et des rayons transmis bleus, Boyle perçoit dans la lumière transmise non pas des rayons d'une nature spécifique, mais de la lumière blanche modifiée et altérée dans sa nature par un mélange d'ombre. Boyle et Newton ne voient plus la même chose lorsqu'ils observent leurs feuilles d'or. De telles remarques pourraient être multipliées, mais c'est en décrivant les résultats fondamentaux de ses travaux sur le prisme que Newton rompt de la façon la plus nette avec les analyses classiques. En 1666 donc, Newton renouvelle totalement l'expérience du prisme en ce sens que, contrairement à ses contemporains, il se place systématiquement dans une pièce sombre, utilise un diaphragme pour limiter le faisceau incident de lumière solaire, installe le prisme dans une position correspondant au minimum de déviation, place l'écran à une grande distance du prisme, observe une tache spectrale d'une forme bien déterminée. Des conditions expérimentales aussi bien définies et éloignées des pratiques usuelles des contemporains soulignent la spécificité de l'expérience newtonienne du prisme et la nouveauté du regard, qui est maintenant le nôtre, de Newton. Loin d'être celle d'où aurait été déduite, comme on a l'habitude de le croire, toute la théorie, l'expérience du prisme apparaît bien plutôt comme une expérience mise en place pour développer l'hypothèse formulée antérieurement concernant la réfrangibilité spécifique des différents rayons. L'expérience du prisme au sens newtonien est une expérience construite et non donnée. Le regard, à présent porté sur la lumière et les couleurs par Newton inaugure, à proprement parler, le nôtre.
C'est en 1672 que Newton, alors qu'il vient d'être nommé fellow de la Royal Society pour son télescope à réflexion — il sait maintenant que la taille des verres est inutile pour résoudre les problèmes de l'achromatisme —, rédige sa célèbre lettre à Henry Oldenburg alors secrétaire de la Royal Society. Cette lettre, présentée aux membres de cette assemblée à la séance du 8 février 1672 puis publiée dans le numéro 80 du 19 février des Philosophical Transactions (3075-3087), constitue le véritable texte fondateur de la théorie newtonienne de la lumière et des couleurs. Il restera jusqu'en 1704 date de publication de l'Opticks, le seul exposé complet de sa pensée.
Sans entrer dans le détail de cette lettre, qui donne une refonte dans un style d'inspiration très baconien, requis par les membres de la Royal Society, des travaux que nous venons de présenter, Newton y formule sa théorie, sous sa forme définitive en s'appuyant sur son Experimentum crucis. Il va sans dire que le style de cette lettre associé à la mise en place de l'Experimentum crucis aidera fortement à créer l'image d'un newton pour lequel ses acquis semblent résulter de la saisie d'un pur fait d'expérience comme s'il lisait directement les secrets de la nature.
Dans cet Experimentum crucis Newton utilise deux prismes et deux planches percées. Le premier prisme est placé à proximité du trou pratiqué dans le volet. Les rayons émergeant de ce prisme, produisant le spectre, passent par un petit trou réalisé dans l'une des deux planches, placée juste derrière le prisme. A 12 pieds de cette dernière, Newton fixe la deuxième planche percée également d'un trou et derrière laquelle il installe le deuxième prisme. Ce dernier peut ainsi recevoir les rayons émergeant du premier prisme. Par la rotation de ce dernier autour de son axe, tout en maintenant fixes les deux planches et le deuxième prisme, les rayons de telle ou telle espèce émergeant du premier prisme sont amenés en face du premier trou. Cela étant, seul le faisceau joignant les deux trous dans les deux planches et dont la direction, par conséquent, est constante, tombe sur le deuxième prisme (chaque faisceau parvient ainsi sous la même incidence au deuxième prisme). De cette façon, Newton peut observer sur le mur les diverses taches colorées correspondant aux divers rayons réfractés par le deuxième prisme, et constate alors que les plus réfractés (ou les moins réfractés) par le premier prisme sont encore ceux qui le sont le plus (ou le moins) par le deuxième prisme : « Et je vis, par les différentes positions de ces lieux, que la lumière tendant vers cette extrémité de l'image vers laquelle la réfraction du premier prisme avait lieu, subissait vraiment dans le second prisme une réfraction beaucoup plus importante que la lumière tendant vers l'autre extrémité ».
Là-dessus, Newton conclut que la lumière blanche est constituée de rayons différemment réfrangibles : « Et ainsi nous décelâmes que la véritable cause de la longueur de cette image n'était pas autre chose que celle-ci, à savoir que la lumière se composait de rayons différemment réfrangibles qui, sans égard à la différence de leurs incidences, étaient suivant leur degré de réfrangibilité transmis vers diverses parties du mur ».
Dans la deuxième partie de sa lettre de 1672, Newton remarque que l'experimentum crucis montre que les rayons traversant le deuxième prisme conservent tout aussi bien leur couleur que leur degré de réfrangibilité. À chaque couleur correspond un certain degré de réfrangibilité, de telle sorte qu'entre la réfrangibilité et la couleur s'instaure une relation biunivoque. Par conséquent, corrélativement à leurs différences dans leurs degrés de réfrangibilité, les rayons diffèrent « dans leur disposition à présenter telle ou telle couleur particulière ». Ainsi Newton peut conclure que « les couleurs ne sont pas des qualifications de la lumière dérivées de réfractions ou de réflexions sur les corps naturels (comme on le croit en général), mais des propriétés originelles et innées différentes suivant les rayons » de la même façon que le sont leurs degrés de réfrangibilité. Puis Newton établit que la couleur ou le degré de réfrangibilité d'un rayon donné sont inaltérables, soit par réfraction, soit par réflexion, soit encore « d'aucune autre façon que j'ai pu jusqu'à présent étudier ». Il n'en reste pas moins que des « transmutations apparentes de couleurs peuvent se produire là où s'opère tout mélange de rayons de diverses natures ». En fait, il y a deux sortes de couleurs : « les couleurs simples et primitives d'une part, leurs mélanges d'autre part ». Les couleurs primitives ou primaires étant « le rouge, le jaune, le vert, le bleu, un violet pourpre, avec aussi l'orange, l'indigo et une variété indéfinie de nuances intermédiaires ». Parmi tous les mélanges, « la composition la plus surprenante et la plus extraordinaire est celle du blanc ». Cette couleur est, de toutes celles obtenues par mélanges, la plus complexe puisque son analyse par le prisme fournit toutes les couleurs du spectre. Afin d'illustrer ce résultat, Newton imagine une expérience permettant de recomposer la lumière blanche à partir de la lumière dispersée par un prisme. Pour cela, il place une lentille convergente sur le trajet des rayons émergeant du prisme et observe que « la lumière ainsi reproduite était entièrement et parfaitement blanche, ne différant pas du tout de façon sensible de la lumière directe du soleil, sauf lorsque les verres que j'employais n'étaient pas suffisamment clairs, car dans ce cas, ils la modifieraient quelque peu vers leur couleur ». Newton conclut en affirmant que « de cela, par conséquent, il s'ensuit que le blanc est la couleur normale de la lumière ; car la lumière est un agrégat complexe de rayons dotés de toutes sortes de couleurs, qui sont dardés de façon désordonnée des différents points des corps luminescents ». Dans cette dernière proposition, la thèse de l'hétérogénéité prend sa forme définitive, et l'interprétation de l'experimentum crucis acquiert toute sa force. Puisqu'à chaque degré de réfrangibilité correspond une couleur déterminée, par conséquent, les rayons susceptibles d'engendrer telle ou telle sensation de couleur et préalablement mélangés dans la lumière blanche sans perdre leur spécificité, sont, par le prisme, simplement « séparés et dispersés suivant leurs inégales réfractions sous une forme oblongue dans une succession ordonnée allant du rouge vif le moins réfracté au violet le plus réfracté ».
Dans ce texte de 1672, comme dans l'Optique de 1704, Newton introduit l'idée d'un nombre indéfini de lumières homogènes où prédomine sept tonalités principales. Chaque rayon se trouve caractérisé, non pas par une impression subjective, mais par un degré de réfrangibilité de telle sorte qu'il est possible, sur la base de la mesure de ces degrés de réfrangibilité de construire une échelle quantitative des rayons colorés, c'est-à-dire des rayons qui engendrent telle ou telle sensation de couleur, et ainsi, de parvenir à la mathématisation des phénomènes de la couleur (arc-en-ciel, lames minces). Newton peut ainsi expliquer pour quelles raisons telle ou telle couleur apparaît en tel ou tel endroit dans le ciel, s'il s'agit par exemple d'un arc-en-ciel, en revanche il ne dit pas dans ce cadre théorique en quoi dans sa nature le rouge diffère du bleu, ni a fortiori comment s'effectue la perception des couleurs.
À l'issue de ce travail expérimental se trouve établi, non pas comme le laisse entendre Newton l'hétérogénéité de la lumière blanche mais le fait de la multiplicité des rayons différemment réfrangibles tel qu'à chaque degré de réfrangibilité corresponde une couleur donnée ; ou de façon plus concise, le fait de la multiplicité des lumières homogènes ou monochromatiques. Quelle est la nature de ce fait de la multiplicité des lumières homogènes ?
Ce fait, à partir duquel tous les phénomènes de la lumière et des couleurs vont être maintenant interprétés, présente un intérêt épistémologique tout particulier. D'une part, même s'il peut apparaître au physicien moderne comme une donnée quasi immédiate de l'expérience, ce n'est là qu'une simple impression produite par trois siècles d'utilisation et de confirmations successives dissimulant en réalité son origine hypothétique et conjecturale (voir supra) ; d'autre part, ce fait n'est établi qu'avec l'aide de l'Experimentum crucis qui, pour sa part, n'est construit que dans la perspective de fournir un moyen indirect pour saisir cette réalité non immédiatement perçue que constitue la multiplicité des lumières homogènes.
Ainsi, la démarche, par laquelle ce fait qui n'a pas d'existence au niveau des objets de la réalité immédiate est établi ou pour mieux dire construit, relève pour sa plus grande part du raisonnement, même si le recours à l'expérience est fondamental. A la réalité immédiatement perçue que s'efforçaient de décrire les théories traditionnelles, Newton a substitué un fait général qui va devenir le véritable objet dont traitera la science de la genèse des phénomènes de la couleur, son véritable point d'enracinement.
Nous avons souligné, plus haut, que ce qui se trouvait établi par Newton n'était pas l'hétérogénéité de la lumière blanche. Il importe de revenir brièvement sur ce point. La démonstration newtonienne associée à la mise en place de l'Experimentum crucis peut paraître concluante et pourtant, en aucun cas, elle n'est réellement décisive car elle repose sur l'idée que le résultat établi sur chaque rayon pris séparément est encore valable lorsque tous les rayons se trouvent mélangés. Pourquoi la lumière blanche ne serait-elle pas modifiée lors de la première réfraction de telle sorte qu'elle acquiert de nouvelles propriétés inaltérables aux réfractions suivantes ? ou bien de façon plus précise : pourquoi la première réfraction n'engendrerait-elle pas la multiplicité de lumières monochromatiques à partir d'une lumière blanche homogène ? Il est clair qu'une telle interrogation est essentiellement guidée par des conceptions homogènes de la lumière blanche qui, par conséquent, ne semblent pas dans cette perspective a priori incompatibles avec les résultats de l'Experimentum crucis. Aussi les premières réactions anti-newtoniennes des contemporains viendront-elles principalement des tenants de l'optique des milieux qui perçurent facilement l'insuffisance de la démonstration de Newton ; mais c'est seulement au XIXe siècle que Georges Gouy, aidé d'un outillage mathématique perfectionné put conduire jusqu'à sa conclusion la critique de l'Experimentum crucis en répondant clairement aux questions posées ci-dessus. En revanche, l'interprétation newtonienne de l'Experimentum crucis se comprend parfaitement si l'on se place d'emblée comme Newton dans le cadre d'une approche corpusculaire de la lumière où le prisme n'a pour rôle que de séparer les divers corpuscules constituant la lumière incidente parvenant sur sa surface. Ainsi l'Experimentum crucis n'est un Experimentum crucis qu'au prix de l'introduction d'une hypothèse supplémentaire, non explicitée clairement par Newton, relative à la structure corpusculaire de la lumière. Une autre interprétation est possible en terme de théorie ondulatoire de la lumière. Cette dernière a donc été formulée par Georges Gouy en 1886 dans un Mémoire intitulé « sur le mouvement lumineux », publié dans le Journal de physique théorique (p. 354-362) puis explicité avec soin par R.W. Wood dans son Optique physique de 1913 ainsi que par P. Fleury et J.P. Mathieu en 1970 dans le Tome V de leur Physique générale et expérimentale :
« [...] Chaque centre lumineux dans un corps incandescent doit émettre des trains d'onde finis. On s'est jadis demandé si l'on devait considérer la lumière blanche comme formée d'un mélange de tout ces trains d'onde ou comme le résultat de leur composition. On sait aujourd'hui que la question est illusoire, en ce sens qu'on ne connaît pas d'expérience permettant de choisir entre les deux conceptions. Dans la première, les trains d'onde existent dans le faisceau de lumière blanche. Le spectroscope les sépare et ils sont capables d'interférer... Du second point de vue, les diverses vibrations émises par la source se composent en un mouvement résultant qui se propage sous la forme d'un train d'onde très court, ne présentant même plus aucun caractère de périodicité, et constituant une pulsation d'énergie rayonnante ».
Il en résulte que les thèses newtoniennes ne représentent qu'une conception possible de la lumière blanche, mais une conception privilégiée, en ce sens qu'elle permet de simplifier considérablement l'étude des phénomènes optiques. Il n'en reste pas moins que les travaux de Gouy impriment un caractère fondamentalement méthodologique au choix de l'interprétation newtonienne.
Cette discussion, associée finalement à la conception physique que l'on se fait de la lumière blanche nous conduit tout naturellement à revenir sur le débat onde/corpuscule.
Ondes et corpuscules
Très rapidement au cours du XVIIe siècle, deux grands courants se dessinent parmi les savants suivant que ceux-ci considèrent que la lumière est un corps ou bien le mouvement d'un corps sans transport de matière. Dans le premier cas, il s'agit des théories dites de l'émission dont le principal représentant est Newton et, dans le second cas, des théories dites des milieux dont le principal représentant est Christiaan Huygens.
Isaac Newton et les théories de l'émission
Il apparaît nettement, tant par la lecture des textes publiés que par celle des manuscrits, que la pensée newtonienne, bien que très prudente, est gouvernée par une conception corpusculaire de la lumière ; c'est d'ailleurs à ce prix que l'experimentum crucis peut être un experimentum crucis. Il faut en effet, comme nous l'avons vu, introduire l'hypothèse corpusculaire pour pouvoir conclure de la multiplicité des lumières homogènes après le premier prisme à la thèse de l'hétérogénéité de la lumière blanche.
Les sources lumineuses, suivant Newton, par exemple le soleil, émettent des corpuscules qui se propagent à travers le vide jusqu'à nos yeux. Une telle théorie permet d'expliquer assez facilement, comme Newton le montre dans la section XIV du Livre I des Philosophiæ Naturalis Principia Mathématicien (Londres, 1687), la propagation rectiligne, la réflexion, la réfraction et la vitesse finie de la lumière. En revanche elle reste pour l'essentiel inopérante dans le cas des autres phénomènes, en particulier lorsqu'interviennent des aspects périodiques. Ainsi, dans le cas des lames minces, Newton imagine sa théorie des Accès qui réintroduit d'une certaine façon la considération d'un milieu interagissant avec les rayons ou, dans un esprit plus strictement corpusculariste, de nouvelles propriétés intrinsèques du rayon comme en témoigne, par exemple, son interprétation du phénomène de la réflexion partielle dont le rôle est si important, aujourd'hui, dans l'étude des phénomènes d'interférence. En effet, comment Newton peut-il interpréter le fait que des rayons soient ou bien transmis ou bien réfléchis en rencontrant une surface réfringente ? La réponse est donnée dans la Proposition XIII de la partie III du livre II de l'Optique (traduction Jean-Paul Marat) : « La raison pour laquelle les surfaces de tous les corps transparents épais réfléchissent une partie des rayons incidents et réfractent le reste, est qu'au moment de leur incidence, ces rayons se trouvent, les uns dans des Accès du facile réflexion, les autres dans des Accès de facile transmission [...] la lumière a ses Accès de facile réflexion et de facile transmission, avant de tomber sur les corps transparents : et il est à croire qu'elle les a dès qu'elle commence à émaner des corps lumineux, et qu'elle les retient durant tout son trajet ».
Ainsi, d'après Newton les Accès appartiennent probablement (« il est à croire [...] ») aux divers rayons dès leur origine de telle sorte qu'en rencontrant une surface réfringente ceux qui sont dans un Accès de facile réflexion sont réfléchis (réflexion partielle), et ceux qui sont dans un Accès de facile transmission, transmis, de façon à donner ensuite naissance, par exemples, aux anneaux colorés. La surface réfringente a donc pour rôle, non pas d'engendrer l'Accès de facile transmission, mais de sélectionner parmi l'ensemble des rayons l'atteignant ceux qui sont dans un état de facile transmission. De ce point de vue, la surface ne joue qu'un rôle d'analyseur (au même titre que le prisme vis-à-vis de la lumière blanche), chaque rayon possédant originellement tel ou tel état. Nous retrouvons dans cette saisie du phénomène le mode caractéristique d'appréhension de l'atomiste Newton.
L'interprétation du phénomène de la diffraction que Newton appelle de façon significative phénomène d'inflexion est de même extrêmement délicate dans le cadre des théories de l'émission. En effet, contrairement à Grimaldi, mais aussi à Robert Hooke qui vient de réaliser des expériences sur cette question au cours des réunions de la Royal Society, Newton n'introduit pas dans ce contexte expérimental l'idée d'un mode spécifique de propagation de la lumière. Pour lui, ces phénomènes résultent simplement d'une multiplicité de réfractions se produisant à proximité de la partie extrême de l'obstacle, soit en raison de la présence d'un milieu éthéré de densité variable entourant et pénétrant l'extrémité de l'objet placé sur le trajet de la lumière (Lettre de Newton à Oldenburg du 7 décembre 1675 ; Correspondence, I, 362 et sq.) soit, comme dans les Principia, en faisant intervenir l'action attractive des corps frôlés sur les particules constituant les rayons : « Et les rayons en passant près des angles des corps opaques ou transparents tels que l'extrémité d'une lame de couteau, d'une pièce de monnaie, d'un morceau de verre, ou de pierre, etc... s'infléchissent autour de ces corps comme s'ils en étaient attirés : c'est ce qu'a découvert Grimaldi il y a longtemps en faisant entrer un rayon de lumière par un trou dans une chambre obscure, et ce que j'ai vérifié » (Livre I, section XIV).
Newton réalise au cours des années 1690 d'intéressantes observations, sans signaler néanmoins la présence de franges à l'intérieur de l'ombre, lorsqu'il présente ses résultats sur la diffraction-inflexion dans la troisième partie de l'Optique.
Christiaan Huygens et les conceptions ondulatoires
À l'inverse de la théorie newtonienne, celle de Huygens s'inscrit pleinement dans le cadre des théories des milieux. Cependant, par son approche très subtile du mode de propagation de la lumière, Huygens renouvelle l'ancien concept géométrique de rayon et dépasse très largement les travaux antérieurs de Thomas Hobbes (1588-1679), Robert Hooke (1635-1703), Isaac Barrow (1630-1677) ou Ignace-Gaston Pardies (1636-1673). En effet, dans le Traité de la lumière (Leyde, 1690), dont les premières rédactions datent de 1677-1678, Huygens compare la lumière au son et, en conséquence, assimile la lumière à la propagation, dans le temps, d'une vibration longitudinale, c'est-à-dire parallèle au rayon, à travers un milieu ou éther matériel. L'analyse du mouvement se produisant dans la matière éthérée conduit Huygens à considérer que tous les points d'une onde — il ne fait pas d'hypothèse sur sa périodicité — peuvent être le siège d'un nouvel ébranlement. Leur enveloppe constitue alors une nouvelle surface d'onde susceptible de se propager indéfiniment : « Il y a encore à considérer dans l'émanation de ces ondes, que chaque particule de la matière, dans laquelle une onde s'étend, ne doit pas communiquer son mouvement seulement à la particule prochaine, qui est dans la ligne droite tirée du point lumineux ; mais qu'elle en donne aussi nécessairement à toutes les autres qui la touchent, et qui s'opposent à son mouvement » (Traité de la lumière, p. 17).
Huygens dégage ainsi le cadre général du célèbre « Principe de Huygens-Fresnel » ou principe de l'enveloppe des ondes élémentaires dont le rôle est si important dans la construction de l'optique de Fresnel et dans la compréhension des phénomènes de diffraction au XIXe siècle, lorsque le développement de l'analyse mathématique permet enfin d'utiliser ce principe de façon pertinente. En effet le modèle proposé par Huygens rend déjà très difficile, à strictement parler, l'interprétation de la propagation rectiligne si l'on ne possède pas une conceptualisation mathématisée adéquate. Newton dans la huitième section de ses Principia intitulée « De la propagation du mouvement dans les fluides » avait déjà soulevé les difficultés liées à la diffusion du mouvement lorsque celui-ci s'effectue dans un fluide ou plus exactement lorsque le fluide sert de support à la transmission du mouvement. Le titre de la Proposition XLII est à cet égard tout à fait révélateur : « Tout mouvement propagé dans un fluide s'éloigne de la ligne droite dans des espaces immobiles ».
S'appuyant toujours sur son modèle théorique Huygens s'attache ensuite à rendre compte de la réfraction. Il est, contrairement à Newton et aux tenants des théories de l'émission, conduit à démontrer, comme Pierre Fermat que la lumière dans le cadre de sa théorie se propage plus vite dans l'air que, par exemple, dans le verre. Ces conséquences divergentes des théories de l'émission et des milieux seront mises à profit dans la première moitié du XIXe siècle pour rejeter, à la suite des expériences d'Hippolyte Fizeau (1819-1896) et de Léon Foucault (1819-1868), les théories de l'émission. En outre, dans la réfraction de Huygens et contrairement par exemple à l'approche hookienne dans la Micrographia, le front d'onde reste perpendiculaire à la direction de propagation.
Huygens consacre le chapitre V de son Traité de la lumière à étudier très longuement, avec beaucoup d'élégance, le phénomène de la double réfraction du spath d'Islande. À cette fin il suppose que deux ondes se propagent avec des vitesses différentes à l'intérieur du spath : l'une ordinaire ou sphérique, l'autre extraordinaire ou elliptique (ellipsoïde de révolution). Il montre alors que la répartition régulière des parties constitutives du spath (réseau rhomboédrique) permet le dédoublement de la vitesse à l'intérieur du cristal et la réfraction des deux ondes conformément aux observations d'Erasme Bartholin.
A la fin de son analyse de la biréfringence Huygens remarque, sans en donner d'interprétation, que les deux rayons issus d'un premier spath n'ont plus relativement à un second les mêmes comportements, et que, suivant les orientations respectives des deux cristaux, le nombre des rayons émergents comme leurs intensités varient.
Quoique Newton ne traite pas du spath d'Islande dans les grandes parties de son Optique, il y consacre cependant, dans le Troisième livre, les Questions 25 et 26. L'opposition existant entre le style de l'optique newtonienne et le style de l'optique hugonienne est saisissante. Newton conclut en effet : « Chaque rayon de lumière a donc deux côtés opposés doués d'une propriété essentielle, d'où dépend la réfraction extraordinaire, et deux autres côtés qui n'ont pas cette propriété [...] » (Optique, traduction de Jean-Paul Marat). Ainsi, de la réflexion partielle à la double réfraction, le rayon lumineux acquiert progressivement de nouvelles propriétés et devient bien complexe.
C'est Etienne-Louis Malus (1775-1812) qui introduit au tout début du XIXe siècle, dans le cadre de sa théorie corpusculariste, le terme de polarisation. Cette théorie, développée quelques années plus tard par Jean-Baptiste Biot (1774-1862), est rapidement supplantée par l'optique ondulatoire fresnelienne reposant sur l'hypothèse de la transversalité des vibrations lumineuses.
Si Huygens a magnifiquement traité de la double réfraction du spath d'Islande, il a, en revanche, laissé de côté l'analyse des phénomènes de la diffraction et des lames minces. Il est remarquable de constater que ces phénomènes, qui seront centraux dans l'élaboration des théories ondulatoires de la lumière au XIXe siècle sont absents des écrits de Huygens. Il n'a, tout simplement, dans le cadre de sa théorie, pu en donner une analyse cohérente et pleinement satisfaisante. Il a donc préféré ne rien présenter à la postérité.
Le dépassement du double aspect de la lumière
Au XVIIIe siècle newtonien et corpusculariste succède, après les expériences de Fizeau et Foucault et les splendides travaux théoriques de Augustin Fresnel (17881827), un XIXe siècle ondulatoire. Celui-ci, tout d'abord marqué par l'hypothétique éther de Fresnel aux propriétés mécaniques difficilement conciliables, est ensuite investi, à partir des années 1870, par la théorie électromagnétique de James Clerk Maxwell (18311879).
Maxwell conclut, sur la base de ses fameuses Equations, que dans le cas d'un signal électromagnétique variable le milieu diélectrique peut être le siège d'ondes transversales dont la vitesse de propagation est similaire à celle de la lumière. Ainsi se trouvent rapprochés l'éther lumineux de Fresnel et l'éther des actions électromagnétiques. Cette intégration de la lumière dans les phénomènes électromagnétiques oriente alors Maxwell vers le délicat problème du mouvement relatif de la terre et de l'éther. Ce problème culmine avec la mise en place en 1887 de la célèbre expérience de Michelson et Morley, expérience qui conduit finalement à conclure qu'il est impossible, au moyen d'une expérience physique quelle qu'elle soit, de détecter le mouvement de la terre par rapport à l'éther. La voie est ouverte pour les théories einsteiniennes.
En 1905, Albert Einstein (18791955) publie simultanément son Mémoire sur l'électrodynamique des corps en mouvement qui pose les bases de la théorie de la relativité et celui sur l'effet photoélectrique qui introduit, en fait, l'hypothèse des quanta de lumière. Ce dernier Mémoire remet donc en question la nature strictement ondulatoire et continue de la lumière défendue au XIXe siècle.
C'est cette « double nature » de la lumière que Louis de Broglie (1892-1987) tente de comprendre et d'interpréter dans ses Recherches sur la théorie des quanta de 1924. Il émet dans sa thèse l'hypothèse que la dualité onde-corpuscule est une propriété générale des objets microscopiques et que la matière présente, comme la lumière, un double aspect ondulatoire et corpusculaire. Cette hypothèse se trouvera très vite confirmée par l'observation de phénomènes de diffraction avec des électrons (Expériences de Davisson et Germer en 1927, de G.P. Thomson en 1928 et de Rupp la même année).
En généralisant la notion d'ondes de matière, Erwin Schrödinger (1887-1961) parvient à l'équation bien connue de propagation de la fonction d'onde représentant un système quantique donné, associé au concept d'amplitude de probabilité qui donne son assise à celui de photon, ni onde ni particule. Finalement, l'élégant formalisme de la théorie quantique est mis en place autour des années 19251930 par Paul Dirac (19021984), Niels Bohr (18851962) et Werner Heisenberg (19011976). Il fixe le cadre à l'intérieur duquel les phénomènes lumineux sont aujourd'hui étudiés.
Références
- Blay (M.), La conceptualisation newtonienne des phénomènes de la couleur, Paris, Vrin 1983.
- Crombie (A.C)., Robert Grosseteste and the Origins of Experimental Science, 1100-1700, Oxford, Clarendon Press, 1971 (première éd., 1953).
- Hall (A.R.), All was light. An Introduction to Newton's Optick, Oxford, Clarendon Press, 1993.
- Maitte (B.), La lumière, Paris, Le Seuil, 1981.
- Ronchi (V.), Histoire de la lumière, Paris A. Colin, 1956.
- Rashed (R.), Géométrie et Dioptrique au Xe siècle. Ibn Sahl, Al-Qûhi et Ibn Al-Haytham, Paris, Les Belles lettres, 1993.
- Sabra (A.I.), Theories of Light from Descartes to Newton, Cambridge University Press, 1981 (première éd. 1967).
- Simon (G.), Le regard, l'être et l'apparence dans l'optique de l'Antiquité, Paris, Le Seuil, 1988.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

LE MONDE QUANTIQUE AU TRAVAIL : L'OPTOÉLECTRONIQUE

 

 

 

 

 

 

 

Transcription* de la 590e conférence de l'Université de tous les savoirs prononcée le 12 juillet 2005

Le monde quantique au quotidien : l'optoélectronique

Par Emmanuel Rosencher

Cet exposé propose de vous montrer comment la mécanique quantique, domaine abstrait, sophistiqué, voire ésotérique pour certains, est à la base de révolutions technologiques qui ont transformé notre quotidien. Nous montrerons tout d'abord comment la physique quantique est née de l'étude d'un composant optoélectronique (définissons l'optoélectronique comme étant l'étude de l'interaction qui a lieu entre la lumière et les électrons dans les solides). Nous montrerons ensuite comment la mécanique quantique a rendu la monnaie de sa pièce à l'optoélectronique en lui fournissant des briques de bases conceptuelles extrêmement puissantes, à partir desquelles un certains nombres de composants comme les détecteurs quantiques ou les émetteurs de lumière ont été réalisés. Nous présenterons enfin les défis actuels que l'optoélectronique tente de relever.

Là où tout commence : l'effet photoélectrique

Tout commence en 1887. Rudolph Hertz, célèbre pour la découverte des ondes Hertziennes, va découvrir l'effet photoélectrique, aidé de son assistant Philipp von Lenard. Cet effet va révolutionner notre compréhension de la lumière comme de la matière, bref, notre vision du monde. L'expérience qu'ils ont réalisée était pourtant on ne peut plus simple : deux plaques métalliques sont placées dans le vide. On applique à ces plaques une différence de potentiel. Le courant qui circule dans le système est mesuré. Comme les plaques métalliques sont placées dans le vide, les électrons n'ont pas de support pour passer d'une électrode à l'autre, et donc aucun courant ne peut circuler dans le système. Hertz décide alors d'illuminer une des plaques avec de la lumière rouge, il s'aperçoit que rien ne change. Par le hasard de l'expérience, il éclaire alors la plaque avec de la lumière bleue, et s'aperçoit cette fois qu'un courant commence à circuler. Il est important de noter que, même avec une grande intensité de lumière rouge, aucun courant ne circule, alors qu'une faible lumière bleue fait circuler le courant. Les deux savants concluent leur expérience par la phrase suivante, qui deviendra une des pierres fondatrices de la physique quantique : « il semble y avoir un rapport entre l'énergie des électrons émis et la fréquence de la lumière excitatrice. »

A la même époque, un autre grand savant, Max Planck, travaille sur un sujet totalement différent, à savoir le « spectre du corps noir » ( voir Figure 1): en d'autres termes, il étudie la lumière émise par des corps chauffés. Le fer, par exemple, une fois chauffé devient rouge. A plus haute température, il vire au jaune, puis au blanc. Max Planck étudie donc le fait que tous les corps chauffés vont avoir un comportement commun : à une température donnée, ils rayonneront principalement une certaine longueur d'onde. Par exemple, notre corps à 37°C émet des ondes à 10 mm (lumière infrarouge non visible). En revanche, à 5000°C (température correspondant à la surface du soleil), le maximum se déplace, le corps émet autour de 500 nm (jaune). Cette correspondance entre la température du corps noir et la nature de la lumière émise par ce corps va littéralement rendre fou toute une génération de physiciens qui n'arrivent pas à expliquer ce phénomène. Max Planck, au début du XXème siècle, déclarera à la société allemande de physique qu'il peut rendre compte de ce comportement. Pour cela, il doit supposer que la lumière arrive en paquets d'énergie et que chaque paquet d'énergie est proportionnel à la fréquence de la lumière, c'est-à-dire que l'énergie de chaque grain de lumière est le produit de la fréquence de cette onde par une constante, ridiculement petite (environ 6.10-34 J.s). S'il est persuadé d'avoir fait une grande découverte, Max Planck n'a pour autant pas la moindre idée de ce que sont ces « quanta » d'énergie qu'il a introduits dans son calcul.

figure1

Spectre du corps noir (le fer chauffé de la photo émet des longueurs d'onde réparties sur la courbe bleue, la courbe rouge est émise par un humain qui n'a pas de fièvre)

Pendant ce temps, à la société Anglaise de physique, Lord Kelvin fait son discours inaugural, où il déclare que toute la physique est constituée, la récente théorie ondulatoire de Maxwell rendant très bien compte du comportement de la lumière. Il ne reste plus que quelques phénomènes incompris, d'un intérêt secondaire. Parmi ces phénomènes incompris figurent évidemment le spectre du corps noir, et l'effet se produisant dans la cellule photoélectrique.

Albert Einstein va réaliser le tour de force de montrer que ces deux phénomènes ont une même origine, origine qu'il baptisera la dualité onde-corpuscule. L'hypothèse révolutionnaire d'Einstein est de dire que la lumière, considérée jusqu'alors comme une onde, est également une particule. A la fois onde et particule, la lumière véhicule ainsi une quantité d'énergie bien précise.

Le raisonnement d'Einstein se comprend bien sur un diagramme d'énergie, où est représentée l'énergie des électrons en fonction de leur position ( voir Figure 2). Pour être arraché du métal, un électron doit recevoir l'énergie qui lui permet d'échapper à l'attraction du métal. Cette énergie est appelée potentiel d'ionisation. Les électrons sont donc piégés dans le métal, et il leur faut franchir ce potentiel d'ionisation pour le quitter. L'hypothèse d'Einstein consiste à dire que la lumière est constituée de particules et que chaque particule a une énergie valant h.f, où h est la constante établie par Max Planck, et f la fréquence de la lumière. Si cette énergie h.f est inférieure au potentiel d'ionisation (comme c'est le cas pour la lumière rouge), aussi puissant que soit le faisceau de lumière, nous n'arracherons pas le moindre électron au métal. En revanche, si la lumière est bleue, la longueur d'onde est plus courte, ce qui correspond à une fréquence f plus grande, donc une énergie plus grande, les électrons vont alors acquérir l'énergie suffisante pour quitter le métal et aller dans le vide. Cette théorie permet donc d'expliquer le phénomène jusqu'alors incompris observé par Hertz et Leenard.

figure2

Diagramme d'énergie d'Einstein

Einstein ne se contente pas de cette explication, il propose une expérience permettant de vérifier son hypothèse. Si on mesure l'excès d'énergie des photons (représenté DE sur la Figure 2), c'est-à-dire si on mesure l'énergie des électrons une fois qu'ils ont été arrachés par la lumière, on doit pouvoir en déduire la valeur de la constante de Planck h.

La théorie d'Einstein est accueillie à l'époque avec fort peu d'enthousiasme. La physique semblait jusqu'alors bien comprise, la lumière était une onde, et on rendait compte de l'écrasante majorité des phénomènes observés. Et Einstein vient tout bouleverser ! De nombreux scientifiques vont donc tenter de montrer que sa théorie est fausse. Notamment Millikan, qui va passer 12 années de sa vie à tester la prédiction d'Einstein. Millikan reconnaîtra finalement son erreur : son expérience montrera bien que l'énergie en excès dans les électrons est proportionnelle à la fréquence de la lumière excitatrice, et le coefficient de proportionnalité est bien la constante de Planck h.

Einstein venait d'unifier deux phénomènes qu'a priori rien n'apparentait : la lumière émise par un corps chauffé, et l'excès d'énergie d'un électron émis dans le vide. Ce lien existe, et c'est la physique quantique.

On peut donc relier la longueur d'onde de la lumière à son énergie ( voir Figure 3). Ainsi, le soleil qui rayonne principalement dans le jaune, c'est-à-dire à des longueurs d'onde d'environ 500 nm émet des photons de 2 eV (électron-volt). Le corps humain à 37°C rayonne une onde à 10 mm, ce qui correspond à des photons d'énergie 0,1eV. Rappelons qu'un électron-volt correspond à l'énergie d'un électron dans un potentiel électrique de 1V.

figure3

Correspondance entre longueur d'onde de la lumière et énergie du photon

Les briques de base

Comme nous l'avons mentionné en introduction, la physique entre alors dans un cercle vertueux : la technologie (par la cellule photoélectrique) fournit à la physique un nouveau concept fondamental, la physique quantique va en retour développer des outils conceptuels extrêmement puissants qui vont permettre le développement des composants optoélectroniques que nous allons étudier.

Les Semi-conducteurs

Avant d'entrer dans ce cercle vertueux, un concept manque encore à la physique quantique. Il va être proposé par le français Louis de Broglie en 1925. Ce dernier fait le raisonnement suivant : Einstein vient de montrer que la lumière, qui est une onde, se comporte comme une particule. Que donnerait le raisonnement inverse? Autrement dit, pourquoi la matière (les atomes, les électrons, tout objet ayant une masse) ne se comporterait-elle pas également comme une onde ? De Broglie va montrer qu'on peut associer à l'énergie d'une particule matérielle une longueur d'onde. Il montre notamment que, plus la particule a une énergie élevée, plus sa longueur d'onde est faible. La correspondance entre énergie et longueur d'onde pour la matière différera cependant de celle pour les photons, car les photons n'ont pas de masse.

Partant de cette hypothèse, Wigner, Seitz et Bloch se demandent ce que devient cette longueur d'onde lorsque l'électron est dans la matière, où il est soumis à un potentiel d'environ 5V. Leur calcul leur montre que sa longueur d'onde est alors d'environ 5 angströms (1 angström valant 10-10 mètres)... ce qui correspond à peu près à la distance entre atomes dans la matière.

figure4

Comportement d'une onde électronique dans la matière et naissance de la structure de bandes

La physique quantique va alors donner une compréhension nouvelle et profonde du comportement des électrons dans la matière. Rappelons que la matière peut souvent être représentée par un cristal, c'est-à-dire un arrangement périodique d'atomes, distant de quelques angströms. Imaginons qu'une onde électronique (c'est-à-dire un électron) essaie de traverser le cristal. Si la longueur d'onde vaut 20 angströms, elle est très grande par rapport au maillage du cristal, et elle ne va donc pas interagir avec le cristal. Cette longueur d'onde va donc pouvoir circuler, on dira qu'elle est permise, et par conséquent l'énergie qui lui correspond est elle aussi permise (onde rouge sur la Figure 4). Il y aura un très grand nombre de longueur d'ondes permises, auxquelles correspondront des bandes d'énergies permises. En revanche, si la longueur d'onde de l'électron est de l'ordre de 5 angströms (onde bleue sur la Figure 4), c'est-à-dire de la distance être atomes, l'électron va alors résonner avec la structure du cristal, et l'onde ne va pas pouvoir pénétrer dans la matière. L'onde électronique est alors interdite dans la matière, et l'énergie qui lui correspond est également interdite dans la matière. Ainsi on voit apparaître, pour décrire les électrons dans la matière, une description en termes de bandes permises et de bandes interdites. Nous appellerons la bande permise de plus basse énergie (sur la figure 5) la bande de valence, et la bande permise au-dessus d'elle la bande de conduction.

A partir de cette structure de bandes, Pauli va montrer que les atomes peuplent d'abord les états de plus basse énergie. Ils vont ainsi remplir complètement la bande de valence, et laisser la bande de conduction vide. Il montre alors que dans une telle configuration les électrons ne peuvent pas conduire l'électricité.

figure5

Les électrons de la bande de valence, comme les pièces d'un jeu de taquin

Pour illustrer ses propos, comparons la matière à un jeu de taquin ( Figure 5). Rappelons que le taquin est un puzzle fait de pièces carrées et où ne manque qu'une pièce. C'est l'absence d'une pièce qui permet de déplacer les pièces présentes. Pour Pauli, une bande de valence pleine d'électrons, est comme un taquin qui n'aurait pas de trous : aucun élément ne peut bouger, car toutes les cases sont occupées. C'est pourquoi beaucoup de matériaux, notamment les semi-conducteurs (qui, comme leur nom l'indique sont de mauvais conducteurs), ne peuvent pas conduire le courant, leur bande de valence étant trop pleine. Pour conduire l'électricité, il va être nécessaire de prendre des électrons de la bande de valence, et de les envoyer dans la bande de conduction. Alors les rares électrons dans la bande de conduction auront tout l'espace nécessaire pour bouger, ils conduiront aisément le courant. De plus, ces électrons auront laissé de la place dans la bande de valence, ce qui revient, dans notre image, à enlever une pièce au taquin. Les électrons pourront alors bouger, mal, mais ils pourront bouger. Ce déplacement des électrons dans la bande de valence peut être réinterprété : on peut considérer qu'un électron se déplace pour occuper une place vacante, puis qu'un autre électron va occuper la nouvelle place vacante, et ainsi de suite... ou on peut considérer que nous sommes en présence d'un trou (une absence d'électron) qui se déplace dans le sens opposé au mouvement des électrons ! Cette interprétation nous indique alors que, dans la bande de valence, ce ne sont pas les électrons qui vont bouger, ce sont les « absences d'électrons », c'est-à-dire des trous, qui sont, de fait, de charge positive.

Wigner, Pauli et Seitz venaient de résoudre une énigme qui datait du temps de Faraday (1791-1867), où l'on avait observé des charges positives se déplaçant dans la matière sans avoir idée de ce que c'était. Il s'agit en fait des trous se déplaçant dans la bande de valence. Pour la suite, nous nous intéresserons donc aux électrons se trouvant dans la bande de conduction, et aux trous de la bande de valence.

Comment envoyer ces électrons de la bande de valence vers la bande de conduction ? En utilisant le photon ! Le photon va percuter un électron de la bande de valence et créer une paire électron-trou, c'est-à-dire qu'il va laisser un trou dans la bande de valence et placer un électron dans la bande de conduction. Il s'agit d'un phénomène d'absorption car au cours de ce processus, le photon disparaît. Il a été transformé en paire électron-trou.

Evidemment le mécanisme inverse est possible : si on arrive à créer par un autre moyen une paire électron-trou, l'électron va quitter la bande de conduction pour se recombiner avec le trou dans la bande de valence, et émettre un photon. La longueur d'onde du photon émis correspondra à l'énergie de la bande interdite ( energy gap en anglais). Il y a donc une correspondance fondamentale entre la couleur du photon émis et l'énergie de la bande interdite.

figure6

Gap d'énergie et distance inter-atomiques des principaux semi-conducteurs

La Figure 6 montre l'énergie de la bande interdite pour différents matériaux. On constate que certains matériaux se retrouvent sur la même colonne, c'est-à-dire qu'ils ont la même distance inter-atomique. C'est le cas par exemple de l'Arséniure de Gallium (GaAs) et de l'Aluminure d'Arsenic (AlAs). Etant des « jumeaux cristallographiques », il sera aisé de les mélanger, les faire croître l'un sur l'autre. En revanche, ils ont des bandes d'énergie interdite très différente. A partir de ce graphique, on peut donc conclure quel semi-conducteur conviendra à la lumière que l'on veut produire. Ainsi, la lumière rouge sera émise par le Phosphure de Gallium (GaP). Pour aller dans l'infrarouge lointain, un mélange entre CdTe et HgTe est cette fois préconisé.

Le dopage et la jonction P-N

Nous venons de présenter la première brique de l'optoélectronique, à savoir l'énergie de la bande interdite. La deuxième brique qui va nous permettre de réaliser des composants optoélectroniques va être le dopage. Comme nous l'avons dit précédemment, un semi-conducteur, si on n'y ajoute pas des électrons, conduit aussi bien qu'un bout de bois (c'est-à-dire plutôt mal !). Pour peupler la bande de valence, nous allons utiliser le dopage.

Nous nous intéresserons aux éléments des colonnes III, IV et V de la classification périodique des éléments de Mendeleïev (une partie en est représentée Figure 7). Le numéro de la colonne correspond au nombre d'électrons se trouvant sur la dernière couche électronique. Ainsi les éléments de la colonne IV, dits tétravalents, comme le Carbone et le Silicium, possèdent IV électrons sur leur dernière couche. Dans la colonne III (éléments trivalents), nous trouverons le Bore, et dans la colonne V (éléments pentavalents) se trouve le Phosphore.

figure7

Dopage de type P et dopage de type N

Regardons ce qui se passe si on introduit un élément pentavalent dans un cristal de Silicium. On peut dire que le Phosphore, tel l'adolescent dans une cour d'école, veut à tout prix ressembler aux copains. Ainsi, le Phosphore va imiter le Silicium et construire des liaisons électroniques avec 4 voisins. Il va donc laisser un électron tout seul. Cet électron va aller peupler la bande de conduction. C'est ce qu'on appelle le dopage de type N. Le Phosphore joue le rôle de Donneur d'électrons.

Le raisonnement est le même pour des éléments trivalents comme le Bore. Ce dernier va mimer le comportement du Silicium en créant 4 liaisons électroniques. Pour cela, il va emprunter un électron à la structure de Silicium, consommant ainsi un électron dans la bande de valence. Il crée donc un trou dans la bande de valence. Le dopage est dit de type P. Le Bore joue le rôle d'Accepteur d'électrons.

Le dopage n'est pas un processus aisé à réaliser. A l'heure actuelle, nous n'avons toujours pas trouvé le moyen de doper efficacement certains semi-conducteurs (c'est le cas du diamant par exemple). Pour le Silicium (Si) et l'Arséniure de Gallium (GaAs), le dopage est en revanche bien maîtrisé.

On va alors pouvoir réaliser des jonctions P-N ( Figure 8). Il s'agit en fait de juxtaposer un matériau dopé P avec un matériau dopé N. Dans la zone dopée N, le Phosphore a placé de nombreux électrons dans la bande de conduction. La zone dopée P quant à elle possède de nombreux trous dans la bande de valence. Nous sommes ainsi en présence délectrons et de trous qui se « regardent en chiens de faïence ». Ils vont donc se recombiner. Ainsi, à l'interface, les paires électrons trous vont disparaître, et laisser seules des charges négatives dans la zone dopée P, et des charges positives dans la zone dopée N. Ces charges fixes (qui correspondant en fait aux atomes dopants ionisés) vont créer un champ électrique. Cette jonction P-N sera au cSur de très nombreux composants optoélectroniques.

figure8

Jonction P-N: les électrons de la zone N se recombinent avec les trous de la zone P, laissant des charges nues dans une zone baptisée zone de charge d'espace. Les charges fixes induisent un champ électrique.

Le Puits Quantique

Dernière brique de l'optoélectronique que nous présenterons : le puits quantique. Ce dernier peut être considéré comme le fruit du progrès technologique. Dans les années 70-80, les ingénieurs étudient l'Ultra-Vide, c'est-à-dire les gaz à très basse pression (10-13 atmosphère). Comme il s'agit d'un milieu extrêmement pur, bien vite on se rend compte, que cela reproduit les conditions primordiales dans lesquelles les matériaux ont été créés. Dans un tel milieu, on va alors pouvoir « jouer au bon dieu » et empiler des couches d'atomes, créer des structures artificielles qui n'existent pas dans la nature.

Typiquement, il va être possible de réaliser des sandwichs de matériaux, où par exemple de l'Arséniure de Gallium (GaAs) serait pris entre deux tranches d'un matériau qui lui ressemble, AlGaAs (nous avons vu précédemment que AlAs et GaAs sont miscibles). Sur la photo ( Figure 9), issue d'un microscope électronique nous permettant d'observer les atomes, on voit que ces matériaux n'ont aucun problème à croître l'un sur l'autre. La couche de GaAs ne mesure que 20 angströms.

figure9

Puits quantique. En haut, sa composition. Au milieu une photo au microscope électronique d'une telle structure. En bas, diagramme d'énergie du puits quantique, la forme des oscillations de l'électron a également été représentée

Examinons le comportement de l'électron dans un tel milieu. Le GaAs a plus tendance à attirer les électrons que AlGaAs. L'électron se trouve piégé dans un puits de potentiel. C'est alors qu'intervient la mécanique quantique, réinterprétant le puits de potentiel en « puits quantique ». L'électron est une onde, une onde prisonnière entre deux murs (les barrières de potentiel formées par l' AlGaAs). L'électron ne va avoir que certains modes d'oscillation autorisés, comme l'air dans un tuyau d'orgue qui ne va émettre que des sons de hauteur bien définie.

Techniquement, il nous est possible de créer à peu près n'importe quel type de potentiel, puisqu'on est capable de contrôler l'empilement des atomes. Par exemple, plus on élargit le puits quantique, plus il y a de modes d'oscillation possibles pour l'électron, et plus il y a de niveaux d'énergies accessibles à l'électron. On peut ainsi synthétiser la répartition de niveau d'énergies que l'on souhaite.

Nous avons à présent un bon nombre d'outils de base que nous a fournis la mécanique quantique : la structure de bandes, le dopage et la jonction P-N qui en découle, et pour finir, le puits quantique. Nous allons à présent voir comment ces concepts entrent en jeu dans les composants optoélectroniques.

La détection quantique

Le principe de la photo-détection quantique (utilisé dans tous les appareils photo numérique) est extrêmement simple : il s'agit, à l'aide d'un photon, de faire transiter l'électron entre un niveau de base, où il ne conduit pas l'électricité, et un niveau excité où il va la conduire. Le semi-conducteur pur peut par exemple faire office de photo-détecteur quantique ( Figure 10): à l'état de base, il ne conduit pas le courant, mais un photon peut créer, par effet photoélectrique, une paire électron-trou et placer un électron dans la bande de conduction, permettant le transport du courant.

figure10

Deux mécanismes de détection quantique. A gauche, on utilise la structure de bande d'un semi-conducteur. A droite, un puits quantique.

Un puits quantique peut également réaliser cette fonction ( Figure 10): les électrons se trouvent piégés dans le puits quantiques, car la barrière d'AlGaAs les empêche de sortir, mais par absorption d'un photon, les électrons vont avoir l'énergie leur permettant de sortir du piège et donc de conduire le courant.

L'effet Photovoltaïque

Le détecteur quantique le plus répandu est la cellule photovoltaïque. Elle est constituée d'une jonction P-N. Imaginons que des photons éclairent la structure. Dans la zone ionisée (appelée zone de charge d'espace), ils vont alors créer des paires électron-trou. Mais cette région possédant un champ électrique du fait des charges fixes, les électrons vont être attirés par le Phosphore, les trous par le Bore, ce qui va générer un courant électrique.

figure11

Cellule photovoltaïque. En haut, la jonction P-N reçoit des photons qui créent des paires électron-trou. En bas, diagramme d'énergie montrant les électrons de la bande de conduction tombant dans la zone N, et les trous de la bande de valence remontant dans la zone P.

On peut représenter ce mécanisme sur un diagramme d'énergie ( Figure 11). Le champ électrique présent au niveau de la jonction P-N provoque une courbure de la bande de valence et de la bande de conduction. Le photon va créer une paire électron-trou. L'électron va glisser le long de la pente de la bande de conduction, et se retrouver dans la zone dopée N, tandis que le trou, tel une bulle dans un verre de champagne, va remonter la bande de valence et se retrouver dans la zone dopée P.

Les caméras CCD

Techniquement, il existe des technologies pour synthétiser ces minuscules détecteurs par millions en une seule fois. Ces détecteurs ont changé notre vie quotidienne. En effet, au cSur de tous les appareils photo et caméscopes numériques se trouve une matrice CCD ( charge coupled devices). Il ne s'agit pas exactement de jonctions P-N, mais d'une myriade de transistors MOS. Néanmoins les concepts physiques mis en jeu sont tout à fait analogues. Il s'agit d'une couche semi-conductrice de Silicium séparée d'une couche métallique par une couche isolante d'oxyde. Lorsqu'un photon arrive dans la zone courbée du diagramme de bande (c'est là encore, la zone de charge d'espace), une paire électron-trou est créée, les électrons vont s'accumuler à l'interface entre le semi-conducteur et l'isolant, il vont alors pouvoir être « évacués » par les transistors qui vont récupérer les « tas d'électrons » et se les donner, comme des pompiers se passant des bacs d'eau (d'où leur nom). Les matrices CCD actuelles ont des caractéristiques vertigineuses, contenant aisément 10 millions de pixels mesurant chacun 6 mm x 6 mm.

figure12

Matrice CCD. A gauche, diagramme d'énergie d'un transistor MOS (Métal Oxide Silicium). A droite, photo d'une matrice CCD

Les détecteurs infrarouges

Un deuxième type de détecteurs très importants sont les détecteurs infrarouge, notamment ceux détectant les longueurs d'onde comprises entre 3 et 5 mm, et entre 8 et 12 mm. Comme nous l'avons mentionné au début, le corps humain à 37°C rayonne énormément de lumière, sur toute une gamme de longueurs d'onde (représentée en bleu sur la Figure 13), centrée autour de 10 mm. Mais l'atmosphère ne laisse pas passer toutes les longueurs d'onde (la courbe rouge représente la transmission de l'atmosphère). Et justement entre 3 et 5 mm, et entre 8 et 12 mm, elle a une « fenêtre de transparence ». En particulier, à plus haute altitude, un avion peut voir à plusieurs centaines de kilomètres dans la bande 8-12 mm. Un autre intérêt de détecter cette gamme de longueur d'onde est qu'elle correspond à l'absorption de certains explosifs qui seraient alors détectables.

figure13

Spectre de transmission de l'atmosphère (courbe rouge), et spectre d'émission du corps humain, c'est-à-dire d'un corps noir à 37°C (courbe bleue)

Comment réaliser ces détecteurs autour de 5 et de 10 mm (c'est-à-dire ayant un gap d'énergie de 0,1 à 0,2 eV)? La Figure 6 nous indique que le couple CdTe (Tellure de Mercure) - HgTe (Tellure de Cadmium) est un bon candidat. Notons au passage que la France, grâce notamment aux laboratoires du CEA et de l'ONERA) est leader mondial dans ce domaine. Avec de tels détecteurs, il devient possible de voir des avions furtifs, indétectables par radar. Des applications existent aussi dans le domaine médical, où ces capteurs permettent de déceler certaines variations locales de température sur une simple image. Il est également possible de détecter le niveau de pétrole à l'intérieur d'un conteneur, l'inertie thermique du pétrole différant de celle de l'air.

figure14

Exemples d'images prises par des détecteurs infrarouges (source : www.x20.org)

Les cellules solaires

Dernier type de détecteur que nous examinerons : les cellules solaires, qui transforment la lumière en électricité. Le matériau roi (parce que le moins cher) dans ce domaine est le Silicium. Malheureusement son rendement quantique n'est pas bon (15%), c'est-à-dire que le Silicium absorbe très bien le rayonnement à 1 eV, tandis que le soleil émet essentiellement entre 2 à 3 eV. Des recherches sont actuellement menées afin de développer des matériaux absorbant plus efficacement dans ces gammes d'énergie. Ces recherches sont extrêmement importantes pour les nouvelles sources d'énergie.

Les émetteurs de lumière

Diodes électroluminescentes

On se rappelle qu'en se recombinant, les paires électron-trous créent un photon. Réaliser un émetteur de lumière est donc possible à partir d'un puits quantique ( Figure 15). Ce dernier confine les électrons. Prenons, comme précédemment, le cas d'un puits quantique de GaAs « sandwiché » entre deux domaines d'AlGaAs. Cette fois, nous dopons N l'AlGaAs se trouvant d'un côté du puits, et P l'AlGaAs se trouvant de l'autre côté. Si on fait passer du courant dans cette structure, les électrons de la zone dopée N vont tomber dans le puits quantique, les trous de la zone dopée P vont monter dans le puits de la zone de valence. Une fois dans le puits quantique, électrons et trous vont se recombiner et émettre un photon. Ce composant est appelé Diode Electroluminescente (LED). Ce n'est ni plus ni moins qu'un photo-détecteur dans lequel on a forcé le courant à passer.

figure15

Diagramme d'énergie d'une diode électroluminescente. Trous de la zone P et électrons de la zone N vont être piégés dans le puits quantique et se recombiner en émettant de la lumière

Les LED remplissent, elles aussi notre quotidien. Elles ont un énorme avantage sur d'autres type d'éclairage : le processus de création de photon d'une LED est extrêmement efficace. En effet, dans une LED chaque électron donne un photon. Ainsi avec un courant d'un ampère, on obtient une puissance lumineuse d'environ un Watt, alors qu'une ampoule ne donnera que 0,1W pour le même courant. L'utilisation plus répandue des LED pour l'éclairage aura un impact extrêmement important pour les économies d'énergie et l'environnement. A l'heure actuelle, elles sont utilisées dans nos télécommandes, les panneaux d'affichages, les feux de signalisation.

Depuis quelques temps les diodes rouges, orange et vertes existent. La diode bleue, plus récemment apparue a connue une histoire insolite. En 1974, des ingénieurs se penchent sur le problème de la réalisation d'une telle diode, et trouvent qu'un matériau possède le gap d'énergie adéquat (3-4 eV) : le Nitrure de Gallium (GaN). Ils vont alors chercher à le doper... pendant 10 ans... sans succès. En 1984, un grand théoricien soutient, démonstration à l'appui, qu'il n'est théoriquement pas possible de doper un tel semi-conducteur. Toutes les équipes arrêtent alors progressivement leurs recherches sur le sujet... toutes, sauf une. Celle du Dr. Nakamura (qui sans doute n'avait pas lu l'article de l'éminent théoricien) de la société Japonaise Nichia. En 1993, il trouve que le Magnésium (Mg) dope le Nitrure de Gallium ! Dix ans après, sa découverte a révolutionné le marché de l'optoélectronique. En effet, avec les autres couleurs de LED, il est à présent possible de réaliser d'immenses écrans publicitaires...

Diodes lasers

Etudions à présent l'émission stimulée. Nous avons vu que le semi-conducteur pouvait absorber un photon, qu'il pouvait également en émettre s'il possède un électron dans sa bande de conduction. En 1917, Albert Einstein s'aperçoit qu'il manque un mécanisme dans cette description de l'interaction entre la lumière et la matière. Par une démarche purement théorique, il va découvrir un nouveau phénomène : l'émission stimulée ( Figure 16).

Dans l'émission stimulée, l'électron est dans l'état excité. Arrive alors un photon, qui va stimuler la désexcitation de l'électron. Cette désexcitation va naturellement s'accompagner de l'émission d'un autre photon, dit photon stimulé. Si on se trouve dans un matériau où beaucoup d'électrons sont excités, un photon va alors pouvoir donner 2, puis 4, puis 8 ... photons ! Ce phénomène est appelé l'amplification optique.

figure16

Diagramme des mécanismes d'absorption, d'émission spontanée, et d'émission stimulée

Il est alors possible de réaliser un LASER. Pour cela, il suffit de placer deux miroirs aux extrémités de l'amplificateur optique. La lumière va être amplifiée lors d'un premier passage, une partie va être émise en dehors de la cavité, l'autre partie va être réfléchie et refaire un passage dans le milieu amplificateur. La même chose se produit sur le deuxième miroir. Si après un tour on a plus d'énergie qu'au départ, nous sommes face à un phénomène d'avalanche où le nombre de photons créés va croître très rapidement. Le système se met à osciller, c'est l'oscillation LASER.

John von Neumann, l'inventeur de l'ordinateur, prévoit que les semi-conducteurs devraient permettre de réaliser des lasers. En effet en partant d'un puits quantique et en y plaçant beaucoup d'électrons et de trous, nous allons obtenir notre milieu amplificateur. En plaçant des miroirs aux extrémités du puits quantique, on obtient alors un laser ( Figure 17). Le laser à semi-conducteur sera découvert 50 ans après, et par 3 laboratoires différents (General Electric, IBM et Bell Labs) en l'espace de 10 heures !

figure17

Schéma d'une diode laser. Le milieu à gain est constitué par la jonction P-N. A ses extrémités des miroirs forment la cavité, et laissent sortir un faisceau laser unidirectionnel

L'intérêt du laser à semi-conducteur est qu'on peut concentrer toute la puissance lumineuse sur un fin pinceau lumineux. Là encore, les applications sont nombreuses : pointeurs, lecteur de CD, télécommunications... Revenons un instant sur l'importance des matériaux émettant dans le bleu (le Nitrure de Gallium). Le laser bleu va en effet avoir des retombées importantes dans le domaine des disques lasers. Le principe du lecteur de disque est d'envoyer un laser sur la surface du disque qui réfléchit (ou non) la lumière, lumière qui est alors lue par un détecteur quantique. La surface du disque est criblée de trous stockant les bits d'information. Il se trouve que la dimension minimale d'un faisceau laser correspond à la longueur d'onde qu'il émet. Ainsi la tâche d'un laser rouge est de 0,8 mm, tandis que celle d'un faisceau bleu est de 0,4 mm. On pourra donc lire 4 fois plus d'information avec un laser bleu Les diodes bleues vont donc progressivement (et rapidement) remplacer les diodes rouges des lecteurs de disques.

La lumière d'un laser va également pouvoir être envoyée à l'intérieur d'une fibre optique, qui est une structure guidant la lumière au cSur d'un guide en verre (silice) de 4 mm de diamètre. La fibre optique permet alors de transporter énormément d'information extrêmement rapidement. A l'heure actuelle, les fibres optiques permettent d'envoyer en un dixième de seconde tout le contenu de l'Encyclopedia Universalis à 3000 km ! Cette révolution technologique, fruit de l'optoélectronique, est à la base du succès d'Internet.

Les nouvelles frontières

L'optoélectronique est un des domaines scientifiques les plus effervescents à l'heure actuelle, et de nombreuses technologies encore balbutiantes semblent très prometteuses dans un proche future : il s'agit par exemple des cristaux photoniques, des oscillateurs paramétriques optiques, de la nano-optique,... Nous nous intéresserons ici aux nouvelles longueurs d'ondes ainsi qu'au domaine des attosecondes.

Les ondes Térahertz

L'optoélectronique investit aujourd'hui de nouvelles longueurs d'onde, et ne se cantonne plus au domaine du visible et de l'infrarouge. Ces ondes appartiennent à la famille des ondes électromagnétiques ( Figure 18), qui renferme également, les ondes radio, les ondes radars et micro-ondes,... Entre les ondes radio et les ondes optiques, se trouve le domaine des ondes dites Térahertz (THz), qui jusqu'à peu ne disposaient pas de sources efficaces. L'optoélectronique développe actuellement de nouvelles sources lasers dans ce domaine, resté pendant longtemps une terra incognita.

figure18

Le spectre des ondes électromagnétiques

De telles sources permettront de développer de nouveaux systèmes de sécurité, car ils permettront notamment de voir à travers les vêtements. En effet, même au travers de matériaux opaques, les photons pénètrent, sur une longueur de quelques longueurs d'onde. Dans le cas des ondes Térahertz, la longueur d'onde est de 300 mm, le photon va pénétrer un matériau opaque sur plusieurs millimètres ! L'onde Térahertz pourra ainsi traverser les vêtements. La Figure 19 montre comment un couteau caché par un journal a pu être détecté par de l'imagerie Térahertz.

figure19

Image d'une scène dans le visible (à gauche) et dans les Térahertz (à droite). La grande longueur d'onde des ondes Térahertz permet de traverser les vêtements et les journaux.

(Jefferson Lab : www.jlab.org)


Les attosecondes

Une autre percée réalisée par l'optoélectronique concerne l'étude des temps très courts. Le domaine des attosecondes est désormais accessible à l'expérience. Une attoseconde ne représente que 0,000 000 000 000 000 001 seconde (10-18 seconde)! Il y a autant d'attosecondes dans une seconde que de secondes écoulées depuis la création de l'univers.

Pour créer des impulsions aussi courtes, il faut des ondes ayant des fréquences très élevées. L'impulsion la plus courte qu'on puisse faire avec une onde consistera à ne prendre qu'une seule oscillation de l'onde. L'optoélectronique nous propose des techniques qui permettent de ne découper qu'une seule oscillation du champ électromagnétique. Si on prend de la lumière visible (de fréquence 1015 Hz), on est capable de découper une tranche de 10-15 seconde (une femtoseconde). On peut aujourd'hui aller encore plus loin, et atteindre le domaine des attosecondes.

La Figure 20 montre en fonction du temps les plus petites durées atteignables par l'électronique et par l'optoélectronique. L'électronique, ayant des fréquences limitées à quelques gigahertz (GHz) est actuellement limitée, tandis que l'optique, avec des photons aux fréquences bien plus élevées permet de sonder des durées bien plus faibles.

figure20

Evolution des plus petites durées mesurables par l'électronique et l'optoélectronique dans les 40 dernières années

L'électron met environ 150 attosecondes pour « faire le tour » de l'atome d'Hydrogène. Nous devrions donc avoir d'ici peu les techniques permettant d'observer ce mouvement ! On retrouve le cercle vertueux que nous avions évoqué au début : la science fondamentale a fourni des technologies, et ces technologies, en retour, fournissent aux sciences fondamentales des possibilités d'observer de nouveaux domaines du savoir et de la connaissance de l'univers.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

LES LIMITES DE LA CONNAISSANCE PHYSIQUE

 

 

 

 

 

 

 

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 26 juillet 2000.
La connaissance physique a-t-elle des limites ?

par Jean-Marc Lévy-Leblond
Il n’est pas indifférent que dans ce cycle de conférences sur “tous les savoirs”, la question des limites de la connaissance n’ait été posée qu’à la physique. C’est sans doute son statut implicite de science modèle qui lui vaut cet honneur. C’est aussi que, depuis le début du XXe siècle, la physique s’est à elle-même posé la question. « L’homme devrait garder son humilité devant la nature puisque la précision avec laquelle il peut l’observer rencontre des limitations intrinsèques. » Ainsi l’Encyclopædia Britannica conclut-elle son article sur le “principe d’incertitude” de Heisenberg. De fait, la révolution quantique a donné lieu à d’abondantes exégèses sur ce thème : l’impossibilité de mesurer à la fois la position et la vitesse des corpuscules signalerait une limite absolue de nos connaissances. La Nature elle-même refuserait de se laisser dévoiler, et notre science la plus avancée buterait ainsi sur des frontières infranchissables. L’impossibilité de dépasser la vitesse de la lumière, mise en évidence par Einstein, a été interprétée dans la même veine : nous ne pouvons savoir ce qui s’est passé sur le Soleil durant les huit dernières minutes, faute qu’aucun signal ne puisse nous en prévenir. Mais avec un recul de quelques décennies, cette conception résignée, traduite par des vocables qui paraissent aujourd’hui pour le moins inadaptés (relativité, incertitudes), a perdu sa pertinence. Loin d’imposer des bornes à notre savoir, ces découvertes ont au contraire permis à notre compréhension de considérables progrès, en réorientant nos conceptualisations et nos interrogations. Elles ont montré l’inadéquation au réel de nos formulations antérieures. Si certaines questions (« Que se passait-il sur le Soleil il y a deux minutes ? », « Où est l’électron et à quelle vitesse va-t-il ? ») n’admettent pas de réponses, c’est qu’elles sont dépourvues de pertinence. De même, la question « Qu’y a-t-il sur la Terre à 30 000 kilomètres au Sud de Paris ? » est-elle rendue caduque par la rotondité de la Terre et la connaissance de sa circonférence (40 000 kilomètres) ; dira-t-on pour autant que cette découverte impose une limitation à la géographie ? Les mutations théoriques de la physique du XXe siècle n’ont nullement découvert des limites intrinsèques à notre connaissance scientifique, mais, bien au contraire, lui ont ouvert de nouveaux espaces. En témoigne l’approfondissement considérable de notre maîtrise, intellectuelle mais aussi matérielle, du monde quantique. Reste que la persistance des interprétations négatives et des métaphores abusives (voir un récent article du Monde sur la « politique quantique de Jacques Chirac » !) montre bien cependant une limitation effective de nos connaissances – nous y reviendrons.
Au cours des dernières décennies, le défaitisme a plutôt cédé la place à un triomphalisme naïf, selon lequel la physique ne rencontrerait aucun obstacle et serait en mesure d’accéder à une connaissance complète de l’univers : le réel obéirait à un petit nombre de lois fondamentales, que nous serions sur le point de découvrir ; c’est le fantasme de la “théorie ultime” ou d’une “théorie du Tout”. La connaissance physique rencontrerait alors, effectivement, ses limites : finie par essence, elle toucherait bientôt à ses bornes, et s’épuiserait dans son succès. Une première réserve devant cette perspective, pourtant entretenue par des physiciens réputés, est suscitée par sa répétitivité : déjà Newton pensait avoir découvert une théorie universelle de la gravitation, capable d’expliquer l’ensemble des phénomènes physiques ; le développement de l’électromagnétisme a fait litière de cette prétention. À la fin du XIXe siècle, un aussi grand esprit que Lord Kelvin considérait que la physique était (presque) terminée – juste avant que l’on ne découvre les interactions nucléaires… Que la physique depuis plus d’un demi-siècle n’ait mis en évidence aucune nouveauté radicale, ne l’autorise en rien à proclamer la clôture du registre des forces essentielles à l’œuvre dans la nature. Mais surtout, l’autosatisfaction des physiciens fondamentalistes repose sur une vision bien pauvre de la réalité : la multiplicité des formes concrètes d’organisation de la matière, la richesse de comportement des innombrables objets de la nature, rend toujours plus large le hiatus entre les explications générales et la compréhension détaillée des faits. Un nombre croissant de phénomènes matériels, récemment découverts (la supraconductivité à haute température) ou connus depuis longtemps (la flottabilité de la glace) restent mal compris, bien que la théorie quantique abstraite qui les sous-tend soit connue. S’il y a une leçon à retenir du XXe siècle, c’est bien la faillite de tout réductionnisme naïf, selon lequel la connaissance théorique remonte nécessairement des principes à leurs manifestations. Une (très éventuelle) “théorie du Tout” ne serait certainement pas une théorie de tout… Le programme qui consiste à « remplacer du visible compliqué par de l’invisible simple » (selon les mots de Francis Perrin) ne saurait prétendre à l’universalité : l’invisible aussi peut être compliqué et, tel le vivant, ne guère se plier aux méthodes éprouvées de la physique – expérimentations dûment reproductibles, formalisation mathématique sophistiquée. C’est dire a fortiori que la physique rencontre effectivement des limites : celles des domaines où elle doit céder la place aux autres sciences. La scientificité ne peut se figer en critères généraux. Malgré ses prétentions à régir l’ensemble de nos connaissances scientifiques, ni son ancienneté, ni sa précision n’évitent à la physique de devoir reconnaître l’autonomie et la souveraineté des autres disciplines.
Mais on ne peut s’en tenir à un point de vue exclusivement épistémologique qui considèrerait la question des limites de la connaissance sous l’angle d’une confrontation abstraite entre la nature et l’esprit. Cet esprit est celui d’humains vivant en des sociétés particulières qui fournissent le cadre où se déroule le processus de connaissance, détermination qui à la fois permet et contraint la recherche de savoir. Il y eut des temps où ce conditionnement était essentiellement idéologique, comme le montre le rôle du christianisme dans la révolution scientifique du XVIIe siècle, rôle à la fois négatif (le procès de Galilée !) et positif (l’idée même du “Grand livre de la Nature”, liée au poids culturel des Écritures). Aujourd’hui prime l’économie. Le succès pratique de la physique au XXe siècle (électronique, nucléaire, etc.) tend à l’assujettir à des programmes à court terme, au détriment de projets plus spéculatifs. En même temps, l’industrie fécondée par la science reflue en son propre sein, conduisant à la “Big Science” dont le gigantisme semble atteindre ses bornes. La proportion des ressources sociales consacrées à la recherche fondamentale plafonne depuis quelques années, pour la première fois en quatre siècles de science moderne. L’abandon par les États-Unis, voici dix ans, de la construction d’un accélérateur de particules géant (SSC), signale ce changement d’ère. Les hésitations du politique devant les projets d’instrumentation scientifique à grande échelle (voir le récent conflit autour du projet de synchrotron “Soleil”) sont désormais la règle, ce qui ne saurait surprendre au vu de leurs budgets, couramment chiffrés en milliards de francs. Autant dire que la connaissance physique, dans certains de ses secteurs traditionnellement les plus prestigieux atteint les limites du socialement acceptable : la recherche du boson de Higgs, aussi excitante soit-elle pour l’esprit (de qui ?), présente un rapport coût/intérêt assez élevé pour que soit justifié son examen critique par la collectivité. Comme pour d’autres projets scientifiques, un ajournement de quelques décennies ne constituerait peut-être pas un retard majeur dans le développement de l’humanité. Après tout, d’autres entreprises humaines atteintes de gigantisme ont connu un coup d’arrêt au plus fort de leur développement. Les pyramides du Haut-empire égyptien et les cathédrales de l’Europe gothique ont laissé la place à des projets plus modestes – mais non moins féconds. Le redéploiement, historiquement bien tardif d’ailleurs, d’une physique à notre échelle (turbulence, matière molle) pointe dans cette direction. Mais on peut comprendre l’amertume des chercheurs devant les difficultés de leurs desseins désintéressés les plus ambitieux, alors que, en même temps, c’est un développement débridé que connaît la poursuite du savoir lorsqu’elle se confond avec celle du profit. Les mêmes phénomènes affectent (plus rapidement et plus vivement encore) les autres sciences, celles de la vie tout particulièrement. Mais la relative ancienneté de la physique permet d’étudier son cas avec quelque lucidité – privilège d’une ancienne aristocratie sur une jeune bourgeoisie.
Pour autant, cette domination et cette limitation de la science par l’économie et la politique n’est pas sans rapports avec ses problèmes épistémiques. Car, s’il est légitime de s’interroger sur les limites de la connaissance, encore faut-il savoir quel sens attribuer au mot “connaissance”. La polysémie de ce terme l’écartèle entre une signification réduite, celle d’un savoir factuel et particulier (la connaissance de la valeur de la vitesse de la lumière, ou la connaissance des éléments du tableau de Mendeleïev), et une signification large, celle d’une compréhension profonde et générique (la connaissance du rôle structurel de la vitesse-limite pour l’espace-temps, ou le rapport entre le tableau de Mendeleïev et la théorie quantique de l’atome). Force est de reconnaître que la physique moderne a accumulé un retard considérable quant à la maîtrise intellectuelle de ses propres découvertes. Bien des pseudo-paradoxes et des formulations insatisfaisantes continuent à la hanter, faute d’une refonte conceptuelle menée à bien ; le plus difficile à comprendre quant aux remarquables développements récents sur la notion de “non-séparabilité” quantique, par exemple, est encore leur considérable délai historique. La sophistication de nos formalismes a grandement crû beaucoup plus vite que notre capacité à en maîtriser le sens non ; déjà Maxwell s’écriait, il y a plus d’un siècle, que « nos équations semblent plus intelligentes que nous ! ». C’est là le contrecoup de la technicisation de la science, et de la division du travail qui s’y accentue, sans parler de la pression productiviste de son organisation sociale. Il est probable que ce déficit de notre connaissance – au sens le plus noble et le plus ambitieux du terme – handicape fortement les possibilités pour la science physique de dépasser certaines de ses difficultés actuelles. Mais si cette limitation a de sérieux effets au sein de la communauté scientifique, elle en a de bien plus graves encore dans la société en général. Comment développer une véritable acculturation de la science si ses praticiens eux-mêmes sont en manque aigu à cet égard ? Et, faute d’une reconquête intellectuelle, peut-on espérer que la science puisse devenir l’objet du débat démocratique dont la nécessité se fait chaque jour plus vive ? Ainsi, l’analyse des limites de la connaissance scientifique exige-t-elle d’abord la reconnaissance des limites de la science.
Bibliographie : Jean-Marc Lévy-Leblond, Aux contraires (l’exercice de la pensée et la pratique de la science), Gallimard, 1996 ; Impasciences, Bayard, 2000.

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

PHYSIQUE ET MÉCANIQUE

 

 

 

 

 

 

 

Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet  2005

Par Stéphane ROUX[1] : Physique et Mécanique

Résumé :

Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.

Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).

Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.


1 Introduction


Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.

Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.

Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :


Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.
2 Enjeu de connaissance fondamentale

La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :


Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.
2.1 Savoir imbriquer les échelles de description

Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.

Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.

Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.

2.2 Non-linéarité et hétérogénéité : Physique statistique

Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.

Pour des rhéologies plus complexes, l'essentiel reste à construire :

Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.

L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).

Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.


3 Enjeu des nouvelles techniques d'analyse

Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.

3.1 Nouvelles imageries

Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.

La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.

A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.

Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.

De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.

3.2 Que faire avec ces informations ?

Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.

Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :


Fracture de matériaux vitreux imagée par AFM
En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.


Comportement plastique de la silice amorphe
La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.


Détection de fissures et mesure de leur ténacité
Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.


Comportement de polymères micro-structurés
Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.

4 Enjeu des nouveaux matériaux

Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.

4.1 Matériaux composites et nano-matériaux

L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).

Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).

4.2 Matériaux fibreux/Milieux enchevêtrés

Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.

4.3 Couches minces : Tribologie Frottement adhésion

La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.

Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.

4.4 Couplages multiphysiques

La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.

4.5 Vieillissement

La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.

4.6 Bio-matériaux/bio-mimétisme

La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.

4.7 Mécanique biologique

Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.

5 Enjeu des nouvelles demandes/ nouveaux besoins

Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.

5.1 Essais virtuels

Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.

5.2 Sûreté des prédictions

Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.

5.3 Variabilité Fiabilité

La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.

Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.

5.4 Optimisation

Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.

5.5 Contrôle

Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.

6 Conclusions

Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.


7 Références

Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.

[1] E-mail : stephane.roux@saint-gobain.com


DOCUMENT       canal-u.tv     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google