ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

Métaux, semi-conducteurs, ou même supraconducteurs transportant un courant électrique sans aucune résistance, les matériaux présentent une diversité de propriétés électroniques remarquable, mise à profit dans de nombreuses applications qui font partie de notre quotidien. La chimie de l'état solide, en explorant les très nombreuses combinaisons entre éléments pour élaborer des structures de plus en plus complexes, nous invite à un véritable jeu de construction avec la matière, source de nouvelles découvertes. En même temps, le développement de techniques permettant d'élaborer, de structurer, et de visualiser ces matériaux à l'échelle de l'atome, ouvre d'immenses perspectives. Des lois de la mécanique quantique qui régissent le comportement d'un électron, aux propriétés d'un matériau à l'échelle macroscopique, c'est une invitation au voyage au coeur des matériaux que propose cette conférence.

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005
De l'atome au cristal : Les propriétés électroniques de la matière
Par Antoine Georges
Les ordres de grandeur entre l'atome et le matériau :
1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.

2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).

3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.

4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).
5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.

La grande diversité des matériaux :
6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)
7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.

8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.

9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.
De l'atome au matériau :

10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).
11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !

12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.
13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.

14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.
15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.
16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.
17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.

18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.
19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.
20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.
21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.

22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.
24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !

25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».
26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).
27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.

La supraconductivité :
28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...
29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.
30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.
31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.
32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.

33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !
34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.
35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.

Des matériaux aux propriétés étonnantes :
36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.
37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.
38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.
39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.

Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

 VIDEO     canal U       LIEN

 
 
 
 

LES ONDELETTES ET LA RÉVOLUTION NUMÉRIQUE

 

 

 

 

 

 

 

LES ONDELETTES ET LA RÉVOLUTION NUMÉRIQUE


"La "" révolution numérique "" change profondément notre vie, puisqu'elle modifie notre relation au monde et notre relation aux autres. Elle comprend le téléphone digital, le fax et la télévision numérique (qui sont déjà en oeuvre) mais s'inscrit aussi dans le programme beaucoup plus ambitieux de la réalité virtuelle, monde dans lequel nous pourrons entrer, nous mouvoir, mais que nous pourrons aussi transformer et modifier à notre guise. L'interactivité est l'une des conséquences de la révolution numérique. La révolution numérique a également révolutionné l'imagerie médicale, le scanner, la RMN etc. puisque toutes ces images sont aujourd'hui élaborées a l'aide de calculs mathématiques. Dans mon exposé, je commencerai par décrire l'histoire, peu connue, des débuts de la révolution numérique. Les pionniers furent des physiciens et des mathématiciens comme Léon Brillouin, Dennis Gabor John von Neumann, Claude Shannon et Norbert Wiener et leurs résultats conduisirent à la construction des premiers ordinateurs. Ensuite je montrerai que l'analyse par ondelettes est directement issue des préoccupations de ces pionniers et c'est ainsi qu'elle sera introduite. Nous décrirons les succès des ondelettes et indiquerons leurs limites dans le cadre du traitement du signal et de l'image. L'exposé se terminera par l'analyse de certaines images fournies par Hubble (explosion de la Supernova S1987A)."

Texte de la 170e conférence de l’Université de tous les savoirs donnée le 18 juin 2000.

Les ondelettes et la révolution numérique
par Yves Meyer
La mode des ondelettes
Les ondelettes sont à la mode et c'est pourquoi on m'a demandé d'en parler à l’Université de tous les savoirs.
Les ondelettes sont à la mode, car elles sont utilisées dans les « nouvelles technologies » (multimédia, nouveau standard de compression des images numériques, etc.). Nous y reviendrons.
La mode des ondelettes est un phénomène international. En ouvrant le dernier numéro (mai 2000) des Notices of the American Mathematical Society, on y découvre, à la page 571, Ingrid Daubechies, recevant un prix pour ses travaux sur les ondelettes et, à la page 570, Ronald Coifman décoré par le Président Clinton pour ses contributions à l'analyse par ondelettes.
Les ondelettes sont à la mode, comme l'ont été le chaos, les fractales, la théorie des catastrophes. Dans tous ces exemples, les recherches sont motivées par certains phénomènes complexes, que l'on observe réellement dans la nature, et qu'il s'agit d'étudier et d'analyser.
Ici nous opposons volontairement « nature » à « laboratoire ». Prigogine écrit dans Les lois du chaos : « Ce qui nous intéresse aujourd'hui, ce n'est pas nécessairement ce que nous pouvons prévoir avec certitude. La physique classique s'intéressait avant tout aux horloges, la physique d'aujourd'hui plutôt aux nuages. »
La physique dont parle Ilya Prigogine a pour finalité d'élucider les phénomènes naturels. Benoît Mandelbrot dit à peu près la même chose : « Le monde qui nous entoure est très complexe. Les instruments dont nous disposons pour le décrire sont limités ». Les formes des nuages conduiront Mandelbrot aux fractales.

Le mathématicien René Thom se propose d'explorer la morphogenèse, l'apparition de formes ou celle d'évènements imprévus à l'aide de la « théorie des catastrophes ». Certains chercheurs pensent que cette théorie est aussi utile à la linguistique qu'à l'étude de l'apparition des révoltes dans les prisons.
David Ruelle a, en un sens, été l'auteur de la « théorie du chaos déterministe » qu'il applique, avec succès, à l'étude de la turbulence, autre phénomène naturel très mal compris. La turbulence concerne l'apparition des tourbillons dans l'écoulement d'un fluide ou celle des tornades dans l'écoulement atmosphérique.
Ces mêmes remarques conviennent aux ondelettes. La « théorie des ondelettes » est elle aussi motivée par l'étude des phénomènes naturels. Les motivations concernent le signal de parole, la musique, l'image, les processus de la vision humaine, etc.
Le succès de ces théories auprès du grand public vient de ce qu'elles étudient la complexité du monde familier qui nous entoure : elles nous parlent du temps, de l'espace, de la causalité, de l'avenir effrayant et imprévisible, des formes des nuages, de la structure des langues et de tant d'autres choses qui nous touchent.
Le chercheur n'est plus retranché dans sa tour d'ivoire où, solitaire, il se penchait sur des artefacts qu'il avait lui-même créés. Certains scientifiques, comme Pierre-Gilles de Gennes, se félicitent de cette évolution de la science vers des choses immédiates, simples en apparence, mais fort complexes au demeurant.
Cependant ces quatre théories (ondelettes, chaos, etc.) n'ont pas une bonne réputation auprès de certains scientifiques , car elles parlent davantage la langue de la poésie que celle de la science. Nous retrouverons cependant cette langue de la poésie ou même de la prophétie dans le programme scientifique de Joseph Fourier, décrit plus loin. On objecte aussi que ces théories ouvrent des perspectives trop étendues et, que, le plus souvent, les schémas intellectuels qu'elles suggèrent ne dépendent pas du contexte scientifique et sont les mêmes pour toutes les disciplines, ce qui paraît suspect. En outre, beaucoup de travaux utilisant ces nouveaux schémas sont de qualité très moyenne.

David Ruelle écrit dans Hasard et Chaos : « Revenons au succès qu'a eu la théorie du chaos. Ce succès a été bénéfique pour les mathématiques où la théorie des systèmes dynamiques a profit des idées nouvelles sans dégradation de l'atmosphère de la recherche (la difficulté technique des mathématiques rend la tricherie difficile). En physique du chaos, malheureusement, le succès a été de pair avec un déclin de la production de résultats intéressants, et cela malgré les annonces triomphalistes de résultats fracassants ».
Ces remarques s'appliquent aux ondelettes. Alors le chercheur se méfie. Il se méfie des constructions intellectuelles dont le propos est de tout expliquer. Il se méfie des ondelettes. Tout cela devient fort inquiétant, il faut en savoir plus et nous sommes amenés à nous poser les quatre questions suivantes sur le statut des ondelettes :
- Les ondelettes sont-elles une invention pratique, comme celle de la roue ? (Il n'y a évidemment pas de science de la roue, mais, depuis qu'elle a été inventée, son usage n'a jamais cessé.)
- Les ondelettes sont-elles une théorie ? Si c'est le cas, à quel secteur scientifique cette théorie appartient-elle ? Comment la théorie des ondelettes peut-elle être vérifiée ou infirmée ?
- Une troisième possibilité existe. Le succès des ondelettes serait, comme celui des fractales et du chaos, dû à un malentendu. Par un effet pernicieux de la vulgarisation, un outil scientifique dont l'usage devrait être limité à un certain contexte est mis « à toutes les sauces ». Doit-on parler d'imposture ?
- En sens inverse, certains succès obtenus par les ondelettes illustreraient-ils ce que les anglo-saxons appellent la « fertilisation croisée » ?
Quelques mots d'explication : il arrive que certains secteurs de la science moderne soient fécondés par des greffes de méthodes ou de concepts provenant d'une discipline différente. Par exemple, la vitesse issue de la mécanique est devenue la « dérivée » des mathématiciens et sert aujourd'hui à étudier toute modification d'un phénomène dépendant d'un ou de plusieurs paramètres. Il n'y a ici aucune supercherie.
Ces problèmes étant posés, nous allons essayer de les résoudre en utilisant une approche historique. Les travaux contemporains sur les ondelettes sont, en fait, issus de trois programmes scientifiques. En analysant ces programmes, nous aurons la surprise d'y découvrir cette même ambition d'aborder tous les savoirs que certains critiquent dans la « théorie des ondelettes ». On y trouve les mêmes enjeux, les mêmes défis et les mêmes risques d'imposture que dans les quatre théories précédentes.
Nous remonterons d'abord à Joseph Fourier. Il a proposé un programme scientifique interdisciplinaire que nous analyserons de façon détaillée dans la section suivante.
Nous examinerons ensuite le programme de l’Institute for the Unity of Science. Aussi prophétique que celui de Fourier et encore plus ambitieux, ce programme englobait ce qui s'appelle aujourd'hui les sciences cognitives et a conduit à la conception, puis la construction, des premiers ordinateurs. La réflexion théorique a précédé la technique !
Nous en viendrons enfin au remue-ménage déclenché par Jean Morlet. En 1981, alors qu'il était encore ingénieur de recherche chez Elf-Aquitaine, il a proposé les ondelettes « temps-échelle » comme un outil permettant de mieux analyser certains signaux sismiques.
L'étude des chemins qui ont conduit, à travers l'histoire, aux travaux contemporains nous permettra de répondre enfin aux quatre questions que nous avions posées. Ce sera notre conclusion.

Le programme de Fourier
Il importe de débuter par le programme de Fourier, car la découverte des ondelettes se situe dans la logique même de ce texte visionnaire.
En 1821, il y a presque deux siècles, Joseph Fourier écrivait dans son célèbre Discours préliminaire :
« L'étude approfondie de la nature est la source la plus féconde des découvertes mathématiques. Non seulement cette étude, en offrant aux recherches un but déterminé, a l'avantage d'exclure les questions vagues et les calculs sans issue : elle est encore un moyen de former l'analyse elle-même, et d'en découvrir les éléments qu'il nous importe le plus de connaître...
Considérée sous ce point de vue, l'Analyse mathématique est aussi étendue que la nature elle-même ; elle mesure le temps, les forces, les températures... Son attribut principal est la clarté ; elle n'a point de signes pour exprimer les notions confuses. Elle rapproche les phénomènes les plus divers et découvre les analogies les plus secrètes qui les unissent.

Si la matière nous échappe, comme celle de l'air et de la lumière par son extrême ténuité, si les corps sont placés loin de nous, dans l'immensité de l'espace, si l'homme veut connaître le spectacle des cieux pour des époques successives que séparent un grand nombre de siècles, si les actions de la gravité et de la chaleur s'exercent dans l'intérieur du globe solide à des profondeurs qui seront toujours inaccessibles, l'Analyse mathématique peut encore saisir les lois de ces phénomènes. Elle nous les rend présents et mesurables, et semble être une faculté de la raison humaine destinée à suppléer à la brièveté de la vie et à l'imperfection des sens ; et, ce qui est plus remarquable encore, elle suit la même marche dans l' étude de tous les phénomènes ; elle les interprète par le même langage, comme pour attester l'unité et la simplicité du plan de l'Univers, et rendre plus manifeste cet ordre immuable qui préside à toutes les causes naturelles. »
Il faut observer que Fourier donne aux mathématiques un rôle très original. Loin de placer les mathématiques au-dessus des autres sciences, il demande, au contraire, que la recherche en mathématique soit nourrie par des problèmes scientifiques. Cette position s'oppose à celle de Richard Dedekind, reprise par Jean Dieudonné, où les mathématiques sont isolées des autres sciences et étudiées pour « l'honneur de l'esprit humain ».
Un des usages les mieux connus de l'analyse de Fourier est l'analyse et la synthèse des sons, à l'aide des sons purs. Un son est caractérisé par sa hauteur, son intensité et son timbre. L'utilisation des séries de Fourier permet de décomposer les sons en sons purs et, ce faisant, d'en déterminer et calculer les caractéristiques. Le timbre d'un son est caractérisé par l'intensité relative de ses harmoniques. Le rôle de l'analyse de Fourier est de déterminer ces harmoniques et, pour cette raison, l'analyse de Fourier est souvent appelée analyse harmonique.
Ces sons purs sont définis à l'aide d'un seul paramètre, à savoir la fréquence. Ce sont des vibrations parfaites, éternelles, sans début ni fin, émises depuis l'origine des temps et qui dureront toujours. Si l'on admet les formules de Fourier, exactes pour le mathématicien, mais contestables pour l'acousticien, alors les commencements et les interruptions des sons que l'on entend seraient dus à des interférences destructives, créant le silence à partir d'une opposition exacte de phases.
On pourrait représenter l'analyse de Fourier comme un orchestre idéal dont chaque instrumentiste jouerait indéfiniment la même note ; le silence serait alors obtenu par des sons qui s'annuleraient exactement les uns les autres et non par l'absence de son. Bien entendu, ce n'est pas ainsi qu'un orchestre joue ou cesse de jouer et la variable temporelle doit avoir un rôle beaucoup plus actif et dynamique.

Cette décomposition des sons en sons purs est donc imparfaite, car elle ne rend pas compte, dans le cas de la musique, des sons complexes produits par l'attaque de l'instrument, par la recherche de la note et, plus généralement, elle est inadaptée à l'étude des sons transitoires et des bruits divers. L'analyse de Fourier n'est réellement efficace que si elle est limitée à l'étude des phénomènes périodiques ou, plus généralement, stationnaires.
C'est pour prendre en compte d'autres phénomènes qui ne sont pas stationnaires et, plus particulièrement, des phénomènes transitoires que l'analyse de Fourier a été modifiée, améliorée et c'est ainsi que les ondelettes « temps-fréquence » sont nées.
Elles s'opposent aux ondes parce qu'elles ont, comme les notes d'une partition de musique, un début et une fin. L'analyse par ondelettes a donc pour modèle la partition musicale où la durée des notes est indiquée en même temps que leur hauteur. Mais l'analyse par ondelettes a pour ambition d'être une description exacte et non symbolique de la réalité sonore. En ce sens elle est plus proche du disque compact audio que de la partition car la synthèse qui fait partie de l'analyse par ondelettes est automatique et n'a pas besoin d'être interprétée.
Les ondelettes qui conviennent au signal audio avaient été recherchées, dès 1945, par Léon Brillouin, Dennis Gabor et John von Neumann et nous reviendrons sur ces recherches dans la section suivante. Mais ces pionniers avaient fait des choix arbitraires, basés sur des a priori contestables. Les ondelettes de Gabor ou « gaborettes » sont des signaux ondulatoires (c'est-à-dire des cosinus ou sinus), amplifiés ou atténués par une enveloppe gaussienne. On les déplace par des translations qui sont adaptées aux fréquences utilisées. Si l'on utilise seulement des fréquences entières, en progression arithmétique, alors les translations doivent nécessairement être des multiples entiers de 2Πr. Ces choix arithmétiques sont ceux des séries de Fourier. Mais Roger Ballan et Francis Law démontrèrent que ce système ne permettait pas de représenter des fonctions arbitraires. Les ondelettes que l'on utilise aujourd'hui sont plus subtiles. Elles sont nées, en 1987, des travaux de Kenneth Wilson (prix Nobel de physique pour ses travaux sur la renormalisation et les phénomènes critiques). Elles ont été perfectionnées, en 1989, par Ingrid Daubechies, Stéphane Jaffard et Jean-Lin Journé, puis par Ronald Coifman et moi-même en 1990. Signalons aussi les travaux d'Henrique Malvar. Ces ondelettes sont utilisées dans le son numérique Dolby qui aujourd'hui accompagne la plupart des films. Nous reviendrons sur ces avancées technologique.
L'analyse de Fourier n'est pas seulement utilisée pour analyser les sons, elle s'applique aussi au traitement des images, elle intervient de façon cruciale dans la cristallographie, dans la biochimie et dans des champs de la connaissance si divers et variés qu’il est impossible d'en dresser une liste exhaustive. Fourier en avait l'intuition et sa prophétie s'est réalisée.

Le programme de 1’Institute for the Unity of Science
En 1944, avant même que les ordinateurs n'existent, des mathématiciens comme John Von Neumann, Claude Shannon, Norbert Wiener, des physiciens comme Léon Brillouin, Dennis Gabor, Eugène Wigner et d'autres chercheurs ont proposé et déclenché un programme scientifique dont le but était d'étendre aux sciences cognitives (qui n'existaient pas encore sous ce nom) le formidable mouvement d'unification que les sciences physiques avaient opéré à la fin du XIXe siècle.
Il s'agit de l'unification des problématiques de la mécanique statistique, de la thermodynamique et du calcul des probabilités. De cette unification est née la notion d'entropie. Grâce au concept d'entropie, on put reformuler le second principe de la thermodynamique, à savoir la dégradation irréversible de l'énergie au cours des transformations d'un système supposé isolé. Il y a dégradation parce que l'entropie, mesurant le désordre, augmente inéluctablement.
Dès les années 45, Claude Shannon eut l'idée d'appliquer ce concept d'entropie à la théorie des communications, en identifiant l'ordre mesuré par l'entropie (en fait, l'ordre est l'entropie affectée d'un signe moins) à la quantité d'information contenue dans un message.
Une seconde découverte majeure de Shannon dans le domaine des télécommunications concerne le débit d'un canal de transmission. Un tel canal, qui préfigure les autoroutes de l'information, est défini par ce que l'on appelle une fréquence de coupure. L'existence de la fréquence de coupure vient des limitations de la technologie. La fréquence de coupure du canal auditif humain est 20 000 hertz. Shannon calcule le volume maximum d'information que l'on peut transmettre par seconde, à l'aide d'un canal dont la fréquence de coupure est fixée, en présence d'un léger bruit.
Le problème de l'encombrement des autoroutes de l'information était ainsi posé. La question suivante est l'utilisation optimale du canal. Comment faire circuler harmonieusement, sans heurt, cette information ? Comme nous l'avons indiqué dans la section précédente, les pères fondateurs (Shannon, Gabor, Von Neumann, Brillouin) abordèrent ce problème et les solutions qu'ils découvrirent sont appelées les « ondelettes de Sannon » et les « ondelettes de Gabor ». L'utilisation de ces ondelettes était limitée au traitement de la parole. C'est pourquoi ces ondelettes s'appelaient des « logons » ou éléments de discours. Ces premières solutions ont été améliorées, ce qui a conduit aux bases orthonormées d'ondelettes « temps-fréquence » déjà mentionnées.
Ces recherches étaient motivées par les problèmes posés par les communications téléphoniques. Le traitement de l'image n'était pas au programme de l’Institute for the Unity of Science.

À partir de là l'élan était donné et le programme de l'Institute for the Unity of Science consistait à relier les avancées les plus récentes effectuées dans le domaine des « sciences dures » aux progrès de l'étude de l'organisation structurale des langues naturelles et du vivant. Les sciences dures incluaient toute la physique, la mécanique statistique, l'électronique, la logique mathématique, les premiers balbutiements de la robotique et les premiers essais de compréhension de ce qui allait devenir l’étude de la complexité.
Norbert Wiener publiait, en 1950, un essai intitulé Speech, language and learning où il utilisait ses découvertes sur les rétro-actions ou feedbacks. Le 19 janvier 1951, Wiener et Rosenblith lançaient le programme Cybernique et Communications dans le cadre de l’Institute for the Unity of Science. Il s'agissait, en particulier, d'interpréter les modes de fonctionnement du langage et même du cerveau et de la pensée humaine à partir de modèles issus de la logique ou de l'intelligence artificielle. Il s'agissait de comprendre les mécanismes régulateurs de la biologie à l'aide des rétroactions découvertes et étudiées par N. Wiener.
L'Institut était une structure souple, un institut sans mur, permettant de financer et de fédérer les travaux des scientifiques qui travaillaient sur ces programmes. Les ordinateurs n'existaient pas encore et leur conception, puis leur réalisation seront directement issus des réflexions de John Von Neumann et de Norbert Wiener. Par exemple, Wiener fit le 14 février 1945 une conférence sur « le cerveau et les machines à calculer ».
L’Institute for the Unity of Science est créé en 1946 et cette date n'est pas innocente. Tout d'abord Gabor, Von Neumann et Wigner sont tous les trois nés à Budapest. Tous trois ont dû fuir la barbarie nazie.
En outre, le programme de travail de l'Institute for the Unity of Science doit beaucoup aux découvertes sur le management scientifique, issues de l'effort de guerre. Par exemple, Wiener fut conduit à l’étude des rétroactions et de la prédiction statistique dans le cadre de l'aide à la décision des servants des batteries antiaériennes. Il s'agissait de pointer la pièce d'artillerie sur la position anticipée du bombardier nazi. Ces travaux ont aidé à gagner la bataille de Londres.
Une autre conséquence de l'effort de guerre a été la recherche sur les problèmes posés par la communication et le bruit, à bord des bombardiers alliés. L'Institut pour l'Unité de la Science allait naturellement continuer cet effort et son programme de recherche dans le domaine de la communication portera sur les thèmes suivants : message, signal, information, canal de transmission, circuit, réseau, reconnaissance, bruit. Cette liste est aussi celle des problèmes où les ondelettes ont joué un rôle essentiel.

La découvert, par Jean Morlet, des ondelettes « temps-échelle »
Les ondelettes « temps-échelle » ont vu le jour grâce à un objet et un organisme qui ont joué un rôle fédérateur semblable à celui de l’Institute for the Unity of Science décrit ci-dessus. L'objet est une photocopieuse et l'organisme est un laboratoire propre du CNRS, le Centre de Physique Théorique de Marseille-Luminy, admirablement situé près des calanques. Cette photocopieuse, qui aurait dû recevoir une médaille du CNRS, était utilisée à la fois par les chercheurs du département de mathématiques et par ceux du département de physique théorique de l'École Polytechnique. Jean Lascoux, un physicien d'une culture universelle, photocopiait tout ce qui lui paraissait digne d'être diffusé. Au lieu de manifester de l'impatience pour son usage un peu personnel et excessif de cet instrument de travail collectif, j'aimais attendre qu'il ait fini en discutant avec lui. En septembre 1984, il me demanda ce que j'avais fait pendant les vacances et, après ma réponse, il comprit aussitôt que le travail qu'il était en train de photocopier pouvait m'intéresser. Il s'agissait d'un document de quelques pages écrit par un physicien, spécialiste de la mécanique quantique, Alex Grossmann, et par un ingénieur visionnaire, Jean Morlet, travaillant pour Elf-Aquitaine. Je pris le premier train pour Marseille afin de rencontrer Grossmann, au centre de physique théorique de Luminy, et c'est ainsi que tout a commencé et que les ondelettes furent créées.
Les programmes scientifiques des premiers congrès sur les ondelettes qui se tenaient à Luminy, près des calanques, étaient aussi ambitieux que celui de l'Institute for the Unity of Science. Nous disposions d'un nouvel instrument d'analyse, capable de plonger au cœur même des signaux transitoires et d'en explorer la complexité : on pense ici à l'attaque d'une note, aux quelques millisecondes où le son se cherche, c'est-à-dire à tout ce qui échappe à l'analyse de Fourier (et aussi aux ondelettes « temps-fréquence »). Cet instrument, nous l'utilisions pour analyser des électroencéphalogrammes, des électrocardiogrammes, des signaux acoustiques, etc. et nous espérions y découvrir ce que personne n'avait su voir. Lors de ces premiers congrès, nous discutions avec des médecins, des musiciens, des physiciens, des ingénieurs et arrivions à recréer l'atmosphère des années 1945, sans même avoir conscience d'imiter l'Institute for the Unity of Science (dont nous ignorions l'existence).
Nous pensions faire des progrès scientifiques décisifs en établissant une atmosphère propice à l'interaction pluridisciplinaire et à la fertilisation croisée. Cette fertilisation croisée n'était pas, à nos yeux, la recherche d'un niveau pauvre, vague et imprécis de communication entre les sciences. Bien au contraire, il s'agissait, pour nous, d'une sorte de mouvement intellectuel où les différentes thématiques scientifiques puissent s'enrichir mutuellement. En relisant les actes de ces congrès, on mesure à quel point nous étions naïfs. Nous étions naïfs, car nous pensions que le nouveau jouet dont nous disposions pouvait résoudre de nombreux problèmes. Aujourd'hui la liste des problèmes résolus par cet outil est un peu plus courte.
Un des problèmes résolus concerne le traitement de l'image . Ces nouvelles ondelettes sont à l'origine du nouveau standard de compression des images fixes (JPEG-2000). Dans la construction de ces nouvelles ondelettes, interviennent un paramètre d'échelle et un paramètre de fréquence. L'un est l'inverse de l'autre et ceci explique les succès rencontrés en traitement de l'image où cette loi était essentielle.

Si nous avons comparé le climat fiévreux qui a entouré la naissance des ondelettes à celui qui accompagna la création de l’Institute for the Unity of Science, il convient cependant d'être modeste et de souligner que nos travaux étaient beaucoup moins révolutionnaires. En effet, la découverte des ondelettes « temps-fréquence » peut aujourd'hui apparaître comme une simple remarque corrigeant une erreur commise par Gabor et von Neumann. L'usage des ondelettes « temps-échelle » était une aventure plus singulière, car elle ne reposait pas sur une heuristique admise dans la communauté du traitement du signal. Le fait d'analyser un signal unidimensionnel en comparant différentes copies faites à des échelles différentes n'est certainement pas une démarche intuitive.
En revanche, en ce qui concerne l'image, cette même démarche est tout à fait légitime et on a l'habitude d'écrire que l'inverse d'une échelle est une fréquence. En outre, il faut savoir qu'indépendamment des travaux de Morlet et en travaillant dans un contexte tout à fait différent, David Marr a aussi découvert les ondelettes « temps-échelle ». Le traitement de l'image et ses liens avec la vision humaine et la vision artificielle ne faisaient pas partie du programme de l'Institute for the Unity of Science et David Marr a consacré les dix dernières années de sa vie à essayer de comprendre ces problèmes.
Professeur à Cambridge (Royaume-Uni), Marr fut ensuite nommé au MIT (Massachusetts) pour rejoindre une équipe travaillant sur le problème de la vision artificielle qui se révélait crucial pour la robotique. Il s'agit de l'élaboration de décisions à partir des données fournies par les caméras équipant le robot. Les ingénieurs croyaient naïvement que les problèmes seraient simplement résolus en multipliant le nombre des senseurs, mais Marr démontra que la vision est un processus intellectuel complexe, basé sur des algorithmes dont la mise en oeuvre nécessite une science nouvelle.
Son livre, intitulé Vision, A computational investigation into the human représentation and processing of visual information, est en fait, un livre posthume, écrit pendant les derniers mois de sa lutte contre la leucémie. Marr nous confie son programme scientifique en s'adressant à nous comme à un ami. Chemin faisant, il anticipe les ondelettes de Morlet, il en fournit une représentation analytique précise et prévoit le rôle qu'elles vont jouer en traitement de l'image. Cette partie de l’œuvre de David Marr sera reprise et modifiée par Stéphane Mallat.
Les ondelettes inventées par David Marr et Jean Morlet étaient destinées à remplacer la FFT (fast Fourier transform) en traitement de l'image. Mais il fallait pour cela que l'analyse et la synthèse puissent s'effectuer à l'aide d'algorithmes rapides. Ingrid Daubechies et Stéphane Mallat allaient s'illustrer dans la découverte de ces algorithmes qui jouent un rôle essentiel dans les problèmes de la compression et du débruitage.
Aujourd'hui les applications des ondelettes « temps-échelle » couvrent des domaines très variés et, dans une interview au journal Le Monde du jeudi 25 mai 2000, S. Mallat cite, en vrac, le nouveau standard de compression des images fixes, l'imagerie satellitaire, Internet, etc.
Un des grands succès des ondelettes concerne le débruitage des sons et des images. Ce succès s'explique de la façon suivante.
Les ondelettes partagent avec le langage une souplesse d'utilisation et de création tout à fait remarquables et qui expliquent leurs succès. Cette souplesse signifie que l'on peut changer de façon presque arbitraire l'ordre des termes sans changer la signification de ce que l'on écrit. Dans le langage des mathématiciens, on dira que les ondelettes forment une base inconditionnelle. Ceci se relie aux travaux de deux analystes dont je voudrais évoquer la mémoire. Il s'agit d'Alberto Calderón et d'Antoni Zygmund. L’œuvre de Calderón et Zygmund revit aujourd'hui grâce aux belles découvertes d'Albert Cohen sur les coefficients d'ondelettes des fonctions à variation bornée, découvertes qui fondent l'utilisation des ondelettes dans la compression et le débruitage des images fixes. Les applications des ondelettes aux statistiques ont été un des grands succès de cette théorie. Eliminer le bruit dans un signal était l'une des obsessions des pionniers de 45. C'est maintenant une réalité scientifique grâce aux travaux de David Donoho et de ses collaborateurs.

La révolution numérique
Comme nous venons de l'indiquer, les ondelettes ont une relation privilégiée avec le traitement de l'image. Par exemple, le nouveau standard de compression des images fixes, le célèbre JPEG-2000, est basé sur l'analyse par ondelettes. Ceci nous amène à parler des enjeux de la « révolution numérique ». La révolution numérique envahit notre vie quotidienne, elle modifie notre travail, notre relation aux autres, notre perception des sons et des images. En ouvrant un magazine, on a toutes les chances d'y trouver une apologie des caméras numériques ; ces publicités sont en général bien faites et nous fournissent une première définition de la finalité de la révolution numérique : la possibilité d'agir, d'intervenir sur les images et les sons (les enregistrements sonores, les photographies ou les films dans le cas de la caméra numérique), de les manipuler, de les améliorer etc. Le son numérique Dolby qui accompagne la plupart des films contemporains est directement issu de la révolution numérique.

Voici quelques autres exemples. Tout d'abord le téléphone est aujourd'hui digital. Digital s'oppose à analogique. En simplifiant, une copie analogique peut être comparée au tirage d'une gravure, d'une eau-forte, à l'aide de la planche de cuivre qui a été burinée par le graveur. On pense aussi au disque microsillon. Dans le cas du téléphone, la copie de la voix s'effectuait à l'aide d'un courant électrique dont les vibrations reproduisaient exactement les vibrations acoustiques émises par le locuteur. La transmission, sur de longues distances, de ce signal électrique se payait par une certaine altération due aux lois de la physique.
Il en résultait des grésillements qui nous renseignaient sur la distance parcourue par le courant lectrique, mais qui étaient très désagréables. En revanche, le son numérique ou digital est inaltérable, tout comme le disque compact est inusable.
Reste à savoir comment le son analogique devient digital. Le son digital est un exemple de la numérisation d'une information analogique. Numériser signifie que l'on est capable de coder les vibrations acoustiques (qui constituent un signal continu) à l'aide de longues suites de 0 et de 1. Ce codage s'effectue en deux temps. La première étape est l'échantillonnage qui est une sorte de lecture où l'on ne retiendrait qu'un point sur dix. En principe, sans hypothèse sur le signal continu, il est impossible de se contenter de cette « lecture rapide ». Comme nous l'avons signalé dans la section précédente, Claude Shannon a cependant résolu ce problème au niveau théorique. Mais cette première « lecture rapide » fournit encore un volume trop grand pour pouvoir circuler sans peine sur les « autoroutes de l'information ».
Il faut alors « comprimer » et ce nouveau défi pourrait être comparé au remplissage optimal d'une valise à la veille d'un voyage. Se pose alors le problème de construire les meilleurs codes de compression et de comprendre comment la nécessaire comparaison entre différents codes doit être effectuée. C'est dans ce choix d'un bon code que les ondelettes entrent en jeu.
Un second exemple de la révolution digitale est le disque compact audio, lancé en 1982. En quatre ans, il a détroné les disques microsillons en vinyle. Ce disque compact audio a été suivi par le CD-Rom dont l'utilisation a bouleversé le multimédia. Le son et l'image peuvent désormais être enregistrés sur le même support. Aujourd'hui le DVD (Digital Versatile Disc) rencontre un succès foudroyant. Malgré un ruineux combat d'arrière garde des laboratoires de recherche de Thomson, l'image numérique envahit la télévision contemporaine.
D'autres applications actuelles ou prévisibles concernent l'imagerie médicale (l'archivage des mammographies utilisera des algorithmes de compression numérique, basés sur les ondelettes), l'imagerie satellitaire, les images fournies par le télescope Hubble, etc. Bien entendu le multimédia, le web, sont des produits directs de la révolution numérique.
Pour le grand public, la révolution numérique semble faire partie des technologies de pointes, mais, en se penchant sur son histoire, on voit qu'elle était, en un sens, une composante du programme scientifique de l'Institute for the Unity of Science.

Conclusion
Nous pouvons maintenant répondre aux questions posées dans l'introduction.
Les ondelettes ne sont pas une invention pratique, comparable à la roue, mais elles font partie de ce que l'on appelle aujourd'hui le logiciel, le software. Elles jouent un rôle important dans la révolution numérique. Les ondelettes sont aujourd'hui devenues un outil. L’ « outil ondelettes » sera peut-être remplacé par un outil plus maniable dans les années à venir. Cet outil ne sera jamais infirmé. De plus l’outil ondelettes est, en réalité, une boîte à outils, comportant des instruments très différents. En outre cette boîte à outils s'enrichit continuellement.
Les ondelettes ont été une théorie, mais ce n'est plus le cas aujourd'hui. Les recherches théoriques sur les ondelettes ont cessé. Pendant près de six ans (1984-1990), Ronald Coifman, Ingrid Daubechies, Stéphane Mallat et moi-même avons réussi à unifier plusieurs lignes de recherche venant de disciplines très différentes : il s'agissait (1) de travaux conduits en traitement du signal, sous le nom de codage en sous-bandes, (2) d'une méthodologie de la physique mathématique appelée « états cohérents », (3) des anticipations de Gabor et de Shannon dans le cadre de l'Institute for the Unity of Science et, finalement, (4) d'une technique de calcul d'usage universel, celle de bases orthonormées. Ces recherches ont conduit à l'écriture de divers logiciels utilisés dans la technologie du traitement du signal et de l'image.
Cette unification a été un grand succès, mais a aussi eu des effets négatifs. Elle a entraîné une croyance presque religieuse dans la pertinence des méthodes basées sur l'analyse en ondelettes. Il y a un usage intempestif des ondelettes, mais cela n'est pas propre aux ondelettes. Comme nous l'avons déjà observé, il y a un usage intempestif des résultats de toutes les grandes aventures intellectuelles.

Certains outils intellectuels peuvent convenir à toutes les sciences, sans pour autant perdre leur précision. Citons en vrac, vitesse, accélération, fréquence, etc. Le sens de ces mots ne dépend pas du contexte utilisé. Les ondelettes pourraient faire partie de cette liste. En effet, comme c'est le cas pour l'analyse de Fourier, l'analyse par ondelettes n'est jamais fausse, elle ne dépend pas du contexte, elle exprime une vérité universelle, mais elle peut manquer de pertinence. Cette vérité universelle est constituée par un ensemble de résultats mathématiques autonomes et rigoureux. Ces résultats s'appliquent donc, en principe, à tous les signaux, quelle que soit leur origine physique. Ceci n'implique évidemment pas que cette application soit pertinente.
Notre étude historique nous a appris que l'analyse par ondelettes a des racines historiques profondes, qu'elle est le fruit d'une longue évolution. Ce lent processus évolutif continuera, alors même que les ondelettes auront cessé d'être à la mode, car les problèmes que nous essayons aujourd'hui de résoudre à l'aide des ondelettes existeront toujours.

Références bibliographiques
À mon avis, les quatre meilleurs ouvrages sur les ondelettes sont :
- Cohen (A.), and Ryan (R.), Wavelets and multiscale signal processing, Chapman & Hall ed., 1995.
- Daubechies (I.), Ten lectures on wavelets, SIAM, Philadelphla, 1992.
- Mallat (S.), A wavelet tour of signal processing, Acad. Press, 1998.
- Vetterli (M.), and Kovacevic (K.-J.), Wavelets and subband coding, Prentice Hall PTR, Englewood Cliffs, NJ 07632, 1995.
Le lecteur plus orienté vers les mathématiques pourra consulter en version anglaise (refondue et mise à jour) ou en version française :
- Meyer (Y.), Wavelets and Operators, Vol 1 and 11, Cambridge University Press, 1992.
- Meyer (Y.), Ondelettes et Opérateurs, Hermann, 1990.
et enfin nous recommandons la lecture du merveilleux (mais contesté) ouvrage :
- Marr (D.), Vision, A Computational Investigation into the Human Representation of Visual Information, W. H. Freeman, 1982.

 

 VIDEO     canal U       LIEN 

 
 
 
 

L'UTILISATION DES RAYONS X POUR L'ANALYSE DE LA MATIÈRE

 

 

 

 

 

 

 

L'UTILISATION DES RAYONS X POUR L'ANALYSE DE LA MATIÈRE

Le rayonnement synchrotron est devenu en quelques années la principale source de rayons X. Il est émis par des particules chargées (électrons) qui sont accélérées par des champs magnétiques dans des machines construites au départ pour étudier la physique des particules. Ce rayonnement est très intense et sa brillance peut atteindre 1011 fois celle d'un tube à rayons X. Ceci a ouvert des possibilités complètement nouvelles dans de nombreux domaines : possibilité de faire des images sur des objets qui absorbent très peu les rayons X et de faire des hologrammes, possibilité d'étudier la structure de la matière dans des conditions extrêmes de pression et de température qui règnent au centre de la terre, résolution de structures biologiques complexes tels que le ribosome, le nucléosome ou des virus de grande taille, étape importante pour la réalisation de nouveaux médicaments. Le but de cette conférence est d'illustrer ces possibilités par des résultats récents.

Texte de la 229e conférence de l’Université de tous les savoirs donnée le 16 août 2000.
Utilisation des rayons x (rayonnement synchrotron) pour l’analyse de la matière par Yves Petroff
AVANT PROPOS
Les rayons X ont été découverts à la fin du XIXe siècle par Wilhelm Conrad Röntgen, qui obtint pour la première fois la radiographie d’une main. En quelques semaines, l’expérience fut reproduite dans des centaines de laboratoires à travers le monde. Les tubes à rayons X étaient faciles à construire et peu coûteux : on en installa des centaines, y compris dans les foires et chez les marchands de chaussures. Il fallut attendre plusieurs années avant que l’on ne se rende compte de certains effets néfastes. Pendant quelque temps, les applications des rayons X furent essentiellement médicales, qu’il s’agisse d’imagerie ou de thérapie. Quant à leur origine, durant toute cette période, elle demeura fort controversée.
En 1912, Max von Laue prédit que les rayons X devraient être diffractés par des cristaux. Grâce à ce procédé, il devenait en effet possible d’obtenir la position des atomes dans les solides, donc d’en décrire la structure. La première structure résolue fut celle du chlorure de sodium par Sir William Henry Bragg et son fils.
La fin des années 40 fut marquée par trois événements importants :
- On observa pour la première fois le rayonnement émis par des électrons relativistes (dont la vitesse est proche de celle de la lumière), accélérés au moyen de champs magnétiques dans des machines (synchrotrons) construites pour l’étude de la physique des particules élémentaires. Ce rayonnement fut appelé rayonnement synchrotron.
- À peu près à la même époque, on commença à observer les rayons X provenant de l’espace, grâce à des expériences faites à bord de fusées au-dessus de l’atmosphère terrestre. L’information arrivant du cosmos provient des ondes électromagnétiques émises, réfléchies ou diffusées par les corps célestes. Malheureusement, l’atmosphère qui règne autour de la Terre arrête la plus grande partie de ces rayonnements sauf la partie visible du spectre (0,7-0,4 μm), l’infrarouge ainsi que les ondes radio (de quelques millimètres à 15m). L’astrophysique X est donc une science récente, qui a dû attendre l’avènement des fusées et des satellites pour se développer ; en effet, la détection des rayons X ne peut se faire qu’à 100 km au-dessus de la surface de la Terre. La première mesure fut faite en 1949, par le groupe de H. Friedman, du Naval Research Laboratory de Washington, à bord d’une fusée V2 récupérée à la fin de la Seconde Guerre mondiale. L’émission détectée par Friedman se révéla très faible et cela découragea de nombreux scientifiques. R. Giaconni décida de persévérer dans cette voie et, après deux tentatives malheureuses, obtint des résultats remarquables qui ouvrirent l’ère moderne de l’astrophysique X. Dans les années qui suivirent, de nombreuses sources X intenses furent découvertes : Taurus X-1 dans la nébuleuse du Crabe, Cygnus X-1 ainsi que les premières sources extragalactiques (M87, Centaurus A, 3C273 ...). Depuis le premier satellite d’étude des rayons X (Uhuru, lancé en 1970), une nouvelle mission a lieu tous les trois ou quatre ans. La moisson au cours de ces années a été extraordinairement riche puisque le satellite Rosat a répertorié plus de cent vingt mille sources de rayonnement X ! Tous ces résultats donnèrent lieu à un foisonnement de travaux théoriques. Les sources de rayons X dans le cosmos peuvent avoir des origines variées. Il peut s’agir de sources thermiques (gaz ou matière portés à des températures élevées). On sait que tout objet chauffé émet des ondes électromagnétiques. Le Soleil, qui a une température de 5000 à 6000 K à la surface, émet dans le visible ; mais la couronne solaire (106K à 107K) est également une source intense de rayons X. Cela peut être aussi du rayonnement synchrotron, du bremsstrahlung ou des transitions atomiques des éléments.
- Page 1 -

- Enfin, on commença à déterminer, grâce aux rayonnements X, les premières structures de protéines, systèmes biologiques complexes formés de plusieurs dizaines de milliers d’atomes.
RAYONNEMENT SYNCHROTRON
On appelle rayonnement synchrotron l’émission d’ondes électromagnétiques (donc de rayons X) par des particules chargées accélérées à des vitesses voisines de celle de la lumière. Les propriétés de ce rayonnement ont été calculées pour la première fois en 1944 en Union soviétique et indépendamment aux Etats-Unis en 1945. Il a été observé pour la première fois dans le visible sur une petite machine de 70 MeV au laboratoire de la General Electric en 1947.
Lorsqu’une particule chargée (un électron, un positron ou un proton) est accélérée ou décélérée, elle émet des ondes électromagnétiques. Ce mécanisme existe dans le cosmos (nébuleuse du Crabe, ceintures de Jupiter) ou bien sur terre dans des accélérateurs circulaires (appelés souvent anneaux de stockage) construits pour l’étude de la physique des particules.
Les premiers machines avaient des circonférences de quelques mètres et des énergies de quelques millions d’électronvolts (MeV). Le collisionneur actuel du Conseil Européen pour la Recherche Nucléaire (CERN), le LEP, a 27 km de circonférence et l’énergie des électrons et des positrons y est de 50 milliards d’électronvolts (GeV).
Dans de telles machines, le rayonnement synchrotron est produit lorsque les électrons sont accélérés par des aimants dipolaires, qui permettent aux électrons d’avoir une trajectoire circulaire. L’énergie des électrons dépend du domaine spectral que l’on veut obtenir : pour travailler dans l’ultraviolet et les rayons X mous (100 eV-300 eV) une énergie d’électrons entre 800 MeV et 1,5 GeV est suffisante. Si on a besoin de rayons X durs (10-150 keV), l’énergie des électrons doit atteindre 6 GeV. Il est évident que la taille de l’anneau dépend fortement de l’énergie des électrons : une machine de 1 à 2 GeV aura 100 à 250m de circonférence, une machine de 6 à 8 GeV, 850 à 1400 m.
Découvert en 1947, le rayonnement synchrotron mit plus de vingt ans avant d’être réellement exploité en tant que source de rayons X en URSS, au Japon, aux Etats-Unis, en Italie, en France, en Allemagne et en Grande-Bretagne. Contrairement à ce que l’on pourrait penser, la communauté scientifique est très conservatrice !
Les machines de la première génération avaient été élaborées pour l’étude de la physique des particules et on y avait installé en parasite quelques expériences servant à extraire les rayons X et l’ultraviolet.
Par la suite, c’est-à-dire dans les années 80, des machines de la deuxième génération furent construites uniquement pour l’exploitation du rayonnement synchrotron. On s’aperçut alors que l’on pouvait gagner des facteurs mille ou dix mille en intensité de rayons X en installant des structures magnétiques appelées éléments d’insertion (on onduleurs), en général de 3 ou 4 m de long, et le plus souvent constitués d’aimants permanents.
La troisième génération de sources de rayonnement synchrotron est fondée essentiellement sur ces éléments d’insertion.
Le rayonnement émis dans ces machines est polychromatique et va des ondes millimétriques aux rayons X durs. Avec des éléments d’insertion, il est émis dans un cône extrêmement étroit, assez voisin de celui d’un laser. Dans une machine de 6 GeV, la divergence des rayons X est très faible (de l’ordre de 0,1 milliradian), aussi faible que celle d’un rayon laser [voir figure 1]. Le rayonnement est pulsé, puisque les électrons sont groupés en paquets de quelques centimètres, ce qui donne des « bouffées » régulières de 50 à 200 picosecondes (ps) suivant la machine.
- Page 2 -

La brillance est le facteur essentiel qui caractérise la qualité optique de la source. Elle peut être dix milliards de fois supérieure à celle d’un tube à rayons X. Depuis le début du siècle, la brillance des sources de rayons X a beaucoup évolué (cf. figure 2). Pendant une cinquantaine d’années, elle est restée constante. Le rayonnement synchrotron lui a fait gagner un facteur 1010 (10 milliards) en trente ans. C’est une phénomène assez rare ; le seul exemple équivalent est celui du laser dans le domaine visible.
- Page 3 -

Du fait de ces propriétés exceptionnelles, et de la possibilité de réaliser une cinquantaine d’expériences autour d’un anneau de stockage, le rayonnement synchrotron, d’abord considéré comme une nuisance, aujourd’hui la source la plus intense de rayons X, est devenu très vite un outil indispensable pour la chimie, la biologie, la physique du solide, la physique des surfaces, la physique atomique et moléculaire.
Il existe aujourd’hui une cinquantaine de centres dans le monde produisant du rayonnement synchrotron.
QUELQUES EXEMPLES DE NOUVELLES POSSIBILITES OFFERTES PAR LE RAYONNEMENT SYNCHROTRON
Imagerie X
Lorsque l’on examine une radiographie du corps humain, on s’aperçoit immédiatement que l’on distingue parfaitement les os mais pas les tissus mous. La raison en est que, les os mis à part, l’eau représente 65 % du corps. L’eau, constituée d’éléments légers, l’hydrogène et l’oxygène absorbe peu les rayons X. Les os en revanche, constitués essentiellement de calcium, les absorbent fortement.
Les images en rayons X sont donc obtenues par contraste d’absorption. C’est ainsi que, si on veut visualiser les tissus mous, on doit y injecter un élément plus lourd ; par exemple, si on veut regarder les artères coronaires, on injecte dans le sang de l’iode. Existe-t- il des possibilités de voir les tissus mous, c’est-à-dire en général les objets absorbant peu les rayons X ? La réponse est oui, mais avec d’autres techniques réalisées dans le visible avec le laser, et assez voisines de l’holographie. Le problème pour élargir ces techniques aux rayons X vient du fait qu’elles nécessitent un rayonnement cohérent comme celui émis par un laser : en effet, la lumière émise par un laser possède de la cohérence spatiale, c’est-à-dire qu’elle diverge très peu, et de la cohérence temporelle, c’est-à-dire qu’elle est monochromatique. Or, il n’existe pas aujourd’hui de laser dans le domaine des rayons X.
- Page 4 -

Nous avons vu que la lumière émise par un élément d’insertion avait une divergence (cohérence spatiale) de l’ordre de 10-4 radian, assez voisine de celle d’un petit laser. La monochromatisation est facile à obtenir en mettant sur le trajet du faisceau un monochromateur. On obtient ainsi artificiellement de la lumière cohérente dans le domaine des rayons X. On pourrait, certes, faire de même avec un tube à rayons X et un monochromateur, mais le nombre de photons qui en jaillirait serait très faible et peu exploitable.
Ces nouvelles possibilités ouvrent la voie vers de nombreuses applications en métallurgie et en médecine.
L’exemple que nous allons décrire a été obtenu récemment à l’ESRF (Grenoble) par P. Cloetens et al [1].
Jusqu’à très récemment, les images en rayons X étaient obtenues par contraste d’absorption. En fait, si on a la chance d’avoir des rayons X cohérents on peut produire des images par contraste de phase. Ceci est particulièrement intéressant lorsqu’il s’agit de matériaux composés d’éléments légers (hydrogène, oxygène, carbone) qui absorbent très peu les rayons X. Nous avons représenté dans la figure 3 deux images d’une mousse de polystyrène obtenues dans des conditions différentes :
a) une image obtenue à 18 KeV, en plaçant le détecteur à 10 cm de l’objet. On n’exploite pas la cohérence et on a image normale en absorption et donc on ne voit rien puisque l’absorption est très faible
b) on va obtenir des images en déplaçant le détecteur à des distances variables entre 10 cm et 100 cm de l’objet. Les interférences entres les faisceaux directes et les faisceaux réfractés par l’objet permettent de reconstruire une image à trois dimensions avec une résolution de l’ordre de 1 μm. Cette holotomographie a été obtenue à partir de 700 images et ceci peut être fait en une heure. L’exploitation de la cohérence et une véritable révolution dans le domaine de l’imagerie X.
Expériences de rayons X sous haute pression
Les rayons X permettent également de tester les modèles de l’intérieur de la terre. Grâce à leur aide, la structure des matériaux à très haute pression peut être révélée. Par très hautes pressions, nous entendons des pressions supérieures à 100 gigapascals [GPa] (approximativement un million d’atmosphères). Ces pressions sont celles qui règnent à l'intérieur de la Terre, mais aussi dans les planètes telle que Jupiter. Reproduire ces pressions en laboratoire est donc important pour la géophysique, l'astrophysique, la science des matériaux.
- Page 5 -

En effet, l’augmentation de la pression change considérablement l’interaction entre atomes, donc les propriétés chimiques et physiques. Elle permet aussi de vérifier la validité des modèles théoriques de la matière condensée.
Comment obtient-on des pressions aussi élevées ? D’une manière relativement
simple : la pression étant une force appliquée sur une surface, pour l’augmenter, soit on accroît la force, soit on diminue la surface. C’est cette seconde possibilité que l’on exploite en général : l’échantillon à étudier est placé dans un trou aménagé dans un joint métallique et comprimé entre les pointes de deux diamants. Il s’agit de petits diamants de 0,1 à 0,4 carat (1 carat = 0,2g). Pour obtenir des pressions de l’ordre de 300 GPa, le diamètre de l’échantillon ne doit pas dépasser 20 μm, ce qui veut dire que le faisceau de rayons X pour sonder l’échantillon ne devra pas dépasser 10 μm. Les cellules sont faites en diamant à cause de la dureté de ce matériau mais aussi parce qu’il est transparent aux rayons X. Si on a besoin de chauffer le matériau, on le fait en focalisant un laser infrarouge au centre de la cellule ou par un chauffage électrique.
À basse pression, l’hydrogène cristallise dans une structure hexagonale compacte donnant lieu à un solide moléculaire isolant, les molécules d’hydrogène étant orientées au hasard. La théorie prévoit depuis longtemps qu’à haute pression, entre 100 et 300 GPa, l’hydrogène devrait présenter une phase métallique atomique dans laquelle les molécules ont cessé d’exister. Cet hydrogène métallique devrait avoir des propriétés inhabituelles : il devrait en particulier être supraconducteur (c’est-à-dire avoir une résistivité nulle) à la température ambiante.
Il est donc important de voir s’il y a des changements de structure cristalline et d’étudier la variation du volume en fonction de la pression. Ces expériences sont très difficiles pour plusieurs raisons : d’une part, l’intensité diffractée dans une expérience de rayons X varie comme le carré du nombre d’électrons ; l’hydrogène n’en a qu’un, donc jusqu’à très récemment il était impossible d’observer les raies de diffraction de l’hydrogène. D’autre part, l’hydrogène diffuse dans la plupart des matériaux. Enfin, au-delà de 35 GPa, les monocristaux d’hydrogène se fragmentent, ce qui diminue l’intensité du signal de plusieurs ordres de grandeur.
Récemment, une équipe franco-américaine [2] a réussi à faire des mesures sur des pressions atteignant 120 GPa grâce à une astuce qui permet d’éviter la fragmentation. Pour cela, on fait pousser un cristal d’hydrogène au centre d’un cristal d’hélium. A haute pression, l’hydrogène et l’hélium ne sont pas miscibles et l’hélium sert de coussin hydrostatique. Cela a permis de mesurer la variation du volume en fonction de la pression : le résultat le plus notable est que l’on observe pas la phase métallique prévue par la théorie.
Actuellement, on pense que 88% de Jupiter est formé d’hydrogène métallique. une première couche de 17 500 km est composée d’hydrogène moléculaire isolant, le reste est de l’hydrogène métallique, excepté le petit noyau central. Malheureusement, le champ magnétique de Jupiter calculé à partir de ce modèle est beaucoup plus faible que celui mesuré par une sonde envoyée il y a quelques années. Le champ magnétique de Jupiter est le plus fort de toutes les planètes et il repousse le vent de particules chargées provenant du Soleil jusqu’à cent fois son rayon (contre dix pour la Terre).
La Terre, elle, s’est formée il y a environ 4,5 milliards d’années, lorsque les objets orbitant autour du Soleil en formation entrèrent en collision et s’agrégèrent. Au fur et à mesure, la gravitation força les éléments les plus lourds à migrer vers le centre de la Terre. Depuis sa surface jusqu’au cœur, elle est formée de couches concentriques de compositions et des propriétés chimiques très différentes. La lithosphère, la couche externe de la croûte terrestre, est constituée de plaques qui se déplacent les unes par rapport aux autres à raison de plusieurs centimètres par an. Les plaques océaniques sont recouvertes d’une croûte de 7 km d’épaisseur. Froides et plus denses que la couche inférieure (le manteau), elles ont tendance à
- Page 6 -

s’enfoncer dans celui-ci à des endroits appelés zones de subduction. Les plaques continentales, plus épaisses, ne sont pas sujettes à ce phénomène. Aux frontières des plaques, il existe des zones volcaniques et des tremblements de terre. Le manteau supérieur est situé entre la lithosphère et le manteau inférieur. Son épaisseur est de l’ordre de 600 km. A 660 km à l’intérieur de la Terre, la température est de l’ordre de 1 900 K et la pression de 23 GPa. Le manteau inférieur s’étend entre 660 et 2 900 km. Il est essentiellement formé d’oxydes de fer et de magnésium ainsi que de silicates. A 2 900 km la température atteint 3 000 K et la pression est de 135 Gpa (voir figure 4). Entre 2 900 et 5 100 km se trouve le cœur extérieur, composé d’un alliage liquide fer-nickel avec 10 % d’impuretés (hydrogène, soufre, carbone, oxygène, silicium ...). Cet alliage liquide est un fluide qui se déplace de 1 km/an et est sujet à des courants électriques: par un effet dynamo, il est responsable du champ magnétique terrestre. En étudiant des roches magnétiques dont on peut mesurer avec précision l’âge, on s’est aperçu que la direction du champ magnétique terrestre avait changé de nombreuses fois depuis la création de la Terre (avec une période de quelques millions d’années). L’interface cœur liquide-manteau inférieur solide joue un rôle particulièrement important à cause des discontinuités des propriétés chimiques et physiques à cet endroit. Entre 5 100 et 6 400 km se trouve le cœur constitué de fer solide. Au centre de la Terre –6 400 km) la pression atteint 360 GPa et la température avoisine 6 000 K [3].
D’où proviennent les information sur cette composition et ces paramètres ? Essentiellement d’une seule technique : l’étude des ondes sismiques. Les ondes élastiques créées par des tremblements de terre traversent la planète avec des vitesses qui varient selon la densité, la pression et le module élastique des matériaux. Les tremblements de terre produisent des ondes longitudinales (compression) et des ondes transverses (cisaillement). Ces derniers ne se propagent pas dans les solides. Des détecteurs installés tout autour de la Terre permettent de mesurer les ondes réfléchies ou diffusées et d’obtenir le modèle actuel.
A quoi peuvent servir les rayons X ? A tester ce modèle : pour cela, on reconstitue en laboratoire les conditions de pression et de température qui règnent dans les différentes
- Page 7 -

couches de la Terre sur les mêmes matériaux. Avec des rayons X, on peut étudier la structure des matériaux et les changements de phase.
Toutefois, on ne peut pas aujourd’hui reproduire en laboratoire les conditions qui règnent au centre de la Terre (6 400 K et 360 GPa). Par contre, on a pu atteindre pour la première fois récemment 304 GPa ([5] et 1 300 K sur un échantillon de fer et étudier la structure hexagonale observée dans ces conditions. Ceci correspond à des conditions assez voisines de l’interface fer liquide-fer solide et permet de tester avec précision des modèles de l’intérieur de la Terre [5].

Détermination de Structures Biologiques
Le but de la biologie moléculaire est de comprendre les processus biologiques à partir des propriétés chimiques et physiques des macromolécules. Nous allons voir que cela nécessite la connaissance de la structure atomique à trois dimensions de ces macromolécules, ce qui n’est pas surprenant puisqu’on sait qu’en changeant la structure d’un semi-conducteur ou d’un métal (en faisant varier par exemple la température ou la pression), on change aussi ses propriétés chimiques et physiques.
Pourtant, il existe une différence fondamentale entre l’inerte et le vivant : la cellule élémentaire du silicium comporte quelques atomes, celle d’un virus plusieurs millions ! Seule la diffraction des rayons X permet de déterminer des structures aussi compliquées, et encore, à condition d’employer du rayonnement synchrotron.
Comme chaque cellule contient des millions de protéines, qui interagissent d’une manière complexe, la compréhension du fonctionnement de la cellule vivante est devenue l’un des défis majeurs de la science moderne.
La détermination de la structure des macromolécules biologiques (protéines, ribosomes, virus...) est facilitée par le fait qu’elles sont formées de séquences de sous- ensembles de petite dimension (quelques atomes) que sont les acides aminés pour les protéines et les nucléotides pour l’ADN.
Les premiers clichés de diffraction X de protéines furent obtenus à Cambridge en 1934 par le physicien anglais J.D. Bernal. Il a fallu attendre plus de vingt ans avant de pouvoir les interpréter et remonter à la structure même de ces protéines. La découverte de la structure de l’ADN en 1953 par Francis Crick et James Watson par ce procédé – et toujours à Cambridge ! – est considérée comme le point de départ de la biologie moléculaire.

Les acides aminés et les protéines
Les acides aminés sont les constituants fondamentaux des protéines : seuls vingt acides aminés sont utilisés par le vivant. Ils ont tous en commun un atome central de carbone Cα auquel est attaché un atome d’hydrogène H, un groupe aminé NH2 (N = azote), un groupe COOH, appelé groupe carboxyle, et enfin une chaîne latérale considérée comme un radical, et appelée R, différente pour chaque acide aminé et spécifiée par le code génétique.
Les acides aminés forment des chaînes grâce à des liaisons peptidiques, dont la formation requiert l’élimination de molécules d’eau : un peptide comporte quelques acides aminés, un polypeptide peut atteindre cent cinquante acides aminés.
Les chaînes sont appelées « structures primaires de protéines ». Au-delà de la structure primaire, les chaînes forment, grâce aux liaisons hydrogène entre certains acides aminés, soit des hélices α soit des feuillets β. La structure d’hélice α fut décrite en 1951 par Linus Pauling qui montra qu’elle devait être un élément de base des protéines. Cela fut vérifié quelques années plus tard par Max Ferdinand Perutz, qui découvrit la structure de l’hémoglobine, et
- Page 8 -

John Cowdery Kendrew en 1958 celle de la myoglobine, ce qui leur valut en 1962 le prix Nobel.
Mais ce n’est pas tout ! La protéine va encore changer de forme. Sous l’effet de paramètres divers dont certains demeurent encore inconnus, les feuillets β et les hélices α peuvent se replier pour former des amas globulaires : c’est la structure ternaire. L’eau joue un rôle très important dans ce repliement : en effet, les chaînes latérales hydrophobes sont tournées vers l’intérieur, créant un cœur hydrophobe et une surface hydrophile. C’est une des caractéristiques des protéines mises en évidence par Kendrew au cours de la détermination de la structure de la myoglobine. Finalement, l’association de plusieurs chaînes polypeptiques par des liaisons faibles about it à la structure quaternaire : celle-ci se compose donc d’un assemblage de structures ternaires [6].
Certaines protéines ne contiennent que des hélices α : c’est le cas par exemple des globines. D’autres sont constituées uniquement de feuillets : les enzymes (qui sont des protéines servant comme catalyseurs), les anticorps ou bien les protéines qui entourent les virus. Toutefois, de nombreuses protéines comprennent aussi bien des hélices que des feuillets.
La myoglobine et l’hémoglobine ont une importance capitale pour l’organisme : elles permettent respectivement le stockage et le transport de l’oxygène dans les muscles et le sang. Les structures des globines furent les premières structures de protéines découvertes grâce aux rayons X.
Les nucléotides et les acides nucléiques
Deux acides nucléiques jouent un rôle fondamental : l’ADN et l’ARN. L’acide désoxyribonucléique (ADN) est le constituant principal des chromosomes et le support de l’hérédité, l’acide ribonucléique (ARN) possède de nombreuses variantes et se définit comme le messager entre les gènes et les sites de synthèse des protéines.
Les acides nucléiques sont formés à partir de quelques nucléotides. Ces derniers sont constitués d’un sucre, d’une base et d’un groupe phosphate. Le sucre est soit un ribose (dans le cas de l’ARN), soit un désoxyribose (pour l’ADN).
Comme nous l’avons vu dans le cas des protéines, il existe aussi des structures primaires, secondaires et ternaires pour les nucléotides.
La structure primaire est une chaîne de nucléotides (polynucléotide). La structure secondaire est la fameuse double hélice de Watson et Crick : elle est formée de deux chaînes polynucléotiques qui s’enroulent autour d’un axe commun. Elles sont unies par des liaisons hydrogène qui existent entre les paires de bases. L’adénine (A) ne se couple qu’avec la thymine (T) par deux liaisons hydrogène ; la guanine (G) se liant avec la cytosine (C) par trois liaisons hydrogène.
C’est la séquence précise des bases dans l’ADN qui détermine l’information génétique : les différents tronçons de cette double hélice forment les gènes.
L’ADN se comporte comme un programme d’informatique qui indique à la cellule ce qu’elle doit faire.

Détermination de la structure des macromolécules
Pourquoi a-t-on besoin de connaître la structure des macromolécules ? Tout simplement parce que l’on sait aujourd’hui qu’il existe une relation entre la fonction biologique d’une macromolécule et la forme qu’elle prend dans un espace à trois dimensions : la connaissance de la structure d’un virus permet la mise au point de médicaments antiviraux : celle de la structure du ribosome est utile à la création de nouveaux antibiotiques, qui
- Page 9 -
servirons à attaquer l’appareil génétique de la bactérie ; enfin, la connaissance de la structure du nucléosome permettra un meilleur contrôle des gènes et une plus grande efficacité du génie génétique.
Pour que cette observation soit possible, deux méthodes sont disponibles. La première est la résonance magnétique nucléaire (RMN) dans le détail de laquelle nous ne pouvons entrer ici. L’avantage de la RMN vient du fait qu’elle donne des résultats en phase liquide (in vivo) : elle ne nécessite pas l’obtention de cristaux. Mais elle ne peut résoudre que des structures ayant un poids moléculaire peu élevé (30 000 daltons1).

La diffraction des rayons X est la seconde méthode, et de loin la plus utilisée. les résolutioins obtenues varient entre 1,5 et 3 Å. Elle présente l’inconvénient de nécessiter des monocristaux. La première question que l’on peut se poser et qui a fait l’objet de nombreuses controverses au début de la cristallographie des protéines est de savoir si les macromolécules conservent leurs fonctions biologiques dans la phase cristalline. La réponse est clairement positive et cela a été démonté en particulier pour les enzymes.
Une des difficultés provient du fait qu’il est très difficile de faire « pousser » des monocristaux de grandes dimensions: de plus, durant les mesures, ils doivent rester en contact avec la solution qui a servi à les faire pousser.
Au début de la cristallographie de molécules biologiques, il fallait plusieurs années pour découvrir la structure d’une protéine. Aujourd’hui, quelques heures ou quelques jours suffisent pour les cas les plus simples.
De nombreuses structures de protéines sont d’abord étudiées avec des tubes à rayons X pour « dégrossir ». Mais pour obtenir des structures à très haute résolution, pour déterminer la structure des ensembles de grandes dimensions tels que le ribosome et les virus, on doit impérativement utiliser le rayonnement synchrotron. En 1996, 70% des structures découvertes l’ont été par rayonnement synchrotron.

La cristallographie des molécules biologiques
Nous avons vu comment se forment les protéines et les virus. Nous allons aborder maintenant plusieurs exemples d’expériences qui ne pouvaient être réalisées il y a quelques années : la première consiste à étudier les modifications de la structure d’une protéine à l’échelle de quelques milliardièmes de seconde pendant une réaction biologique, la seconde est la découverte de la structure d’un virus dont la cellule unitaire contient plusieurs millions d’atomes et les deux dernières concernent des ensembles de grandes dimensions, le nucléosome et le ribosome.
Pourquoi est-il important de réaliser des expériences résolues en un milliardième de seconde ? Parce que les molécules biologiques subissent des changements structuraux extrêmement rapides pendant qu’elles assument leur fonction biologique.
On sait que la myoglobine, une protéine que l’on trouve dans les muscles, emmagasine l’oxygène pour le convertir en énergie. Comme nous l’avons vu plus haut, l’oxygène se fixe sur le fer. Lorsque Kendrew résolut la structure de la myoglobine en 1960, il se posa immédiatement la question de savoir comment la molécule d’oxygène pouvait entrer ou sortir de la myoglobine, étant donné la compacité de sa structure. sa conclusion fut que ladite structure ne pouvait être statique ; dynamique, elle « respire » grâce à des canaux qui s’ouvrent et se ferment pour permettre l’accès à l’hème. Quels sont ces canaux ? Quelle est la vitesse à laquelle la protéine répond à la dissociation de l’oxygène du fer ? On a aujourd’hui un début de réponse.
1 dalton : unité de masse égale au seizième de la masse de l’atome d’oxygène
- Page 10 -
L’expérience a été faite avec un cristal de myoglobine [7] avec du monoxyde de carbone (CO) qui se fixe plus facilement que l’oxygène. A l’instant t=0, on envoie sur le cristal une impulsion très courte d’un laser visible dont la longueur d’onde a été choisie pour casser la liaison entre le monoxyde de carbone et le fer. A un instant t=0, la molécule de CO est liée à l’atome de fer : quatre milliardièmes de seconde plus tard, la molécule de CO s’est éloignée de 4 Å et s’est retournée de 90 degrés [voir figure 5]. Elle reste dans cette configuration pendant 350 ns. Après une microseconde, la molécule de CO a quitté l’hème. On peut observer simultanément le changement de position des hélices et de certains acides aminés.

- Page 11 -
On a donc pu réaliser pour la première fois un film des changements de structure d’une protéine pendant sa fonction biologique. toutefois, pour arriver à observer les mécanismes fondamentaux, il faudrait gagner encore plusieurs ordres de grandeur en résolution temporelle, ce qui n’est pas impossible.
Structure de très gros virus
Chaque virus a sa forme propre, mais tous les virus ont des points communs. Le cœur contient un acide nucléique (ADN ou ARN). Il est entouré et protégé par une enveloppe composée d’une ou plusieurs protéines (capside), généralement identiques. Chez quelques virus, comme celui de la grippe, cet ensemble est lui-même entouré par une enveloppe riche en protéines, lipides et carbohydrates.

En 1998, une équipe d’Oxford [8] a réussi à déterminer à Grenoble la structure du virus de la langue bleue, qui atteint les ovins et n’est pas transmissible à l’homme. Ce virus est composé d’une enveloppe extérieure formée de 260 trimères. Le noyau central a un diamètre de 800 Å (voir figure 6) et un poids moléculaire de 60.106 daltons ! Il comprend 780 protéines d’une sorte et 120 d’une autre. L’information génétique se trouve en son intérieur sous la forme de dix molécules d’ARN comprenant 19 200 paires de bases. C’est la plus grosse structure de virus jamais découverte, mais ce record ne devrait pas tenir très longtemps. L’information structurelle obtenue devrait permettre la mise au point d’un médicament.
Les nucléoprotéines
Il s’agit d’ensemble de très grandes dimensions (plusieurs centaines d’angströms) formés de protéines et d’acides nucléiques et jouent un rôle fondamental dans le corps humain.

- Page 12 -
- le nucléosome : la structure élémentaire de la chromatine, consistant en deux cent paires de bases d’ADN et de deux copies de quatre histoires différentes. La structure a été résolue en 1997 par l’équipe de Richmond (Zürich) [9].
- le ribosome : c’est le composant essentiel du mécanisme de traduction du code génétique c’est-à-dire de la synthèse des protéines autrement dit la « fabrique » de protéines du corps humain.
Trois équipes américaines [10] ont réussi en 1999 à obtenir une structure avec 5 Å de résolution (à NSLS – Brookhaven et ALS – Berkeley). Des études récentes faites à l’ESRF sont proches de 2,5-3 Å.
CONCLUSION
J’ai choisi d’une manière arbitraire deux ou trois exemples pour illustrer les nouvelles possibilités du rayonnement synchrotron. J’aurais pu aussi bien montrer le développement considérable de l’étude du magnétisme, en grande partie dû à la découverte de la magnétorésistance géante [11], des études de surface en particulier en catalyse ou des structures électroniques des supra conducteurs à haute température.

Le rayonnement synchrotron est devenu aujourd’hui un outil indispensable pour l’étude de matériaux [12]. Toutefois il ne faut pas oublier que l’on résout rarement un problème de physique avec une seule technique. C’est donc un outil qu’il faut compter avec d’autres techniques : lorsqu’on étudie une surface la diffraction de surface en rayons X et la microscopie tunel amènent des informations complémentaires.
Références
P. Cloetens et al. Applied Phys. Lett. 75, 2912 (1999)
P. Loubeyre et al. Nature. 383, 702 (1996)
P. Gillet et F. Guyot. Phys. World 9, 27 (1996)
L.S. Dubrovinsky et al. Phys. Rev. Lett. 84, 1720 (2000)
A.M. Dziewonski et D.L. Anderson. Phys. Earth Planet. Inter. 25, 297 (1981)
C.I. Brändén et J. Toozl. Introduction to Protein Structure. Garland Publ. Inc. New
York – London (1991)
V. Srajer et al. Science 274, 1726 (1996)
J.M. Grimes et al. Nature, 395, 470 (1998)
K. Luger et al. Nature 389, 251 (1997)
W.M. Clemons et al. Nature 400, 833 (1999)
N. Ban et al. Nature 400, 841 (1999)
R. Cate et al. Science 285, 2095 (1999)
M.N. Baibich et al. Phys. Rev. Lett. 61, 2472 (1988)
Y. Petroff. Les rayons X (de l’Astrophysique à la Nanophysique). Collection
Dominos. Flammarion (1998).

Légendes
Figure 1 : Faisceau de rayons X émis par un élément d’insertion de l’ESRF (Grenoble). Ce faisceau est rendu visible par le fait que la forte intensité (3 Kw) ionise les molécules de l’air. On peut remarquer la faible divergence.
Figure 2 : Brillance des sources de rayons X, comparée à celle d’une lampe et du Soleil (de 1895 à 2000). La brillance est ce qui caractérise la qualité optique de la source.
- Page 13 -
Depuis le début du siècle elle a considérablement progressé, notamment grâce au rayonnement synchrotron.
Figure 3 : Image d’une mousse de polystyrène obtenue à 18 KeV
a) en absorption classique : la mousse n’est pas visible puisqu’elle n’absorbe pas les rayons X
b) l’image reconstituée en exploitant la cohérence de la lumière. La résolution (1 μm) est limitée par le détecteur.

La différence est saisissante [Ref. 1]
Figure 4 :Coupe de la terre présentant les différentes couches (lithosphère, manteau externe, manteau interne, noyau externe, noyau interne). Les pressions et les températures sont aussi indiquées. Le noyau interne comprend surtout du fer solide alors que le noyau externe est liquide. Les manteaux sont formés essentiellement de silicates [Ref. 3]

Figure 5 : Modification de la structure de la myoglobine pendant une réaction biologique. A l’instant t=0 (à gauche) on casse avec un laser visible la liaison entre le fer et l’oxyde de carbone. L’atome d’oxygène est en vert, celui de carbone en gris, l’hème est rouge.
Quatre nsec (milliardième de seconde) plus tard (au milieu) la molécule de CO s’est déplacée de 4 Å et s’est retournée de 90°. A droite, après un millionième de seconde, la molécule de CO est sortie de l’hème ([Ref. 7]

Figure 6 : Noyau du virus de la langue bleue : le diamètre est de l’ordre de 800 Å [Ref. 8]. C’est encore aujourd’hui la plus grosse structure de virus résolue par rayons X.

 

        VIDEO     canal U       LIEN
 

 
 
 
 

intelligence artificielle

 



 

 

 

 

 

        INTELLIGENCE ARTIFICIELLE
               Intelligence artificielle et sciences

intelligence artificielle

Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.

Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.

Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.

Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.

Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise

Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.

Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.

Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google