ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

TOUT L'UNIVERS DANS UN ATOME

 

 

 

 

 

 

 

TOUT L'UNIVERS DANS UN ATOME
(Exposé en langue Anglaise.)

Dans cet exposé, je vais expliquer que l'univers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens d'exercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que l'on trouve à l'intérieur des atomes mais il est intimement relié à l'univers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.

Tout lunivers dans un atome
Gerardus t Hooft
Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens d’exercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.

Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.
La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.
Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.
Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.

La structure de l’atome
Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.
Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de l’atome.

Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.
Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.

Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.
Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.

Les outils pour étudier la structure de latome
Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.

La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.

       
Les forces dinteractions et les particules de Yang-Mills
Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?

Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.

Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.

 

VIDEO       CANAL  U         LIEN 

 
 
 
 

LA PHYSIQUE QUANTIQUE

 



 

 

 

 

 

LA PHYSIQUE QUANTIQUE  (PHILIPPE GRANGIER)

Nous décrirons des expériences permettant de mettre en évidence des propriétés simples et fondamentales de la physique quantique, comme l'existence de superpositions linéaires d'états, ou celle d'états "enchevêtrés" ou "intriqués". Nous montrerons ensuite comment de tels états peuvent être utilisés dans le domaine très actif de "l'information quantique", pour réaliser des dispositifs de cryptographie parfaitement sûrs, ou pour effectuer certains calculs de manière potentiellement beaucoup plus efficace qu'avec des ordinateurs usuels.

LA PHYSIQUE QUANTIQUE (PHILIPPE GRANGIER)


Transcription* de la 574e conférence de l'Université de tous les savoirs prononcée le 17 juin 2005
Par Philippe Grangier: « La physique quantique »
La Physique Quantique est un sujet extrêmement vaste, et je n'aurai pas la prétention d'en présenter tous les aspects dans cet exposé. Je vais plutôt tenter d'illustrer quelques principes de base à travers des exemples simples, et aussi essayer de vous faire part de l'excitation actuelle qui existe dans ce domaine, à cause de résultats apparus récemment.
Dans mes exemples, je parlerai beaucoup du photon, vous savez aussi que c'est le « Licht Quanten », le quantum de lumière qui a été introduit par Einstein en 1905 dans un article extrêmement célèbre qui fête cette année son centenaire.
Je vous parlerai donc d'idées et de concepts, mais aussi d'expériences, et en particulier de celles que nous avons faites à l'Institut d'Optique à Orsay. J'ai travaillé au cours des années avec Alain Aspect, Jean-François Roch et puis beaucoup de chercheurs et d'étudiants qui sont dans nos groupes de recherche, et je saisis l'occasion pour tous les remercier ici.
Qu'est ce donc que la physique quantique ? En fait, la physique quantique dérive de la mécanique quantique, une théorie fondatrice qui, après une lente période de maturation, est apparue extrêmement vite entre 1925 et 1927. Les premières idées vraiment quantiques, proposées par Planck en 1900, ont été suivies de 25 années de maturation et d'incertitudes, et puis brutalement la théorie est apparue, sortant en quelque sorte toute bottée de la cuisse de Jupiter. On l'utilise encore aujourd'hui pratiquement comme elle a été faite, et on apprend aux étudiants des méthodes de calculs qui ont été inventées par Dirac à la fin des années 1920.

Donc la mécanique quantique est une construction intellectuelle tout à fait grandiose, je pense que c'est un candidat valable au titre de plus grande aventure intellectuelle du 20ème siècle, c'est-à-dire plus grande que la relativité, le marxisme, ou la psychanalyse. C'est une révolution à la fois scientifique et conceptuelle qui est à la base de toute notre compréhension physique du monde qui nous entoure. Par exemple, ne serait-ce que la stabilité de la matière est incompréhensible en physique classique. Un électron tourne autour d'un noyau, donc il rayonne, donc il émet de l'énergie, donc il doit perdre son énergie et tomber sur le noyau. Par conséquent en physique classique, la matière devrait disparaître. Cela semble stupide, mais c'est comme ça ! On a besoin de la mécanique quantique pour expliquer l'existence de la matière. Le fait que la matière puisse être stable est un fait intrinsèquement quantique, qui est intimement lié à ce qu'on appelle les inégalités de Heisenberg. Et bien sûr, la théorie explique non seulement comment la matière peut être stable, mais aussi comment elle est faite. La mécanique quantique a été inventée pour expliquer les niveaux d'énergie de l'hydrogène, puis de tous les autres atomes, et cela fonctionne très bien. La théorie a aussi expliqué la lumière, les photons, je vais beaucoup revenir là-dessus, ainsi que la quantification de la lumière et l'interaction entre la matière et le rayonnement.
La théorie quantique a ainsi obtenu depuis la fin des années 1920 un nombre gigantesque de succès. Le formalisme est cohérent, les équations sont parfaitement maîtrisées, on sait très bien calculer, et on peut obtenir des résultats avec douze chiffres significatifs en très bon accord avec l'expérience. La physique quantique a d'innombrables applications : le transistor, que vous connaissez tous, qui est à la base de la microélectronique, de l'informatique qui a complètement révolutionné notre vie au cours des dernières années, le laser, qui est à la base des télécommunications optiques et d'Internet, et qui joue des rôles essentiels en médecine et en biologie. Tous ces objets, qui font partie de notre vie de tous les jours, auraient été inconcevables si on n'avait pas eu la mécanique quantique. Ces succès sont donc tout à fait remarquables mais, il y a un mais, la mécanique quantique conserve un caractère mystérieux. Elle est un peu bizarre, et ce n'est rien de le dire. En fait, c'est une théorie intrinsèquement non-déterministe, c'est-à-dire que même si on sait « tout » au départ, il existera certains résultats de mesures qu'on ne pourra pas prédire avec certitude. Il y a donc une incertitude, un indéterminisme intrinsèque qui font partie des fondements mêmes de la théorie, et qui en fait jouent un rôle très important, je reviendrai beaucoup sur cette question dans la suite.
Il y a aussi une espèce de non-localité, c'est-à-dire que lorsqu'on parle d'objets quantiques, même très étendus, les distances ne veulent plus vraiment dire la même chose que dans notre environnement habituel. Par exemple, plusieurs particules spatialement séparées peuvent constituer un seul objet quantique, et réagir globalement. Einstein n'a jamais admis cette idée, et il a souligné qu'elle constitue un problème conceptuel important, qui est sous-jacent et en fait inhérent à la théorie quantique.
Enfin, il n'y a pas de correspondance simple entre les objets quantiques et le monde macroscopique, c'est-à-dire que si l'on s'imagine être « dans » le monde quantique les choses sont réellement bizarres, je reviendrai là-dessus dans la suite. On peut ainsi dire que les portes sont à la fois ouvertes et fermées, que les objets sont à plusieurs endroits à la fois, et que de toute manière leur comportement, qui est parfaitement bien décrit par les équations que l'on connaît, est en contradiction flagrante avec l'intuition macroscopique.
Donc pour utiliser la mécanique quantique - avec beaucoup de succès je le répète - il a fallu au cours des années se construire une espèce d'intuition qui permet d'oublier ou de glisser sous le tapis ces petits mystères, en les gardant tout de même dans un coin de la tête.

Mais depuis vingt ans environ, ces questions qu'on avait un peu oubliées depuis les années 1930 sont remontées à la surface, c'est ce qu'Alain Aspect a appelé dans un livre qui est paru aux éditions Odile Jacob, la « seconde révolution quantique ». Une des origines de cette seconde révolution quantique est qu'on a appris depuis une vingtaine d'années à avoir directement accès au monde des atomes. En fait, les inventeurs de la mécanique quantique raisonnaient sur des ensembles statistiques, des grandes quantités d'atomes. Ils calculaient ainsi des valeurs moyennes, et ils savaient très bien le faire. Mais la manipulation d'un atome unique était quelque chose de pratiquement inconcevable pour eux, alors que maintenant, comme je vais vous le montrer, on sait le faire tous les jours dans les laboratoires. Et on a aussi réalisé que les propriétés paradoxales dont j'ai parlé, les superpositions linéaires, les portes ouvertes et fermées, la délocalisation quantique, qui apparaissent comme des paradoxes d'un point de vue classique, mais ne sont en fait pas vraiment des paradoxes, car ils sont logiquement cohérents et même indispensables dans le cadre du formalisme quantique.
Le but de cet exposé est donc d'illustrer quelques aspects de cette seconde révolution quantique, à partir d'un certain nombre d'exemples que je traiterai plus ou moins en détail selon les circonstances. Et bien sûr, comme je l'ai déjà dit, ces exemples feront beaucoup intervenir les fameux « Licht Quanten » introduits par Einstein en 1905.
Tout d'abord, un petit peu d'histoire pour vous dire comment on est arrivé à cette idée de photons, car on y est arrivé en fait de manière assez chaotique, et l'idée a été extrêmement difficile à « digérer » pour les physiciens. J'illustrerai ensuite ce qu'on peut faire en combinant la manipulation d'objets quantiques individuels et la physique quantique, et je parlerai de choses qu'on appelle la cryptographie quantique et la téléportation quantique, on verra tout cela tout à l'heure.
Commençons donc par un peu d'histoire sur la lumière, qui constitue un mystère fascinant depuis l'origine des temps. Le monde a commencé par « Que la lumière soit », vous le savez, et depuis très longtemps, l'homme se demande « de quoi est faite » la lumière. Il y a une très belle image, sur une stèle égyptienne qui est au musée du Louvres, où l'on voit le Dieu Soleil qui inonde une princesse de ses rayons qui sont représentés par des fleurs de lys, c'est joli et poétique. Cette image exprime une vision de la lumière comme une pluie de fleurs, peut être pas de vraies fleurs de lys mais une idée de corpuscules. Une connaissance intuitive des lois de l'optique est aussi apparue assez tôt, c'est ce qu'on voit sur l'image à droite, où il faut remarquer que le personnage sur cette gravure du moyen âge porte des besicles, ce qui prouve qu'on commençait à comprendre un peu les lois de l'optique. Mais l'optique en tant que science a réellement commencé au 16ème et au 17ème siècle. Descartes est un grand nom de cette période, et il a inventé les lois de la réflexion et de la réfraction de la lumière, que les anglais, vous le savez, n'appellent pas les lois de Descartes mais les lois de Snell. Pour Descartes, comme pour tous les gens de l'antiquité, la lumière était composée de particules.

La lumière « ondulatoire » a quant à elle été introduite par Huygens en 1690. Un peu par analogie avec ce qui se passe à la surface de l'eau, Huygens a eu l'idée que la lumière pourrait se propager comme des vagues dans un milieu dont il ignorait la nature. Il l'a donc appelé « éther », et cette analogie s'est révélée très utile. On pouvait ainsi représenter la propagation de la lumière comme une succession de propagations d'ébranlements lumineux. Mais juste après Huygens est arrivé le grand Newton, le Newton de la gravitation universelle, qui a dit que tout cela était faux car il croyait à nouveau que la lumière était formée des particules. Newton a donc renvoyé Huygens à ses travaux, et a tout expliqué avec des corpuscules. Cela a duré encore un siècle et puis nouvelle oscillation : au début du 19ème siècle, sont apparues des méthodes de calculs et des expériences qui ont établi de manière extrêmement probante que la lumière était bien une onde. Un savant français très célèbre a été associé à ces recherches, c'est Augustin Fresnel. Il a fait toute une série d'expériences et de calculs qui ont convaincu l'Académie des Sciences, en prouvant, aussi bien qu'on pouvait prouver à la fois théoriquement et expérimentalement à l'époque, que la lumière était bien une onde. Il a expliqué une multitude de phénomènes et au cours du 19ème siècle, le monde scientifique s'est peu à peu convaincu que la lumière était bien un phénomène ondulatoire.
Ces découvertes ont culminé, dans une série d'équations qui a été établie par Maxwell à la fin du 19ème siècle. Ces « équations de Maxwell » ont l'immense mérite d'unifier l'électricité, le magnétisme, les phénomènes lumineux, les ondes radios qu'on appelait ondes hertziennes. Hertz a en effet montré que les ondes radios étaient de même nature que la lumière, qu'elles se propagent toutes avec une vitesse, ou célérité, de 300 000 Km par seconde, qui d'ailleurs a été mesurée expérimentalement par Foucault et Fizeau, à peu près à la même époque. Cette théorie ondulatoire de la lumière est donc un véritable triomphe, exprimé dans les équations de Maxwell qui sont et demeurent un monument de la physique. Un savant bien connu appelé Lord Kelvin, le Kelvin de la température, disait ainsi à la fin du 19ème siècle que la physique était finie, que l'on avait tout compris, que cela marchait tellement bien que cela ne pouvait pas être faux, mais qu'il restait peut-être deux petits nuages dans le ciel bleu.
Un premier nuage, dont j'ai déjà un petit peu parlé, était que les équations de Maxwell décrivent une lumière ondulatoire, sans vraiment dire dans quoi se propage cette onde. On disait donc qu'elle se propage dans un milieu qu'on appelle « éther », comme Huygens l'avait appelé. Cet éther avait beaucoup de propriétés bizarres, et - grosse surprise ! - des expériences réalisées par Michelson et Morley montraient que la terre était immobile dans l'éther. La situation n'était donc pas très claire, et Kelvin considérait cela comme un petit nuage. L'autre petit nuage venait de ce qu'on appelle le problème de l'équipartition de l'énergie. Les lois de la thermodynamique, bien maîtrisées à la fin du 19ème siècle, disaient que l'on doit attribuer une énergie égale à kT/2 par degré de liberté à un système à l'équilibre à la température T (k est la constante de Boltzmann, et T la température en Kelvin). Si on applique ce principe à un morceau de métal chauffé, on trouve la quantité d'énergie lumineuse qu'il émet est infinie. Donc visiblement il y avait aussi quelque chose qui n'allait pas du tout, les bases de la thermodynamique n'étaient pas satisfaisantes, d'où ce deuxième petit nuage.

Et en fait, ces petits nuages n'étaient pas si petits que cela. Le premier petit nuage était donc le problème de l'éther, vous savez qu'il a été résolu par Einstein en 1905, et qu'il a donné naissance à toute la relativité, et donc à l'énergie nucléaire et à toutes les conséquences qui ont suivi. Ce qui était caché derrière le second petit nuage, l'équipartition de l'énergie, n'était rien moins que la mécanique quantique, et ces deux problèmes contenaient donc en fait toute la physique du 20ème siècle. Les deux personnes qui se sont attaquées aux petits nuages sont d'abord Max Planck en 1900, qui essayait de comprendre le problème, « je chauffe un truc, je calcule l'énergie émise, cette énergie est infinie, il y a quelque chose qui ne va pas ». Donc il fallait trouver autre chose, et Planck a fait une espèce de petit calcul un peu compliqué et pas très clair, qui disait que tout se passait bien mais à condition de mettre quelque part des grains d'énergie. En d'autres termes, il fallait « granulariser » l'énergie, et si on suppose que l'énergie des atomes ou des molécules qui oscillent ne varie pas continûment mais varie par sauts, alors tout se passe bien dans le sens où l'énergie du corps chauffé n'est plus infinie, on sait la calculer et le résultat du calcul est en parfait accord avec l'expérience. C'était donc une espèce de miracle que Planck ne comprenait pas vraiment, il n'était d'ailleurs pas très content de ses calculs, mais clairement ils fonctionnaient.
Lorsque Einstein a repris ce raisonnement en 1905, il l'a poussé encore plus loin en disant que les petits grains d'énergie étaient en fait des petits grains de lumière. Dans son célèbre article sur l'interprétation heuristique des phénomènes électromagnétiques, Einstein a dit qu'il nous fallait des petits grains de lumière pour que l'hypothèse de Planck soit admissible, mais que par ailleurs il y avait une très grosse incompatibilité entre cette hypothèse de Planck et les équations de Maxwell, qui étaient ce qu'on connaissait de mieux à l'époque. Dans son article Einstein n'appelait pas ce petit grain un photon, mais un « Licht Quanten - Quantum de Lumière ». Le nom de photon est apparu un peu plus tard mais de toute façon, l'idée n'est pas passée du tout. Les scientifiques n'ont pas voulu, ils ont trouvé que ce n'était pas bien, parce que les équations de Maxwell, c'était trop bien ! Les équations de Maxwell étaient ondulatoires, il fallait donc absolument des ondes, on ne pouvait pas déraper comme cela, cacher des corpuscules dans des ondes alors qu'en fait les deux concepts sont antinomiques, logiquement incompatibles. Donc il y a eu une série d'expériences, en particulier par Millikan qui ne croyait pas du tout aux corpuscules, et qui voulait montrer qu'Einstein s'était trompé. Millikan a passé dix ans à faire ces expériences, et il a conclu qu'Einstein avait raison. Millikan et Einstein ont tous deux eu le prix Nobel pour cela, mais la petite histoire dit que Millikan ne s'est jamais vraiment remis de cette aventure.
Donc finalement l'évidence expérimentale a imposé les photons, mais les physiciens n'étaient pas toujours convaincus, il y avait visiblement quelque chose de bancal dans cette affaire. Mais alors qu'on approchait de la fin des années 20, avec des ondes qui se mettaient à ressembler à des corpuscules, une nouvelle idée fondamentale est apparue. En 1925 Louis de Broglie a en quelque sorte retourné la chaussette, en disant prenons des corpuscules, est-ce qu'on ne pourrait pas les faire ressembler à des ondes, et il a donc proposé qu'on associe une onde à un corpuscule. Quand Einstein a vu cela, il a bondi d'enthousiasme en s'exclamant c'est génial, ou du moins peut-on imaginer ainsi sa réaction. Et très rapidement il y a eu des expériences, effectuées par Davisson et Germer, qui ont montré qu'on pouvait obtenir des effets de diffraction avec des électrons. On est ainsi parvenu à une situation bizarre où la lumière aussi bien que la matière avait une nature un peu duale, et était tantôt onde tantôt corpuscule, ou ni l'un ni l'autre ou les deux à la fois, on ne savait vraiment pas, ce qui était à la fois rassurant et inquiétant. En tout cas, ce qui était clair c'est qu'au milieu des années 1920 personne n'y comprenait plus rien, et beaucoup d'idées débouchaient sur des impasses.
Mais alors à la fin des années 1920, de 1925 à 1927, la théorie quantique est apparue, les équations sont apparues, il n'y avait plus qu'à s'en servir et tout devenait simplement limpide. On ne comprenait pas bien mieux qu'avant ce qu'était un photon, mais en tout cas on savait calculer toutes ses propriétés, et on les trouvait en accord avec les expériences. Ceci a bien sûr été une énorme surprise pour les physiciens, qui se sont alors partagés en deux catégories : ceux qui appliquaient - avec un grand succès - les nouvelles équations à d'innombrables phénomènes physiques, et ceux qui tentaient désespérément de trouver une façon moins déroutante de faire co-exister les ondes et les corpuscules. Un exemple simple illustrant le problème est de supposer qu'on prend un seul atome et qu'on lui fait émettre un seul photon, alors ce photon unique est-il onde ou corpuscule ? Et cette question a-t-elle même un sens ?

En fait, les pères fondateurs de la mécanique quantique pensaient qu'une telle expérience était impossible, par exemple Schrödinger a écrit en 1952 : « Nous ne faisons jamais d'expériences avec un seul électron, un seul atome, une seule molécule. Dans des expériences de pensée, on peut parfois supposer qu'on le fait, mais cela entraîne inévitablement des conséquences ridicules ». Schrödinger voulait dire ainsi que pour lui, quand on fait des vraies expériences, on utilise toujours des myriades d'atomes, ou de photons, et dès qu'on essaye de raisonner sur un seul de ces objets, il se passe des choses très difficiles à concevoir, qu'il qualifie même de ridicules, comme des sauts quantiques, des discontinuités, des corrélations à distance... Donc il ne pensait tout simplement pas que les objets ou évènements quantiques individuels étaient observables, et c'était il n'y a pas si longtemps, en 1952, ce qui prouve encore à quel point les idées quantiques étaient réellement révolutionnaires, même pour Schrödinger lui-même....
En fait, comme je vous l'ai dit au début de cet exposé, ces expériences qui semblaient si invraisemblables à Schrödinger se font partout depuis une vingtaine d'années. Dans tous les laboratoires de physique, dans le monde entier, il est devenu très facile de « prendre » des atomes et des photons un par un. On peut alors schématiser ainsi une expérience qui aurait définitivement traumatisé Schrödinger « j'ai un pistolet et à chaque fois que j'appuie sur le déclencheur, j'émets un photon et un seul ». C'est un « pistolet à photons ». Mais cet engin est-il seulement concevable ? Et bien oui, il est même très simple à faire, et je vais vous montrer comment, mais pour cela il va nous falloir « descendre » à l'échelle des atomes.
Alors comment faire pour avoir un seul photon ? Une source lumineuse habituelle, comme ces trois projecteurs qui m'aveuglent, émet à peu près 1020-1021 photons par seconde. Cela fait beaucoup... On peut donc essayer de se mettre dans le noir, il n'y a plus que quelques photons, mais il y a un photon de temps en temps, ce qui n'est pas la même chose qu'un photon quand on appuie sur la gâchette. Alors comment faire pour réaliser ce « pistolet à photon » ? En raisonnant naïvement, on peut dire que si je veux un seul photon à la fois, je dois prendre un seul atome à la fois. Donc imaginons une expérience où j'aurais un seul atome, là sous mon microscope, sur lequel j'enverrai une impulsion laser intense, une espèce de coup de flash. On sait, si on a appris un peu de mécanique quantique, que quand on éclaire un atome, il « monte » dans un niveau d'énergie excité, Schrödinger et Bohr nous l'ont appris en calculant les niveaux de l'hydrogène. Mais par simple conservation de l'énergie, un seul atome porté dans un état excité va émettre un seul grain de lumière, dont l'énergie est égale à la différence des énergies des deux niveaux de l'atome, h nu = E2 - E1. Evidemment vous allez dire que là je triche un peu : au lieu d'avoir 1020 photons, je mets sous le microscope un échantillon qui va contenir au moins 1020 atomes, ce qui déplace simplement le problème. La vraie difficulté est maintenant de trouver comment s'y prendre pour isoler un atome et un seul sous le microscope.
En fait, il y a de nombreuses façons d'y parvenir, et parmi elles il y en a une que j'aime bien. Elle consiste à remarquer que la nature a été gentille en nous donnant le diamant, qui n'est pas seulement le meilleur ami de nos épouses, mais aussi un système physique très intéressant. Vous savez sans doute qu'un cristal de diamant est constitué presque exclusivement d'atomes de carbone, rangés régulièrement. Mais dans ce cristal, il existe des petits défauts, des imperfections, et un défaut particulièrement intéressant s'appelle le centre « NV », N pour Nitrogen (azote) et V pour Vacancy (lacune). Ce centre NV est donc formé de l'assemblage d'un atome d'azote et d'une lacune, isolés dans le diamant, et le point remarquable est que ces centres sont très rares, et sont donc bien séparés spatialement. Si on regarde un petit bout de diamant, par exemple celui-ci qui mesure 0,1 mm d'épaisseur, 1 mm de long - c'est un tout petit bout de diamant, nos femmes n'en voudraient pas - et qu'on l'éclaire, et bien il est possible d'avoir dans ce diamant des centres NV qui sont suffisamment séparés pour qu'on puisse les éclairer un par un. On peut aussi se débrouiller pour créer ces centres NV dans des petits grains de diamants, qu'on appelle des nanocristaux et qui sont plus simples à manipuler. Avec un peu de cuisine que savent faire les physico-chimistes, on peut faire en sorte que dans ce tout petit grain, qui contient quand même des myriades d'atomes de carbone, il n'y ait qu'un seul centre NV et donc qu'un seul atome émetteur.

A partir de là c'est presque gagné : on prend le petit bout de diamant que je mets ici sous le microscope, et un laser envoie des impulsions très brèves, qui vont chacune exciter l'atome unique. Une fois cet atome excité, la théorie quantique affirme qu'il va émettre un seul photon à la fois. Pour préciser les choses, les centres NV absorbent essentiellement de la lumière bleue-verte, et ils réémettent de la lumière rouge. Donc un laser bleu-vert va être bien absorbé, puis tous les photons bleu-vert du laser vont être bloqués par un filtre spectral, et la lumière rouge qui va sortir va être composée d'impulsions qui contiennent un seul photon. Sur la figure on voit ici les impulsions de laser vertes, ici ce qu'on appelle un miroir dichroïque, c'est-à-dire une miroir qui laisse passer le rouge et qui arrête complètement le vert. En sortie de ce dispositif, on doit obtenir pour chaque impulsion un photon rouge et un seul. En fait on n'aura peut-être pas un photon pour chaque impulsion, car le photon émis peut partir dans d'autres directions, mais on est certain d'avoir au plus un photon dans chaque impulsion : l'unicité du photon est garantie par l'unicité de l'atome émetteur. En pratique, un laser focalisé crée un petit point lumineux qu'on peut déplacer à la surface du morceau de diamant, et on essaie de trouver des endroits où il y a un atome émetteur. Sur cette zone qui fait 5 microns par 5 microns, on voit un point brillant qui semble énorme, mais c'est simplement un seul atome qui émet des photons un par un. Si on coupe suivant ce trait, on voit qu'il y a beaucoup de lumière émise à l'endroit où il y a l'atome d'azote, et très peu de lumière émise à côté. Ce fond bleu est dû à la lumière émise par les myriades d'atomes de carbone autour du centre NV, et le miracle est que ces atomes n'émettent pratiquement rien, presque toute la lumière qu'on voit est émise par le centre NV. C'est un peu comme un petit bateau sur la mer, quand on voit de très loin un point brillant sans savoir ce que c'est, si on regarde la mer on pense que c'est un bateau, et si on regarde notre échantillon sous son microscope, on pense que c'est un seul atome qui émet des photons un par un. Une question un peu plus technique est de savoir comment on le prouve, c'est-à-dire, comment être sûr que les photons sortent vraiment un par un ?
Je vais donc essayer de l'expliquer, c'est un peu plus délicat mais allons-y. Imaginons donc qu'on a un train d'impulsions lumineuses qui arrivent une par une, et que l'on veuille savoir si dans chacune de ces impulsions il y a un ou plusieurs photons. Ces petites impulsions sont dessinées ici, et pour savoir si elles contiennent un ou plusieurs photons, on va les couper en deux sur un miroir semi-réfléchissant, c'est-à-dire qu'une partie de la lumière va être transmise et une autre partie de la lumière va être réfléchie. Derrière la lame on place ce qu'on appelle des compteurs de photons, ce sont des photodiodes à avalanche qui produisent des impulsions électriques - des « clics » - quand un photon arrive. Donc on peut avoir un clic d'un côté, ou un clic de l'autre côté. Mais s'il n'y a qu'un seul photon dans l'impulsion, clairement on ne peut pas avoir deux clics dans la même impulsion, c'est-à-dire que le photon ne se va pas se couper en deux, il va aller d'un côté ou de l'autre faire un clic ici ou là. Par contre, si l'impulsion contient plusieurs photons, alors je peux avoir deux clics produits par la même impulsion. On voit peut-être un peu mieux ce qui se passe sur ces figures : pour des impulsions lumineuses ordinaires, qui sont en fait des impulsions lasers qui contiennent 0 ou 1 ou 2 ou davantage de photons, on voit apparaître des pics qui correspondent à un photon détecté d'un côté de la lame et un autre photon de l'autre côté, séparés par le temps t indiqué sur l'axe horizontal. Donc un pic en t = 0 veut dire un clic d'un côté et un autre clic de l'autre côté de la lame, se produisant ensemble avec un délai nul : ce sont donc deux photons dans la même impulsion. Pour un pic décalé sur le côté, un photon est arrivé à un certain instant, et un autre photon est arrivé de l'autre côté de la lame 100 ns plus tard. Puisqu'on voit des pics régulièrement espacés, on peut avoir 2 photons dans la même impulsions ou deux photons dans deux impulsions séparées, ces évènements ont exactement la même probabilité. On conclut alors que ces impulsions sont des impulsions « ordinaires », qui peuvent très bien contenir deux photons. Par contre, si je remplace ces impulsions lasers par des impulsions émises par le centre NV unique, une différence frappante apparaît : à délai nul, t = 0, il n'y a plus de pic, ce qui confirme qu'il est impossible de compter deux photons dans une impulsion qui n'en contient qu'un seul. On observe donc un effet spectaculaire, qui est la disparition du pic central, ce qui fournit une preuve expérimentale directe que les photons arrivent bien un par un. On peut aussi montrer mathématiquement que si on utilise seulement les équations de Maxwell ondulatoires, sans mécanique quantique, cet effet semble impossible, car l'onde devrait se partager et donc forcément créer des doubles clics. L'absence de double clic veut dire que l'énergie est allée complètement d'un côté ou complètement de l'autre, ce qui est incompatible avec la notion d'une onde qui se partage, mais est parfaitement compatible avec un comportement corpusculaire. Dans cette expérience simple, qui tient sur une table, on voit donc que le photon se comporte comme un corpuscule, il choisit son chemin et ne se partage pas en deux sur la lame séparatrice.
Mais à ce stade, nous devons nous souvenir que le photon est un objet quantique, et donc que son comportement n'est pas du tout celui d'une boule de billard. Pour s'en convaincre, considérons ce dispositif qui s'appelle un « biprisme de Fresnel » : ces deux prismes partagent le faisceau en deux parties, qui sont déviées l'une vers le haut, et l'autre vers le bas. Ces deux fractions du faisceau atteignent ensuite deux photodiodes à avalanche, et on envoie dans le dispositif des impulsions à un seul photon. Comme tout à l'heure chaque photon ne peut être détecté qu'une seule fois, et donc on ne détecte rien dans le pic central, on le voit ici en temps réel, avec de vrais photons qui arrivent un par un. On peut en conclure que le biprisme se comporte comme une espèce d'aiguillage, chaque photon qui arrive va soit à droite, soit à gauche, mais il ne produit jamais de double clic. Mais où sont alors passées les propriétés « ondulatoire » du photon ? Pour les observer il suffit en fait d'aller regarder dans la zone où les faisceaux se recouvrent, et où classiquement on aurait des interférences. On peut donc imaginer l'expérience suivante : j'approche un détecteur, qui cette fois ci est une caméra, et je regarde dans la zone de recouvrement, avec toujours les photons qui arrivent un par un. Comme j'ai dit que les photons vont d'un côté ou de l'autre, on pourrait s'attendre à voir des clics uniformément répartis, correspondant à des photons venant tantôt du haut, tantôt du bas. Donc on lance une accumulation, on voit bien des petits points qui arrivent un par un, et on attend. Et là - surprise ? - on voit qu'en attendant suffisamment longtemps les petits points s'arrangent régulièrement sur des franges d'interférence, qui sont des franges d'interférence à un seul photon. Ce que je vous ai dit n'était donc pas tout à fait correct : le photon, qui précédemment choisissait d'aller d'un côté ou de l'autre, a changé de comportement, parce que dans un phénomène d'interférence il y a forcément deux amplitudes qui interférent, et qui proviennent des deux côtés à la fois. Donc, comme les fondateurs de la physique quantique dans les années 1920, on ne sait plus vraiment ce qu'est notre photon : dans la deuxième expérience, il se comporte comme se comporterait une onde, alors que dans la première il se comporte d'une façon « corpusculaire », incompatible avec un comportement ondulatoire. Alors qu'est ce que le photon ? En fait, le photon n'est ni une onde, ni un corpuscule, c'est un objet quantique, dont le comportement est parfaitement bien décrit par la théorie quantique. Et ces expériences montrent que le photon a des propriétés subtiles, et qu'il faut se garder de raisonnements trop naïfs. Dire que le photon est une onde ou un corpuscule conduit forcément à une contradiction, avec l'une ou l'autre des deux expériences que nous venons de voir. La seule façon de s'en sortir, et c'est comme cela que les physiciens s'en sont sortis, c'est finalement d'utiliser la théorie quantique, sans poser trop de questions sur la « nature ultime » des objets qu'elle manipule.
Ces discussions sont bien connues de tous ceux qui ont étudié la mécanique quantique, et en fait on a changé de siècle depuis toutes ces histoires. Et un nouveau point de vue, apparu à la fin du 20ème siècle, est de se demander si on ne pourrait pas utiliser le photon en particulier, et toutes ces propriétés quantiques bizarres en général, pour faire des choses intéressantes, amusantes et peut-être même utiles. Il serait particulièrement intéressant de trouver de nouvelles méthodes pour transmettre et traiter l'information, car la lumière est un vecteur d'informations, on sait que les télécommunications optiques utilisent l'information codée sur des impulsions lumineuses. Et si ces impulsions lumineuses sont de nature quantique, ne pourrait-on pas faire avec elles des choses impossibles à réaliser en physique classique ? Cette direction de recherche s'appelle l'information quantique, et elle a stimulé un grand nombre de travaux théoriques et expérimentaux. Et comme je vais vous le montrer, ces idées fournissent une illustration directe des propriétés « paradoxales » du photon.
En fait, deux grandes applications sont très étudiées en ce moment. La première s'appelle la cryptographie quantique, et son but est d'utiliser les propriétés du photon pour échanger des messages secrets. Actuellement, les messages secrets sont devenus l'affaire de tous, pensez seulement à la protection des données que vous échangez couramment sur internet. Alors, est-ce qu'il n'y aurait pas moyens d'utiliser les lois de la physique pour garantir la confidentialité d'un secret ? Une deuxième idée serait d'utiliser les photons et les atomes directement en tant que nano-objets quantiques, et d'essayer de leur faire traiter l'information, c'est-à-dire de faire un « ordinateur quantique » qui fonctionnerait avec des atomes individuels. En 1994, un informaticien nommé Peter Shor a montré que cet ordinateur quantique, si on savait le fabriquer, pourrait résoudre certains problèmes exponentiellement plus vite qu'un ordinateur classique. En pratique, cela veut dire que certains calculs qui prendraient des millions d'années sur un ordinateur classique pourraient être fait en quelques jours ou semaines. Mais bien sûr, cela suppose qu'on est capable de construire cet ordinateur quantique, je vous en dirai un petit mot tout à l'heure, et vous verrez que c'est loin d'être évident. Le point important à retenir est que conceptuellement, il y a des ressources cachées dans le formalisme quantique, et c'est ce que je voudrais essayer de vous expliquer plus en détail maintenant.

Nous allons donc commencer par la cryptographie, avec le petit folklore habituel de ce sujet : on considère deux personnes, Alice et Bob, qui veulent échanger un message secret, sans que l'espion Eve puisse l'intercepter. Il y a bien sûr énormément à dire sur ce sujet, mais je vais beaucoup raccourcir en me concentrant sur la question suivante : existe-t-il un code secret rigoureusement inviolable, pour lequel on puisse démontrer mathématiquement que toute tentative de l'espion est vouée à l'échec ? En fait ce code existe, et il est même tout à fait classique, mais évidemment il repose sur certaines hypothèses. Il a été proposé par Gilbert Vernam au début du 20ème siècle, et il utilise un canal secret, c'est-à-dire qu'on suppose qu'Alice et Bob, avant de transmettre le message lui-même, ont déjà échangé ce qu'on appelle une clef secrète. Une clef secrète n'est pas un message, mais une suite de bits aléatoires qui ne veulent absolument rien dire, mais qui ont le mérite essentiel d'être connus uniquement d'Alice et de Bob. S'ils disposent de cette clé, Alice et Bob peuvent échanger des messages de façon parfaitement confidentielle. Il faut pour cela faire une addition modulo deux, qui est aussi un « ou exclusif », entre chaque bit de clé et chaque bit du message. On obtient ainsi le message crypté, qui peut être envoyé publiquement par téléphone, Internet, ou tout autre canal de communication disponible. Bob reçoit ce message crypté, et pour le déchiffrer il fait à nouveau une addition bit à bit modulo deux, et reconstitue ainsi le message envoyé par Alice. Claude Shannon, le fondateur de la théorie de l'information, a montré à la fin des années 1940 que cette méthode de cryptage est rigoureusement inviolable, moyennant les hypothèses suivantes. Tout d'abord, la clé doit être complètement aléatoire, c'est-à-dire que chacun de ses bits doit être lui-même aléatoire, et indépendant des autres bits. De plus, la clé doit être aussi longue que le message, pour pouvoir faire une addition bit à bit. Autre contrainte, elle doit être utilisée une seule fois. Si vous l'utilisez plusieurs fois, on peut constater facilement que deux messages codés avec la même clé sont très faciles à décrypter, simplement en les ajoutant bit à bit. Donc ce code est très intéressant, et la seule voie d'attaque disponible pour l'espion est en fait de s'attaquer au canal secret, c'est-à-dire de tenter de s'emparer de la clé. En pratique, la clé est transportée par un messager, par exemple sur un CD enfermé dans une valise piégée. Mais cette méthode demeure risquée et potentiellement vulnérable, on peut acheter l'espion, le séduire, le pervertir, le corrompre, alors qu'Alice et Bob voudraient que leur canal secret soit vraiment secret. L'enjeu devient donc : serait-il possible de remplacer le canal secret du code de Vernam par un canal quantique, dont la sécurité soit garantie par la mécanique quantique ? On pourrait alors utiliser la sécurité mathématique du code de Vernam, combinée avec un canal quantique qui fournit une clé aussi longue que le message, dont la sécurité est garantie par les lois de la physique. C'est cela qu'on appelle la cryptographie quantique, qui était initialement un enjeu intellectuel, mais on verra qu'elle devient actuellement aussi un enjeu pratique.

Alors comment faire ? On va utiliser des photons, je vous en ai déjà parlé, mais comment coder de l'information sur des photons ? Le photon est caractérisé par sa direction de propagation, sa fréquence ou longueur d'onde du rayonnement associé, et une autre propriété très utile, sa polarisation. Fresnel avait déjà montré que la lumière est une vibration transverse, c'est-à-dire qu'elle vibre perpendiculairement à sa direction de propagation, en fait dans un plan perpendiculaire à cette direction de propagation. Voici un petit dessin, qui représente un photon se propageant dans cette direction. Je peux décider que le bit vaut « 1 » si la polarisation du photon est verticale, et que le bit vaut « 0 » si la polarisation est horizontale. On dispose dans les laboratoires d'instruments qu'on appelle polariseurs, qui ont la vertu de séparer les photons en fonction de leur polarisation. Le photon polarisé vertical sera toujours réfléchi et le photon polarisé horizontal sera toujours transmis. Donc si Alice code un « 0 », Bob obtient un clic de ce côté-ci, et il en déduit bien que c'est un 0 qui a été envoyé. S'il obtient un clic là, il en déduit que c'est un 1 qui a été envoyé. On a ainsi une méthode un peu compliquée mais déterministe pour envoyer des 1 et des 0, c'est-à-dire pour échanger des bits entre Alice et Bob. Mais où est la magie quantique là-dedans ? Pour l'instant, on a choisi deux directions perpendiculaires qui sont exclusives l'une de l'autre, c'est soit comme ceci, soit comme cela, la porte est soit ouverte soit fermée. Mais plutôt que de prendre ces deux directions, je pourrais prendre ces deux-là, penchées de 45° à droite ou de 45° à gauche, qui sont aussi mutuellement exclusives. Je pourrais aussi décider qu'une de ces directions correspond au bit « 1 », et la direction perpendiculaire au bit « 0 ». Et si on envoie ce codage qui semble légitime sur le polariseur, que dit la mécanique quantique ? En fait elle dit qu'on ne peut plus rien dire, car le photon qui arrive polarisé à 45° peut être transmis ou réfléchi avec des probabilités identiques, et il est impossible de prédire le résultat. Et c'est vraiment impossible dans le sens où, suivant des phrases célèbres d'Einstein et de Bohr, Dieu lui-même ne peut pas le savoir, car si on pouvait le savoir tout le formalisme quantique s'écroulerait. Cette impossibilité est reliée aux principes de Heisenberg, qui dit que si une certaine grandeur a une valeur bien définie, alors la valeur d'une autre grandeur ne peut pas être définie. Et dans cette expérience-là, la physique interdit qu'on puisse prédire le résultat, ou si on préfère impose au résultat d'être complètement aléatoire. Cet aléatoire ne se réduit pas à une ignorance, c'est-à-dire qu'il ne peut pas y avoir non plus des « variables cachées » qui donneraient le résultat sans qu'on le sache. En effet il a été prouvé que de telles variables cachées sont impossibles, car incompatibles avec la mécanique quantique.
Alors, l'information codée sur ces polarisations à 45° est-elle définitivement perdue ? Eh bien non, on peut quand même la récupérer, il suffit pour cela de tourner le polariseur. En effet, si on aligne le polariseur avec les directions choisies pour la polarisation du photon, on récupère le 0 et le 1, à nouveau de façon déterministe. Le point fondamental est donc que si on code l'information d'une certaine façon, il faut absolument la lire de la même façon. Si on la lit comme on l'a codé, « tout baigne », si on la lit dans d'autres directions, on a tout simplement n'importe quoi. Et ce n'importe quoi n'a pas d'issue, dans le sens où, si on connaît la polarisation du photon dans une base, il est intrinsèquement impossible de la connaître dans l'autre. C'est à partir de cette idée que l'on peut faire fait de la cryptographie quantique, comme je vais l'expliquer maintenant. Alice va envoyer à Bob des photons polarisés, en choisissant ce que j'appelle une base, c'est-à-dire soit les deux directions horizontales-verticales (h-v), soient les deux directions 45°-135°. Elle peut décider que la direction verticale correspond au bit 1, elle envoie le photon à Bob, Bob l'analyse comme il faut et il récupère le 1, c'est parfait. Là, elle a aussi envoyé un 1, mais Bob a utilisé la mauvaise base. En effet, Bob ne connaît pas à l'avance la base utilisée par Alice, donc il choisit une base au hasard, et là il s'est trompé, pas de chance, et son résultat est alors complètement aléatoire. Là, cela marche à nouveau, Alice avait utilisé cette base, Bob aussi, il a bien récupéré un 0. On constate donc que c'est une façon un peu pénible de transmettre des bits portés par des photons polarisés. On voit aussi que dans la moitié des cas, Bob obtient un résultat qui n'a aucun sens. Que peut-il faire pour se débarrasser des situations où il a mal choisi ? L'astuce est la suivante : lorsqu'il a reçu les photons, c'est-à-dire lorsqu'ils sont arrivés, qu'ils sont enregistrés dans sa machine, il téléphone à Alice et lui dit ici j'ai utilisé la base h-v, ici la base 45°-135°. Et Alice lui indique si son choix a été le bon ou pas. Ici par exemple elle dit que ce n'était pas la bonne base, donc Bob élimine ce photon. Ici, Alice répond oui, c'était la bonne base, Bob garde le photon et bien sûr dans ce cas-là obtient le bit qu'avait envoyé Alice. On élimine donc le caractère aléatoire de la mesure en effectuant un tri a posteriori. Ceci permet de construire un ensemble de bits échangés, qui sont identiques si tout s'est bien passé pour Alice et Bob.
C'est une façon bien laborieuse d'échanger des bits, mais l'intérêt de la méthode va apparaître en examinant ce qui se passe si on a un espion sur la ligne. Cet espion va essayer de détecter la polarisation envoyée par Alice sans arrêter le photon, pour passer inaperçu. Par exemple ici, il peut mettre un polariseur comme cela, récupérer un 1, et renvoyer ce photon polarisé à 45° pour tromper Bob. Mais comme Bob n'utilise pas la même base qu'Alice, ils vont éliminer ce photon, et l'effort d'Eve n'aura servi à rien. Dans le cas suivant, l'espion détecte un photon polarisé horizontalement, il le renvoie à Bob, qui cette fois utilise la même base qu'Alice, et obtient un photon polarisé verticalement. Alors là il s'est passé quelque chose : Alice avait envoyé un 0, Bob a utilisé la bonne base, et néanmoins le photon détecté n'est pas le bon. L'intervention de l'espion a donc créé une erreur de transmission. En examinant un à un les différents cas, je ne vais pas en faire la liste complète, on peut se convaincre facilement que les interventions de l'espion vont forcément créer des erreurs. Ces erreurs vont alors permettre à Alice et Bob de détecter la présence de l'espion.

A ce stade du raisonnement, l'auditoire est généralement perdu, donc permettez- moi d'anticiper quelques questions que vous vous posez probablement. Première question : si Bob révèle sa base de mesure, pourquoi l'espion ne peut-il pas simplement écouter cette révélation, et en savoir autant que Bob à la fin ? Cette question est fondamentale, et il faut bien comprendre la réponse : si elle veut savoir quelque chose, Eve doit faire quelque chose au moment où le photon passe, et à ce moment le photon n'est pas encore arrivé chez Bob, donc il n'a pas encore annoncé sa base. En fait, l'information de base arrive trop tard pour être utile à l'espion, elle arrive quand le photon n'est plus là, et l'espion ne peut rien faire d'efficace. En d'autres termes, si je vous envoie un photon polarisé, il vous est impossible de deviner la polarisation parmi les quatre (h-v-45°-135°) que je peux vous envoyer. Et la mécanique quantique permet de démontrer que plus Eve va augmenter son information, plus elle va créer d'erreurs dans les photons transmis. Elle peut tout savoir, mais alors elle va créer énormément d'erreurs, ou elle peut ne créer aucune erreur, mais alors elle ne saura rien du tout. Donc la réponse à la première question est que Bob a un avantage sur Eve, parce qu'il révèle sa base après avoir lui-même reçu le photon, et qu'au moment où le photon passe, Eve ne connaît pas la base et ne peut rien faire d'efficace. Deuxième question : si tout repose sur une évaluation des erreurs, comment Alice et Bob évaluent-ils les erreurs de transmission ? La réponse est qu'ils échangent d'abord un grand nombre de photons, puis effectuent un sondage sur les données qu'ils ont reçues. En pratique, ils vont choisir au hasard une petite fraction des photons reçus et comparer les résultats, à nouveau Eve peut écouter leur conversation une fois que les photons ont tous été reçus par Bob. Ce que font Alice et Bob ressemble donc à un sondage « sorti des urnes » que l'on fait pour les élections, cela donne une estimation très fiable du taux d'erreurs, qui va les renseigner sur la quantité d'information connue par Eve. Troisième et dernière question : si on effectue une transmission réelle, il y aura certainement toujours quelques erreurs, même s'il n'y a pas d'espion sur la ligne. Comment procède-t-on alors ? Et si Eve est bien là, comment Alice et Bob vont-ils utiliser leur clé secrète, si elle contient des erreurs et qu'elle est partiellement connue d'Eve ? La réponse est qu'avant d'utiliser leur clé, Alice et Bob vont traiter leurs données, c'est-à-dire qu'ils vont appliquer des algorithmes classiques, que je ne vais pas détailler, qui font en sorte que la clé finale, celle qu'ils vont utiliser, est toujours sans erreur et parfaitement sûre. Mais alors, quel est l'effet des erreurs provoquées par Eve ? En fait, les erreurs, qu'elles soient ou non dues à Eve, ont pour effet de diminuer la taille de la clé secrète. S'il n'y a aucune erreur tous les bits sont bons, et la taille de la clé est simplement égale au nombre de bits reçus par Bob. Plus il y a d'erreurs, plus la clé est petite, et finalement quand il y a beaucoup d'erreurs, en pratique plus de 11 % d'erreurs, il n'y a plus de clé du tout. Donc après avoir appliqué ce traitement des données que je ne détaille pas davantage, Alice et Bob obtiennent dans tous les cas une clé parfaitement sûre et sans erreur. Le point central est de pouvoir évaluer ce que connaît Eve en évaluant les erreurs, et la clé est d'autant plus petite qu'il y a davantage d'erreurs, mais si la clé existe elle est parfaitement secrète et ne contient aucune erreur.

En conclusion, la cryptographie quantique permet en principe d'échanger des clés secrètes, avec une sécurité aussi grande que la confiance qu'on accorde à la mécanique quantique. C'est donc une idée très séduisante, mais comment la faire fonctionner en pratique ? De nombreux travaux ont été réalisés depuis quelques années pour répondre à cette question, et des dispositifs ont été construits et sont même maintenant commercialisés, par exemple par une société genevoise qui s'appelle idQuantique. Dans ce cas les photons sont envoyés dans des fibres optiques, mais il y a eu aussi des échanges en espace libre, par exemple entre deux sommets séparés de 23 Km et situés en Allemagne, sur le Zugspitze. On voit ici le principe du dispositif, les photons polarisés sont envoyés dans un petit télescope comme ceux que vous utilisez quand vous faites de l'astronomie amateur. On voit ici le récepteur de Bob, avec des polariseurs et des compteurs de photons qui analysent une polarisation parmi quatre, suivant le protocole que j'ai présenté. L'objectif à terme de ces expériences en espace libre est de distribuer des clés secrètes à partir d'un satellite en orbite basse. Voici maintenant une autre expérience qu'on a fait à Orsay, en utilisant la source que j'ai déjà présentée, qui émet vraiment des photons un par un. Ces photons sont ensuite codés en polarisation, et si vous regardez bien ici, vous voyez qu'on envoie les photons par la fenêtre, pour échanger la clé secrète entre deux bâtiments. Voici un exemple de résultat : on obtient tout d'abord des chaînes de bits avec des erreurs, puis on mesure le taux d'erreurs, je vous l'ai expliqué, ensuite on corrige ces erreurs avec les algorithmes dont j'ai parlé aussi, et finalement on réduit la taille de la clé pour qu'elle soit complètement inconnue d'Eve. Ce système peut produire 16000 bits secrets par seconde, ce n'est pas beaucoup mais c'est vraiment secret, garanti quantique.

Quelles sont les perspectives commerciales de ces dispositifs ? Actuellement, la compagnie Id quantique à Genève, et la compagnie MagiQ Technologies aux Etats-Unis, vendent des systèmes complets de distribution de clé via des fibres optiques. La portée est de quelques dizaines de kilomètres, et le débit de quelques milliers de bits secrets par seconde. Il y a aussi beaucoup d'activités de recherche dans ce domaine, en Europe et aux Etats-Unis. Actuellement ces systèmes fonctionnent assez bien, mais ils imposent des contraintes d'utilisation assez déroutantes par rapport aux méthodes de cryptage actuelles, qui sont essentiellement basées sur des logiciels. Il n'est donc pas encore vraiment clair que la cryptographie quantique ait vraiment un avantage compétitif, mais il est clair qu'elle a déjà éliminé beaucoup de difficultés qu'on croyait insurmontables au départ. D'ici quelques années, je pense qu'on pourra dire si la cryptographie quantique peut jouer un rôle dans le cadre des télécommunications grand public, ou si elle ne peut intéresser que quelques utilisateurs très riches, et très avides de sécurité.
Pour terminer, je voudrais dire quelques mots de ce qu'on appelle le calcul quantique, c'est-à-dire de l'idée que les objets quantiques pourraient non seulement être utilisés pour transmettre des messages secrets, mais aussi pour effectuer des calculs. Dans ce contexte, un concept très utile est le bit quantique, ou qubit. Qu'est-ce donc qu'un qubit ? Et tout d'abord, qu'est ce qu'un bit classique ? C'est un système à deux états, qu'on appelle usuellement « 0 » et « 1 ». Un bit quantique, c'est a priori la même chose, 0 et 1 aussi, mais en mécanique quantique on a vu qu'on peut faire des combinaisons linéaires d'états, qui sont aussi des interférences. Voyons un exemple, qui montrera que vous avez déjà vu des qubits sans le savoir, en considérant à nouveau un photon polarisé. On peut associer le bit « 0 » à la polarisation horizontale, et le bit « 1 » à la polarisation verticale. Qu'est-ce alors qu'une combinaison linéaire de 0 et de 1 ? C'est en fait exactement ce dont je parlais tout à l'heure, puisque la polarisation à 45° correspond à la combinaison linéaire 0+1, et la polarisation à 135° à la combinaison linéaire 0-1. Donc un photon est un qubit, c'est même un excellent qubit, et c'est ce qui fait le succès de la cryptographie quantique. Les propriétés du qubit correspondent physiquement au fait que le photon peut être dans deux états mutuellement exclusifs, mais que ces deux états peuvent interférer. Cela semble presque trop simple, mais c'est exactement la base de la physique du qubit, telle que nous l'avons utilisée pour faire de la cryptographie quantique.

Mais pour faire des calculs, il manque encore un point très important, qui est qu'il faut utiliser un grand nombre de qubits. Ceci a des conséquences cruciales que je voudrais souligner maintenant. Considérons donc un registre, un ensemble de qubits, en supposant par exemple que chaque qubit est un photon dont la polarisation peut tourner. Si on raisonne naïvement, on peut alors définir l'état de chaque photon par l'angle dont la polarisation a tourné, je vais appeler cela un « bit continu » plutôt qu'un qubit. On a donc N variables continues,

 
 
 
 

LA TURBULENCE

 

 

 

 

 

 

 

LA TURBULENCE

Cinq siècles après les travaux de Léonard de Vinci sur le contrôle des tourbillons et de leur effet dans la rivière Arno, le sujet n'est toujours pas clos. Au XXème siècle ce sont d'abord les innombrables applications pratiques (par exemple dans le domaine de l'aéronautique) qui ont été le moteur d'un progrès qui se concrétisait plutôt par le développement de modèles empiriques que par de véritables percées fondamentales. A partir de 1940, grâce en particulier au mathématicien russe Andrei Nikolaevich Kolmogorov, une véritable théorie a été proposée. Elle s'est révélée à la fois féconde en applications (en modélisation pour l'ingénieur) et pas tout à fait correcte : la théorie de Kolmogorov est invariante d'échelle (auto-similaire) alors que dans la réalité cette invariance d'échelle est brisée (un peu comme l'homogénéité de l'Univers est brisée par la présence de galaxies, d'étoiles, de cristaux, d'êtres vivants, etc.). on commence seulement depuis peu à comprendre le mécanisme physique et mathématique de cette brisure. Une véritable théorie de la turbulence pourrait naître dans les prochaines années.

Texte de la 177e conférence de l’Université de tous les savoirs donnée le 25 juin 2000.
La turbulence par Uriel Frisch
1
Comme ma conférence se situe dans le cadre du thème « Perspectives sur les mathématiques actuelles », je vais bien entendu vous parler aussi des aspects de la turbulence qui relèvent des mathématiques. Toutefois, le sujet est très interdisciplinaire et touche, comme vous le verrez, aussi à la physique, à la mécanique des fluides, à la météorologie et à l'astrophysique. Apres une brève introduction, je vous dirai deux mots de la formulation du problème, puis je vous parlerai de transition, de chaos, d'effet papillon, de mouvement Brownien, de chou-fleur et enfin du million de dollars que M. Clay nous a promis.
Le mot « turbulence » signifiait a l'origine « mouvements désordonnés d'une foule » (en latin turba signifie foule). Au Moyen Âge « turbulences » était utilisé comme synonyme de « troubles ». C'est ainsi que, sur un manuscrit en vieux français exposé au musée J. Paul Getty à Los Angeles, j'ai trouvé récemment un « Seigneur, délivrez nous des turbulences ». Comme vous le voyez, le sens a ensuite évolué.
Tout d'abord, la turbulence fait partie de l'expérience quotidienne : nul besoin d'un microscope ou d'un télescope pour observer les volutes de la fumée d'une cigarette, les gracieuses arabesques de la crème versée dans le café, ou les enchevêtrements de tourbillons dans un torrent de montagne [figure 1]. Ce que nous voyons, c'est très complexe, c'est très désordonné mais c'est très loin d'être le désordre total. Quand on regarde un écoulement turbulent, même en instantané, sur une photo, ce que l'on voit est autrement plus fascinant que l'espèce de chaos total obtenu, par exemple, en projetant une poignée de sable sec sur une feuille de papier. La turbulence, quand vous l'observez, est pleine de structures, en particulier de « tourbillons », entités connues depuis l'Antiquité, étudiées et peintes par Léonard de Vinci (qui fut sans doute le premier à utiliser le mot de turbulence – turbolenza en Italien – pour décrire les mouvements complexes de l'eau ou de l'air). Je crois que c'est ce mélange intime d'ordre et de désordre qui en fait a la fois le charme et, il faut bien le dire, une des principales difficultés.
2
Figure 1
Il est très facile d'obtenir de la turbulence. En fait, chaque fois qu'un fluide s'écoule autour d'un obstacle, par exemple dans le sillage d'un bateau, et si la vitesse est suffisante, eh bien, on aura de la turbulence. On trouve donc de la turbulence un peu partout : la circulation du sang à l'intérieur des vaisseaux sanguins, les écoulements de l'air autour d'une automobile ou d'un avion – responsable des fameuses « turbulences » pour lesquelles on nous demande d'attacher nos ceintures –, ou encore les mouvements de l'atmosphère en météorologie, les mouvements du gaz constituant les étoiles comme notre Soleil, et enfin les fluctuations de densité de l'Univers primitif donnant naissance ultérieurement aux grandes structures de l'Univers actuel, comme les amas de galaxies [figure 2]. Sans toute cette turbulence, la pollution urbaine persisterait pendant des millénaires, la chaleur produite par les réactions nucléaires dans les étoiles ne pourrait pas s'en échapper sur une échelle de temps acceptable et les phénomènes météorologiques deviendraient prévisibles à très long terme.
3
Figure 2 : Amas de galaxies simulé par la Collaboration Virgo en 1996. Il s’agit d’une simulation tri-dimensionnelle comportant 256X256X256 particules.
Les équations qui gouvernent les mouvements des fluides, qu'ils soient turbulents ou non, ont été écrites pour la première fois par Claude Navier en 1823. Elles sont souvent appelées équations de Navier-Stokes en raison des perfectionnements apportes ultérieurement par George Stokes. En fait il s'agit essentiellement des équations de Newton, qui relient la force et l'accélération, équations qu'il faut appliquer à chaque parcelle du fluide ce qui fut fait pour la première fois par Léonard Euler il y a trois siècles. L'apport crucial de Navier a été d'ajouter aux équations d'Euler un terme de friction entre les diverses couches de fluide proportionnel au coefficient de viscosité et aux variations de vitesse [figure 3]. Ces équations, que l'ont sait par exemple résoudre a l'ordinateur, comportent encore des défis majeurs sur lesquels je vais revenir.
4
Figure 3
La turbulence est devenue une science expérimentale vers la fin du XIXe siècle quand l'anglais Osborne Reynolds a pu observer la transition du régime laminaire au régime turbulent. Vous savez que, dans un tuyau, si l'eau passe lentement, on aura des filets bien réguliers, c'est-à-dire un écoulement laminaire. Si elle va trop vite, il apparaît un très grand nombre de tourbillons et les pertes de charges dans le tuyau vont être très différentes. Reynolds put mettre en évidence des lois assez simples relatives à n'importe quel tuyau pour cette transition vers la turbulence ; il introduisit un nombre, appelé depuis nombre de Reynolds, qui n'est autre que le produit du diamètre du tuyau D et de la vitesse moyenne de l'écoulement dans le tuyau V, le tout divisé par la viscosité du fluide ν (viscosité de l’air environ 0,1 cm2/S, viscosité de l’eau 0,01 cm2/S) soit R = DV/ν. Reynolds a montré que lorsque ce nombre dépasse une certaine valeur critique, de l'ordre de quelques milliers, alors tout d'un coup, l'écoulement devient turbulent. Des transitions analogues mais plus spectaculaires s'observent dans des écoulements ouverts derrière un cylindre [figure 4]. Léonard avait déjà vu le phénomène d'allée tourbillonnaire et l'avait représente de façon presque correcte [figure 5].
Figure 4 : L’allée tourbillonnaire de von Kármán.
Figure 5 : Recirculations à l’aval d’un élargissement brusque par Léonard de Vinci.
Une caractéristique très importante de ces écoulements turbulents, qui apparaît dès la transition, est leur caractère chaotique. De façon plus précise, les écoulements turbulents apparaissent comme non prédicibles. Qu'est-ce que cela veut dire, non prédicibles? Supposons que l'on connaisse de façon détaillée la configuration de l'écoulement à un instant donné. Alors, bien que cet écoulement soit régi par des équations bien déterminées, déterministes comme on dit, dans la pratique, il n'est pas possible de prédire l'évolution ultérieure pour des temps longs. Cette théorie du chaos, qui doit beaucoup à Henri Poincaré, à David Ruelle, à Edward Lorenz et à l'École russe de Kolmogorov et de ses élèves Vladimir Arnold et Yacov Sinai, a des implications très importantes en météorologie. Imaginons que, pour prévoir le temps, on mesure, à un instant donné, le vent, la pression, la température en tous les points de la planète et que l'on essaie de prédire l'évolution ultérieure du temps par un calcul à l'ordinateur. En fait, au bout d'un temps relativement court, vous ne pourrez plus prédire de façon détaillée dans quel état se trouve l'atmosphère, et cela quelle que soit la puissance des ordinateurs. On dit que la turbulence atmosphérique est non prédicible, elle finit par être sensible au moindre éternuement ou à un battement d'aile d'un papillon, comme l'a suggère le météorologue américain E. Lorenz. Son « effet papillon » est illustré sur la
5
6 figure 6 où les courbes représentent non pas la trajectoire d'un papillon mais – de
façon symbolique – la trajectoire du point représentatif de l'ensemble du système étudié. La courbe noire correspond au cas sans papillon et la courbe rouge à la trajectoire modifiée par la présence initiale d'un battement d'aile d'un papillon. Les deux trajectoire restent d'abord proches (pour le montrer j'ai répété la trajectoire noire en pointillé) puis s'écartent assez vite. Dans la pratique il n'est pas possible de prédire en détail le temps qu'il fera au-delà d'environ une dizaine de jours. Toutefois des progrès récents, qui doivent beaucoup aux travaux de Michael Ghil, Bernard Legras et Robert Vautard, rendent concevables des prévisions un peu plus grossières à l'échelle de plusieurs semaines, voire de plusieurs mois dans les régions tropicales.
Figure 6 : L’effet papillon.
En géophysique et en astrophysique des nombres de Reynolds gigantesques de centaines de millions et bien au-delà sont monnaie courante. Un point très intéressant est que, lorsqu'on augmente le nombre de Reynolds, ce qui peut se faire par exemple en diminuant sa viscosité, il apparaît de plus en plus de tourbillons de petite taille comme vous le voyez sur la figure 7 qui présente un jet turbulent. Chaque tourbillon est un peu comme une espèce de molécule. C'est ce que l'on appelle des « degrés de liberté ». Donc un grand nombre de Reynolds, cela veut dire qu'il y a beaucoup de degrés de liberté; c'est ce que l'on appelle le régime de turbulence développée. Il est facile d'observer ce régime dans une soufflerie de grande taille comme celles où l'on teste les maquettes d'autos et d'avions. On peut aussi maintenant réaliser des souffleries sur table qui exploitent les propriétés très particulières de l'Hélium à basse température, comme l'ont montré les travaux de Bernard Castaing à Grenoble et de Patrick Tabeling à Paris. Si on examine le comportement en fonction du temps de la vitesse en un point d'un tel écoulement mesuré par une sonde, on est frappé de l'analogie avec la courbe du mouvement Brownien [figure 8]. Cette dernière peut être imaginée comme le relevé en fonction du temps de la position d'un ivrogne arpentant la grand rue d'un village
7 aux innombrables bistrots, ivrogne qui déambulerait tantôt dans un sens tantôt dans
l'autre sans jamais se souvenir du sens précédent de sa marche au hasard. Il est facile de voir que le déplacement typique d'un tel ivrogne pendant un certain intervalle de temps est proportionnel non pas au temps écoulé mais à sa racine carrée (la même loi que celle qui régit les erreurs dans les sondages d'opinion). Dans un écoulement turbulent développe on trouve que la variation de la vitesse pendant un certain intervalle de temps est proportionnelle, non à la racine carrée mais à la racine cubique du temps écoulé. Cette loi en racine cubique, obtenue en fait par un argument dimensionnel lié à la conservation de l'énergie, fut prédite en 1941 par le mathématicien russe Andrei Kolmogorov et a été assez largement validée par des expériences et des simulations à l'ordinateur. En fait, des 1922 l'anglais Lewis Fry Richardson, avait pressenti ce qui se passait en présentant sa vision de la cascade d'énergie des grandes vers les petites échelles d'un écoulement turbulent, vision directement inspirée d'un poème du poète anglais Jonathan Swift :
« So, nat'ralists observe, a flea
Hath smaller fleas that on him prey; And these have smaller yet to bite 'em, And so proceed ad infinitum. »
8
Figure 7 : Jet d’eau turbulent (d’après Dimotakis, Lye et Papantoniou, 1981).
9
Figure 8 : Mouvement brownien.
Plutôt que de me hasarder à traduire, je vous demande d'imaginer une grosse puce en train de sucer le sang de votre chien, sang qui va ici jouer le rôle que l'énergie cinétique joue en turbulence. Maintenant, imaginez que la grosse puce est à son tour assaillie de puces plus petites qui lui sucent le sang et ainsi de suite jusqu'a atteindre des puces tellement petites que le sang y est décomposé par des processus moléculaires. Il est clair que le monstre ainsi sorti de l'imagination de Swift constitue ce que Benoît Mandelbrot a appelé une fractale. Ces fractales peuvent être caractérisées par une dimension qui n'est pas un nombre entier. Les objets de dimension entière 0, 1, 2, 3 sont, par exemple, des points, des lignes, des surfaces et des volumes. Pour imaginer un objet de dimension fractale entre 2 et 3 pensez par exemple à un chou-fleur. La dimension fractale de la turbulence – plus précisément ce que les mathématiciens appellent la dimension de Hausdorff de la dissipation d'énergie – est très proche de trois. Si c'était vraiment trois, la théorie proposée par Kolmogorov en 1941 serait exacte, ce qui explique le succès qu'a rencontré cette théorie dans l'élaboration de modèles empiriques pour les calculs des ingénieurs.
Le calcul de telles dimensions à partir des équations fondamentales de la mécanique des fluides reste un problème ouvert. Toutefois des progrès importants ont été faits ces dernières années en utilisant des outils mathématiques empruntés à la théorie quantique des champs, appliqués à un modèle simplifié dû à l'américain Robert Kraichnan. Dans ce modèle on suppose l'écoulement turbulent connu et l'on cherche à caractériser les propriétés d'un traceur transporté par cette turbulence, comme illustré par la figure 9 de Antonio Celani, Alain Noullez et Massimo Vergassola, représentant un instantané de la concentration d'un traceur obtenu par simulation a l'ordinateur. On peut imaginer par exemple qu'il s'agit de la concentration d'un polluant lâché dans l'océan, On sait maintenant calculer les propriétés fractales de tels polluants, mais il faudra sans doute des années avant de pouvoir mener à bien une entreprise comparable pour les propriétés fractales de la turbulence elle-même.
10
Figure 9 : Concentration d’un scalaire passif (polluant) transporté par un écoulement turbulent bi-dimensionnel du type que l’on trouve dans l’atmosphère et l’océan, simulé
numériquement sur une grille 2048x2048. Le scalaire est fortement intermittent et possède des propriétés d’échelle « anomales » qui ne peuvent être prédites par l’analyse dimensionnelle. Concentrations les plus faibles en bleu et les plus fortes en jaune.
Figure de Celani (A.), Noullez (A.) et Vergassola (M.), Observatoire de la Côte d’Azur, laboratoire G.-D. Cassini , UMR 6529 ; simulations à l’IDRIS, CNRS.
Dans un écoulement turbulent, si la variation temporelle de la vitesse en un point est généralement bien donnée par la loi en racine cubique de Kolmogorov, on sait depuis longtemps que ce n'est pas toujours vrai. Déjà en 1843 Adhémar Barré de Saint Venant observe que « les écoulements dans les canaux de grande section, ceux dont nous dirions aujourd'hui qu'ils possèdent un grand nombre de Reynolds présentent des ruptures, des tourbillonnements et autres mouvements compliques ». Le point intéressant ce sont les ruptures. C'est un fait expérimental que la vitesse de l'écoulement peut, à l'occasion, varier de façon considérable entre deux points voisins. Si par hasard l'échelle de cette variation devenait comparable à la distance parcourue par les molécules du fluide entre deux collisions successives, alors il faudrait repenser les fondements mathématiques des équations de Navier- Stokes. La façon traditionnelle d'obtenir ces équations suppose en effet une forte séparation entre le monde microscopique des molécules et le monde, appelé « macroscopique » où le fluide est traite comme un milieu continu.
Cela m'amène au grand défit mathématique qui fait l'objet d'un des sept prix d'un montant d'un million de dollars annoncés récemment par la fondation Clay au Collège de France. Le problème est de montrer que les équations de Navier-Stokes conduisent à un
11
problème « bien posé ». Cela veut dire que si l'on connaît le mouvement du fluide à
un instant initial on veut pouvoir montrer qu'il y a une solution unique à tout instant ultérieur. Notez que cette fois le problème n'est pas celui des erreurs mais de l'unicité de la solution. Ce problème a été résolu dans les années trente par Jean Leray dans le cas de deux dimensions d'espace (ce qui est pertinent en météorologie et en océanographie). Le problème est beaucoup plus difficile en dimension trois. Je vais essayer maintenant de donner un tout petit aperçu de la difficulté, sans utiliser de formalisme mathématique. Tout d'abord il faut noter que dans un fluide qui n'est pas en mouvement uniforme les filets fluides frottent les uns contre les autres, en raison de la viscosité, ce qui tend à ralentir leur mouvement relatif. À faible vitesse, donc à faible nombre de Reynolds (ce dernier est proportionnel à la vitesse), les effets du frottement visqueux sont très importants pour tous les tourbillons présents dans l'écoulement. Ce frottement rabote tout et l'on sait démontrer – ce n'est pas très difficile – que le problème est bien posé. En revanche, à grand nombre de Reynolds, les effets du frottement visqueux sont limités aux plus petits tourbillons et le problème est proche du problème du fluide parfait dans lequel la viscosité est ignorée. On sait montrer que ce dernier problème est bien posé pendant un temps court mais pas au-delà. En gros, le mieux qu'on sait démontrer pour l'instant, c'est que le fluide parfait ne se comporte pas mieux qu'un mobile dont l'accélération serait proportionnelle au carré de la vitesse, hypothèse qui conduit à une augmentation catastrophique de la vitesse qui peut devenir infinie au bout d'un temps assez court [figure 10]. Certaines simulations numériques à l'ordinateur suggèrent que le fluide parfait est en réalité bien plus sage, n'explose pas, et conduit de ce fait à un problème bien posé pour des temps arbitrairement longs. Il est possible aussi que le fluide parfait explose rapidement mais que l'effet du frottement visqueux empêche cette explosion. C'est précisément ce qui se passe dans la théorie de 1941 de Kolmogorov, mais pas nécessairement dans la réalité.
Figure 10 : L’accélération est proportionnelle au carré de la vitesse : la vitesse explose au bout d’un temps fini.
En conclusion, je voudrais souligner que la turbulence a un statut très particulier dans la physique contemporaine. Elle est souvent considérée comme un des grands problèmes
12
ouverts de la physique, mais contrairement à d'autres problèmes frontières de la physique, les phénomènes auxquels on s'intéresse en turbulence ne se situent ni dans l'infiniment petit ni, en général, dans l'infiniment grand. Ces phénomènes sont parfaitement décrits par la mécanique de Newton, sans qu'il soit nécessaire de faire intervenir la mécanique quantique ou la mécanique relativiste, c'est-à-dire les idées modernes de la physique sur l'espace, le temps et la matière. Comme vous le voyez, la physique, dite « classique », celle qui est enseignée au lycée, comporte encore quelques grands mystères.

 

   VIDEO       CANAL  U         LIEN 

 


 

 
 
 
 

INTELLIGENCE ARTIFICIELLE

 

 

 

 

 

 

 

intelligence artificielle

Consulter aussi dans le dictionnaire : intelligence
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.


INTELLIGENCE ARTIFICIELLE ET SCIENCES COGNITIVES
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.

LES SCIENCES COGNITIVES
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

LE PROJET ET SON DÉVELOPPEMENT
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

LES PRÉCURSEURS
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

NAISSANCE ET ESSOR DE L'INFORMATIQUE
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.

LE FONDATEUR
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

MISE EN FORME DE L'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

LES CRITIQUES DU PROJET
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

OBJECTION LOGIQUE
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.

OBJECTION ÉPISTÉMOLOGIQUE
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

OBJECTION PHILOSOPHIQUE
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

LA RÉSOLUTION DE PROBLÈMES
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

ALGORITHMES ET HEURISTIQUE
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

LE CAS EXEMPLAIRE DU JEU D'ÉCHECS
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).

LES RÉSEAUX NEURONAUX
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

UNE PREMIÈRE TENTATIVE INFRUCTEUSE
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

LES RÉSEAUX ACTUELS
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

QUELQUES APPLICATIONS
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

INTELLIGENCE ARTIFICIELLE ET ÉDUCATION
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

PERSPECTIVES
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA SANS REPRÉSENTATION DE CONNAISSANCE
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« ARTIFICIAL LIFE »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.

Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google