ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

CHAOS, IMPRDICTIBILIT, HASARD

 

 

 

 

 

 

 

CHAOS, IMPRÉDICTIBILITÉ, HASARD

Réalisation : 5 août 2000 - Mise en ligne : 5 août 2000
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3

Descriptif
Le monde qui nous entoure paraît souvent imprévisible, plein de désordre et de hasard. Une partie de cette complexité du monde est maintenant devenue scientifiquement compréhensible grâce à la théorie du chaos déterministe. Cette théorie analyse quantitativement les limites à la prédictibilité d'une l'évolution temporelle déterministe : une faible incertitude initiale donne lieu dans certains cas à une incertitude croissante dans les prévisions, et cette incertitude devient inacceptable après un temps plus ou moins long. On comprend ainsi comment le hasard s'introduit inévitablement dans notre description du monde. L'exemple des prévisions météorologiques est à cet égard le plus frappant. Nous verrons comment les idées à ce sujet évoluent de Sénèque à Poincaré, puis nous discuterons comment le battement d'ailes du papillon de Lorenz peut affecter la météo, donnant lieu à des ouragans dévastateurs des milliers de kilomètres plus loin. Ainsi, la notion de chaos déterministe contribue non seulement à notre appréciation pratique des incertitudes du monde qui nous entoure, mais encore à la conceptualisation philosophique de ce que nous appelons cause et de ce que nous appelons hasard.


Documents pédagogiques

Texte de la 218e conférence de l’Université de tous les savoirs donnée le 5 août 2000.
Chaos, imprédictibilité et hasard par David Ruelle
Pour interpréter le monde qui nous entoure nous utilisons un grand nombre de concepts très divers. Certains concepts sont concrets comme vache, puceron, papillon, d’autres abstraits comme espace, temps, hasard, ou causalité. Ces concepts sont des créations humaines : leur histoire est intimement liée à celle du langage, et leur contenu peut varier d’une culture à une autre. Nous pensons que des mots comme espace, temps, hasard, causalité correspondent à des réalités fondamentales, indépendantes de la culture où nous vivons, et même indépendantes de l’existence de l’homme. Mais il faut bien admettre que les concepts abstraits que nous venons d’énumérer ont évolué au cours de l’histoire, et que cette évolution reflète un progrès dans notre compréhension de la nature des choses. Dans ce progrès, la philosophie et la science ont joué un rôle important. Dès l’Antiquité, par exemple, les gens cultivés avaient acquis une certaine idée de l’immensité de l’univers grâce aux travaux des astronomes. Des notions comme « erratique et imprévisible » ou « peu fréquent et improbable » ont sans doute une origine préhistorique ou même antérieure au langage. En effet, une bonne appréciation des risques peut aider à la survie. Ainsi si l’orage menace il est prudent de se mettre à l’abri. En général il faut se méfier des caprices des gens et de la nature, caprices qui expriment la liberté des hommes et des choses de se comporter parfois de manière aléatoire et imprévisible. Si les notions liées au hasard et au libre choix sont d’une grande aide dans la pratique, la notion de cause est aussi une conceptualisation utile : la fumée par exemple a une cause qui est le feu. De même les marées ont une cause qui est la lune : ce n’est pas tout à fait évident, mais la chose était connue des anciens, et cette connaissance pouvait être fort utile. On peut ainsi essayer de tout expliquer comme un enchaînement plus ou moins évident de causes et d’effets. On arrive de cette manière à une vision déterministe de l’univers. Si l’on y réfléchit un peu, le déterminisme, c’est-à-dire l’enchaînement bien ordonné des causes et des effets semble en contradiction avec la notion de hasard. Sénèque qui eut la charge d’éduquer le jeune Néron se penche sur le problème dans le De Providentia et dit ceci : « les phénomènes mêmes qui paraissent le plus confus et le plus irrégulier : je veux dire les pluies, les nuages, les explosions de la foudre, ..., ne se produisent pas capricieusement : ils ont aussi leurs causes. » Cette affirmation porte en germe le déterminisme scientifique, mais, il faut bien voir que son contenu est surtout idéologique. Sénèque était un amateur d’ordre, un ordre imposé par une loi éternelle et divine. Le désordre et le hasard lui répugnaient. Cependant, comme je l’ai dit, les notions liées au hasard sont utiles, pratiquement et conceptuellement, et l’on perd peut-être plus qu’on ne gagne à les évacuer pour des motifs idéologiques. On peut d’ailleurs reprocher de manière générale aux idéologies de vouloir supprimer des idées utiles, et cela s’applique encore aux idéologies modernes, dans leurs ambitions simplificatrices et leur intolérance aux fantaisies individuelles. Mais quittons maintenant le domaine idéologique pour parler de science. Et puisque le feu est la cause de la fumée, allons voir un physico-chimiste spécialiste des phénomènes de combustion. Il nous apprendra des choses fascinantes, et nous convaincra que les problèmes de combustion sont importants, complexes, et encore mal compris. En fait si l’on s’intéresse aux problèmes de causalité et de déterminisme, plutôt que de passer sa vie à étudier les problèmes de combustion, mieux vaut choisir un problème plus simple. Par exemple celui d’une pierre jetée en l’air, surtout s’il n’y a pas d’air. On peut en effet, avec une très bonne précision, décrire par des équations déterministes la trajectoire d’une pierre jetée en l’air. Si l’on connaît les conditions initiales, c’est-à-dire la position et la vitesse de la pierre à l’instant initial, on peut calculer la position et la vitesse à n’importe quel autre instant. Au lieu d’une pierre jetée en l’air nous pouvons considérer le ballet des planètes et autres corps célestes autour du soleil, ou la dynamique d’un fluide soumis à certaines forces. Dans tous ces cas l’évolution temporelle du système considéré, c’est-à-dire son mouvement, satisfait à des équations déterministes. Si l’on veut, on peut dire que les conditions initiales d’un système sont la cause de son évolution ultérieure et la déterminent complètement. Voilà qui devrait satisfaire Lucius Annaeus Seneca. Notons quand même que le concept de cause a été remplacé par celui d’évolution déterministe, ce qui n’est pas tout à fait la même chose. Par exemple, les équations de Newton qui déterminent les mouvements des planètes permettent à partir de conditions initiales données de calculer non seulement les états futurs du système solaire, mais également les états passés. On a oublié que la cause devait précéder l’effet. En fait, l’analyse scientifique du concept de cause montre qu’il s’agit d’une notion complexe et ambiguë. Cette notion nous est très utile pour vivre dans un monde complexe et ambigu, et nous ne voudrions pas nous en passer. Cependant la science préfère utiliser des concepts plus simples et moins ambigus, comme celui d’équation d'évolution déterministe. Notons d’ailleurs que l’idée de hasard semble incompatible avec la notion d’évolution déterministe tout autant qu’avec un enchaînement bien ordonné de causes et d’effets. Nous allons dans un moment revenir à ce problème. Mais avant cela je voudrais discuter une précaution verbale que j’ai prise en parlant d’équations d’évolution déterministe valables avec une très bonne précision. Si vous demandez à un physicien des équations d’évolution pour tel ou tel phénomène, il vous demandera avec quelle précision vous les voulez. Dans l’exemple de la dynamique du système solaire, suivant la précision requise, on tiendra compte ou non du ralentissement de la rotation de la terre par effet de marée, ou du déplacement du périhélie de Mercure dû à la relativité générale. Il faudra d’ailleurs bien s’arrêter quelque part : on ne peut pas tenir compte, vous en conviendrez, des déplacements de chaque vache dans sa prairie, ou de chaque puceron sur son rosier. Même si, en principe, les déplacements de la vache et du puceron perturbent quelque peu la rotation de la terre. En Bref, la physique répond aux questions qu’on lui pose avec une précision qui peut être remarquable, mais pas absolument parfaite. Et cela n’est pas sans conséquences philosophiques, comme nous le verrons plus loin. J’ai parlé des équations d’évolution déterministes qui régissent les mouvements des astres ou ceux des fluides, de l’atmosphère ou des océans par exemple. Ces équations sont dites classiques car elles ne tiennent pas compte de la mécanique quantique. En fait la mécanique quantique est une théorie plus exacte que la mécanique classique, mais plus difficile à manier, et comme les effets quantiques semblent négligeables pour les mouvements des astres, de l’atmosphère ou des océans, on utilisera dans ces cas des équations classiques. Cependant, la mécanique quantique utilise des concepts irréductibles à ceux de la mécanique classique. En particulier la mécanique quantique, contrairement à la mécanique classique, fait nécessairement référence au hasard. Dans une discussion des rapports entre hasard et déterminisme, ne faudrait-il pas par conséquent utiliser la mécanique quantique plutôt que classique ? La situation est la suivante : la physique nous propose diverses théories plus pou moins précises et dont les domaines d’application sont différents. Pour une classe donnée de phénomènes plusieurs théories sont en principe applicables, et on peut choisir celle que l’on veut : pour toute question raisonnable la réponse devrait être la même. En pratique on utilisera la théorie la plus facile à appliquer. Dans les cas qui nous intéressent, dynamique de l’atmosphère ou mouvement des planètes, il est naturel d’utiliser une théorie classique. Après quoi il sera toujours temps de vérifier que les effets quantiques ou relativistes que l’on a négligés étaient réellement négligeables. Et que somme toute les questions que l’on s’est posées étaient des questions raisonnables. Les progrès de la physique ont montré que les équations d’évolution déterministes étaient vérifiées avec une précision souvent excellente, et parfois stupéfiante. Ces équations sont notre reformulation de l’idée d’enchaînement bien ordonné de causes et d’effets. Il nous faut maintenant parler de hasard, et essayer de reformuler ce concept en termes qui permettent l’application des méthodes scientifiques. On dit qu’un événement relève du hasard s’il peut, pour autant que nous sachions, soit se produire soit ne pas se produire, et nous avons tendance à concevoir notre incertitude à ce sujet comme ontologique et fondamentale. Mais en fait l’utilité essentielle des concepts du hasard est de décrire une connaissance entachée d’incertitude, quelles que soient les origines de la connaissance et de l’incertitude. Si je dis qu’à cette heure-ci Jean Durand a une chance sur deux d’être chez lui, je fournis une information utile : cela vaut la peine d’essayer de téléphoner à son appartement. La probabilité un demi que j’attribue au fait que Jean Durand soit chez lui reflète ma connaissance de ses habitudes, mais n’a pas de caractère fondamental. En particulier, Jean Durand lui-même sait très bien s’il est chez lui ou pas. Il n’y a donc pas de paradoxe à ce que des probabilités différentes soient attribuées au même événement par différentes personnes, ou par la même personne à des moments différents. Le hasard correspond à une information incomplète, et peut avoir des origines diverses. Il y a un siècle environ, Henri Poincaré a fait une liste de sources possibles de hasard. Il mentionne par exemple qu’au casino, c’est le manque de contrôle musculaire de la personne qui met en mouvement la roulette qui justifie le caractère aléatoire de la position où elle s’arrête. Pour des raisons historiques évidentes, Poincaré ne mentionne pas la mécanique quantique comme source de hasard, mais il discute une source d’incertitude qui a été analysée en grand détail beaucoup plus tard sous le nom de chaos et que nous allons maintenant examiner. Prenons un système physique dont l’évolution temporelle est décrite par des équations déterministes. Si l’on connaît l’état du système à un instant initial, d’ailleurs arbitraire, on peut calculer son état à tout autre instant. Il n’y a aucune incertitude, aucun hasard. Mais nous avons supposé implicitement que nous connaissions l’état initial avec une totale précision. En fait, nous ne pouvons mesurer l’état initial qu’avec une précision limitée (et d’ailleurs les équations déterministes que nous utilisons ne représentent qu’approximativement l’évolution réelle du système physique qui nous occupe). Il faut donc voir comment une petite imprécision dans notre connaissance de l’état initial au temps 0 (zéro) va affecter nos prédictions sur un état ultérieur, au temps t. On s’attend à ce qu’une incertitude suffisamment petite au temps 0 donne lieu à une incertitude petite au temps t. Mais la question cruciale est de savoir comment cette incertitude va dépendre du temps t. Il se trouve que pour beaucoup de systèmes, dits chaotiques, l’incertitude (ou erreur probable) va croître rapidement, en fait exponentiellement avec le temps t. Cela veut dire que si l’on peut choisir un laps de temps T au bout duquel l’erreur est multipliée par 2, au temps 2T elle sera multipliée par 4, au temps 3T par 8, et ainsi de suite. Au temps 10T le facteur est 1024, au temps 20T plus d’un million, au temps 30T plus d’un milliard ... et tôt ou tard l’incertitude de notre prédiction cesse d’être petit pour devenir inacceptable. Le phénomène de croissance rapide des erreurs de prédiction d’un système physique, que l’on appelle chaos , introduit donc du hasard dans la description d’un système physique, même si ce système correspond à des équations d’évolution parfaitement déterministes comme celles de la dynamique des fluides ou du mouvement des astres. Voici ce que dit Henri Poincaré dans le chapitre sur le hasard de son livre Science et Méthode publiée en 1908 : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. » Cette affirmation, Poincaré en donne un exemple emprunté à la météorologie : « Pourquoi Les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir de la pluie ou du beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de la dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées ni assez précises, et c’est pour cela que tout semple dû à l’intervention du hasard. » Les affirmations de Poincaré sur la météorologie dépassent, il faut bien le dire, ce que la science du début du 20-ième siècle permettait d’établie scientifiquement. Les intuitions géniales de Poincaré ont été confirmées, mais on trouverait sans peine des intuitions d’autres savants qui se sont révélées fausses. Il est donc heureux que, après avoir été oubliées, les idées de Poincaré aient été redécouvertes, étendues, et soumises à une analyse scientifique rigoureuse. Cette nouvelle période commence avec un article de Lorenz relatif à la météorologie en 1963, un article de Takens et moi-même sur la turbulence en 1971, puis une foule de travaux dans les années 70, 80, 90 qui édifient la théorie moderne du chaos. Le mot chaos lui-même apparaît dans son sens technique en 1975. Il n’est possible de donner ici qu’une vue très sommaire des aspects techniques de la théorie du chaos, mais j’insiste sur le fait que les résultats techniques sont essentiels. Ces résultats permettent de changer l’affirmation du sens commun suivant laquelle « de petites causes peuvent avoir de grands effets » en affirmations quantitatives comme celle concernant l’effet papillon dont nous parlerons dans un moment. La théorie du chaos étudie donc en détail comment une petite incertitude sur l’état initial d’une évolution temporelle déterministe peut donner lieu à une incertitude des prédictions qui croît rapidement avec le temps. On dit qu’il y a dépendance sensitive des conditions initiales. Cela veut dire que de petites causes peuvent avoir de grands effets, non seulement dans des situations exceptionnelles, mais pour toutes les conditions initiales. En résumé, le terme chaos désigne une situation où, pour n’importe quelle condition initiale, l’incertitude des prédictions croît rapidement avec le temps. Pour donner un exemple, considérons un faisceau de rayons lumineux parallèles tombant sur un miroir convexe. Après réflexion, nous avons un faisceau divergent de rayons lumineux. Si le faisceau initial était divergent, il serait encore plus divergent après réflexion. Si au lieu de rayons lumineux et de miroir nous avons une bille de billard qui rebondit élastiquement sur un obstacle convexe, la situation géométrique est la même, et on conclut qu’une petite incertitude sur la trajectoire de la bille avant le choc donne lieu à une incertitude plus grande après le choc. S’il y a plusieurs obstacles convexes que la bille heurte de façon répétée, l’incertitude croît exponentiellement, et on a une évolution temporelle chaotique. Cet exemple était connu de Poincaré, mais ce n’est que bien plus tard qu’il a été analysé de manière mathématiquement rigoureuse par Sinaï. Comme l’étude mathématique des systèmes chaotiques est d’une grande difficulté, l’étude du chaos combine en fait trois techniques : les mathématiques, les simulations sur ordinateur, et l’expérimentation (au laboratoire) ou l’observation (de l’atmosphère, des astres). Notons que les simulations sur ordinateur n’existaient pas du temps de Poincaré. Ces simulations ont joué un rôle essentiel en montrant que les systèmes déterministes tant soit peu complexes présentent fréquemment de la sensitivité aux conditions initiales. Le chaos est donc un phénomène très répandu. La météorologie fournit une application exemplaire des idées du chaos. En effet, on a de bons modèles qui décrivent la dynamique de l’atmosphère terrestre. L’étude par ordinateur de ces modèles montre qu’ils sont chaotiques. Si l’on change un peu les conditions initiales, les prédictions après quelques jours deviennent assez différentes : on a atteint la limite de la fiabilité du modèle. Bien entendu les prédictions faites avec ces modèles décollent après quelques jours de la réalité observée, et l’on comprend maintenant pourquoi : le chaos limite la prédictibilité du temps qu’il va faire. Le météorologiste Ed Lorenz, que nous avons déjà mentionné, a rendu populaire le concept de sensitivité aux conditions initiales sous le nom d’effet papillon. Dans un article grand public, il explique comment le battement des ailes d’un papillon, après quelques mois, a un tel effet sur l’atmosphère de la terre entière qu’il peut donner lieu à une tempête dévastatrice dans une contrée éloignée. Cela rappelle ce qu’écrivait Poincaré, mais paraît tellement extrême qu’on peut se demander s’il faut accorder à l’effet papillon plus qu’une valeur métaphorique. En fait, il semble bien que l’affirmation de Lorenz doit être prise au pied de la lettre. On va considérer la situation où le papillon bat des ailes comme une petite perturbation de la situation où il se tiendrait tranquille. On peut évaluer l’effet de cette petite perturbation en utilisant le caractère chaotique de la dynamique de l’atmosphère. (Rappelons que les modèles de l’atmosphère terrestre montrent une dynamique chaotique aux grandes échelles ; aux petites échelles, on a aussi du chaos à cause de la turbulence généralisée de l’air où nous baignons). La perturbation causée par le papillon va donc croître exponentiellement, c’est-à-dire très vite, et l’on peut se convaincre qu’au bout de quelques mois l’état de l’atmosphère terrestre aura changé du tout au tout. De sorte que des lieux éloignés de celui où se trouvait le papillon seront ravagés par la tempête. La prudence m’incite à prendre ici quelques précautions verbales. Il s’agit d’éviter qu’un doute sur un point de détail ne jette le discrédit sur des conclusions par ailleurs bien assurées. On peut se demander comment des perturbations aux petites dimensions (comme la dimension d’un papillon) vont se propager aux grandes dimensions (comme celle d’un ouragan). Si la propagation se fait mal ou très mal, peut-être faudra-t-il plus que quelques mois pour qu’un battement d’ailes de papillon détermine un ouragan ici ou là. Cela rendrait l’effet papillon moins intéressant. A vrai dire, la turbulence développée reste mal comprise et la conclusion de Lorenz reste donc un peu incertaine. L’image du papillon est jolie cependant, il serait dommage qu’on doive l’enterrer et, jusqu’à plus ample informé, j’y reste personnellement attaché. Quoi qu’il en soit, la circulation générale de l’atmosphère n’est pas prédictible plusieurs mois à l’avance. C’est un fait bien établi. Un ouragan peut donc se déclencher ici ou là de manière imprévue, mais cela dépendra peut-être d’incertitudes autres que les battements d’ailes d’un papillon. Si l’on y réfléchit un instant, on voit que le déclenchement d’une tempête à tel endroit et tel moment résulte d’innombrables facteurs agissant quelques mois plus tôt. Que ce soient des papillons qui battent des ailes, des chiens qui agitent la queue, des gens qui éternuent, ou tout ce qui vous plaira. La notion de cause s’est ici à ce point diluée qu’elle a perdu toute signification. Nous avons en fait perdu tout contrôle sur l’ensemble des « causes » qui, a un instant donné, concourent à ce qu’une tempête ait lieu ou n’ait pas lieu ici ou là quelques mois plus tard. Mêmes des perturbations infimes dues à la mécanique quantique, à la relativité générale, ou à l’effet gravitationnel d’un électron à la limite de l’univers observable, pourraient avoir des résultats importants au bout de quelques mois. Aurions-nous dû en tenir compte ? Il est clair qu’on n’aurait pas pu le faire. L’effet de ces perturbations infimes peut devenir important après quelques mois, mais un mur d’imprédicibilité nous interdit de le voir. Pour l’atmosphère terrestre, ce mur d’imprédicibilité est situé à quelques jours ou semaines de nous dans le futur. Je voudrais revenir brièvement à mon implication personnelle dans l’histoire du chaos. A la fin des années 60, je m’étais mis à l’étude de l’hydrodynamique, qui est la science de l’écoulement des fluides. Certains des écoulements que l’on observe sont tranquilles et réguliers, on les dit laminaires, d’autres sont agités et irréguliers, on les dit turbulents. Les explications de la turbulence que j’avais trouvées, en particulier dans un livre de Landau et Lifschitz sur l’hydrodynamique, ne me satisfaisaient pas, car elles ne tenaient pas compte d’un phénomène mathématique nouveau, dont j’avais appris l’existence dans les travaux de Smale. Quel est ce phénomène ? C’est l’abondance d’évolutions temporelles de nature étrange, avec dépendance sensitive des conditions initiales. Je m’étais alors convaincu que la turbulence devait être liée à une dynamique « étrange ». Dans un article joint avec Takens nous avons proposé que la turbulence hydrodynamique devait être représentée par des attracteurs étranges, ou chaotiques, et étudié le début de la turbulence, ou turbulence faible. Par la suite, de nombreux travaux expérimentaux ont justifié cette analyse. Cela ne résout pas le problème de la turbulence, qui reste l’un des plus difficiles de la physique théorique, mais on sait au moins que les théories « non chaotiques » jadis à l’honneur ne peuvent mener à rien. Quand le chaos est devenu à la mode, il a donné lieu à d’innombrables travaux. Certains de ces travaux développaient les aspects techniques de la théorie du chaos, et il n’est pas question d’en parler ici, d’autres analysaient diverses classes de phénomènes naturels dans l’espoir d’y trouver un comportement chaotique. C’est ainsi que j’ai proposé qu’il devait y avoir des oscillations chimiques chaotiques, ce qui effectivement a été démontré par l'expérience dans la suite. Ce fut une période féconde où, en réfléchissant un peu, on pouvait faire des découvertes d’un intérêt durable. Toutes les idées n’ont d’ailleurs pas été également bonnes. Ainsi, des essais d’application du chaos à l’économie et à la finance se sont révélés moins convaincants ; j’y reviendrai. Mais quand Wisdom et Laskar ont cherché du chaos dans la dynamique du système solaire, ils ont eu la main remarquablement heureuse. Le mouvement des astres du système solaire semble extraordinairement régulier, puisque l’on peut par le calcul prédire les éclipses, ou retrouver celles qui ont eu lieu, il y a plus de mille ans. On a donc longtemps pensé que le mouvement des planètes, et en particulier de la Terre, était exempt de chaos. On sait maintenant que c’est faux. L’orbite de la Terre est une ellipse dont les paramètres varient lentement au cours du temps, en particulier l’excentricité, c’est-à-dire l’aplatissement. En fait on a maintenant montré que la variation temporelle de l’excentricité est chaotique. Il y a donc de l’imprédicibilité dans le mouvement de la Terre. Le temps nécessaire pour que les erreurs de prédiction doublent est de l’ordre de 5 millions d’années. C’est un temps fort long par rapport à la vie humaine, mais assez court à l’échelle géologique. Le chaos que l’on a trouvé dans le système solaire n’est donc pas sans importance, et les travaux dans ce domaine se poursuivent activement, mais ce n’est pas ici le lieu d’en discuter. Les résultats accumulés depuis plusieurs décennies nous ont donné une assez bonne compréhension du rôle du chaos en météorologie, en turbulence hydrodynamique faible, dans la dynamique du système solaire, et pour quelques autres systèmes relativement simples. Qu’en est-il de la biologie, de l’économie, de la finance, ou des sciences sociales ? Il faut comprendre que les modélisations utiles dans le domaine du vivant sont assez différentes de celles qui nous satisfont pour des systèmes physiques simples. Les relations du hasard et la nécessité sont d’une autre nature. En fait le domaine du vivant est caractérisé par l’homéostasie qui maintient les organismes dans des conditions appropriées à la vie. L’homéostasie tend par exemple à maintenir la température de notre corps dans d’étroites limites. Elle supprime les fluctuations thermiques et est donc de nature antichaotique. La correction des fluctuations apparaît aussi au niveau du comportement individuel : un projet de voyage est maintenu même si une panne de voiture ou une grève fortuites obligent à changer de moyen de transport. Il s’agit ici de processus correctifs compliqués et qu’il est difficile de représenter par des modèles dynamiques simples auxquels on pourrait appliquer les techniques de la théorie du chaos. Clairement, de petites causes peuvent avoir de grands effets dans la vie de tous les jours, mais aux mécanismes causateurs de chaos s’ajoutent des mécanismes correcteurs, et il est difficile de débrouiller la dynamique qui en résulte. Dans le domaine de l’économie, de la finance ou de l’histoire, on voit aussi que des causes minimes peuvent avoir des effets importants. Par exemple une fluctuation météorologique peut causer la sécheresse dans une région et livrer sa population à la famine. Mais des mécanismes régulateurs effaceront peut-être l’effet de la famine, et l’histoire poursuivra son cours majestueux. Peut-être, mais ce n’est pas certain. Une guerre obscure en Afghanistan a précipité la chute du colossal empire Soviétique. Cette guerre obscure a concouru avec de nombreuses autres causes obscures à miner un empire devenu plus instable qu’on ne le pensait. En fait nous vivons tous dans un monde globalement instable : la rapidité des transports, la transmission presque instantanée de l’information, la mondialisation de l’économie, tout cela améliore peut-être le fonctionnement de la société humaine, mais rend aussi cette société plus instable, et cela à l’échelle de la planète. Une maladie virale nouvelle, ou un virus informatique, ou une crise financière font sentir leurs effets partout et immédiatement. Aujourd’hui comme hier le futur individuel de chaque homme et chaque femme reste incertain. Mais jamais sans doute jusqu’à présent l’imprédictibilité du futur n’a affecté aussi globalement notre civilisation tout entière.

 


            VIDEO       CANAL  U         LIEN 

 
 
 
 

Plonge dans le nanomonde

 

 

 

 

 

 

 

Plongée dans le nanomonde

L’essor constant de la miniaturisation va de pair avec la mise au point de nouveaux microscopes, ouvrant la voie aux nanosciences et aux nanotechnologies.

Publié le 1 juillet 2012

Les possibilités offertes par la miniaturisation avaient été perçues très en amont, dès 1959, par le physicien Richard Phillips Feynman. Celui-ci avait émis l’hypothèse que l’homme pouvait manipuler les atomes et les utiliser soit pour stocker de l’information, soit pour créer des systèmes fonctionnels. L’idée était là, mais pas les instruments permettant de vérifier cette hypothèse.
En appliquant à l’électronique une loi économique datant de la fin du XIXe siècle, Gordon Moore, cofondateur d’Intel, estimait en 1965 que la cadence de miniaturisation des transistors intégrés sur une même puce suivrait une pente régulière. En 1974, une puce contenait 4 transistors intégrés. Aujourd’hui, cette même puce en contient des dizaines de millions, chacun de la taille de 100 nm. En 2020, selon la courbe de cette « loi de Moore », les transistors devraient atteindre 10 nm !
Grâce à cette miniaturisation, les industriels fractionnent le cœur des processeurs en plusieurs sous-unités travaillant parallèlement, augmentant ainsi les fonctionnalités des processeurs.

Selon la loi de Moore, d’ici à 2020, la taille des transistors devrait atteindre 10 nm, contre 100 nm aujourd’hui.


Pour en savoir plus

*         Focus sur la physique quantique
*         Dossier sur les microscopes

TOP-DOWN ET BOTTOM-UP
Cette volonté de miniaturisation est celle de la voie descendante, ou top-down. Le matériau est découpé, sculpté, gravé pour atteindre la dimension souhaitée, grâce à l’instrumentation élaborée et améliorée par l’homme, en vue d’atteindre le micromètre, puis le nanomètre. À l’inverse, la voie ascendante, ou bottom-up, permet d’assembler atome par atome des agrégats, puis des molécules, pour construire la matière. Cette voie est similaire à celle suivie par la Nature qui, à partir de molécules simples, a formé le monde du vivant durant les 4 milliards d’années d’évolution.
L’étude du nanomonde englobe :
*         les nanosciences, qui étudient la composition de la matière, son assemblage et ses propriétés intimes à l’échelle du nanomètre ;
*         les nanotechnologies, qui correspondent aux techniques et outils utilisés pour étudier ces nouvelles propriétés de la matière et pour réaliser de nouveaux dispositifs, objets et systèmes qui les exploitent.

DES OUTILS TRÈS FINS ET PRÉCIS
Pour manipuler des objets aussi petits, les outils doivent être très fins et précis. Le microscope à effet tunnel est l’un des premiers instruments créés afin de « voir » les atomes à la surface de la matière. Cet instrument comporte une pointe métallique extrêmement fine qui permet de cartographier, atome par atome, la surface d’un matériau. Il est uniquement utilisé pour l’observation de la surface des matériaux conducteurs. Une tension électrique, créant un courant d’électrons, est exercée entre la pointe et la surface. La surface est donc balayée à une distance de quelques nanomètres, la pointe capture les électrons qui transitent grâce à l’effet tunnel. Les variations de ce « courant tunnel » sont enregistrées et traitées par un ordinateur fournissant une image du relief de la matière, atome par atome (voir schéma ci-dessous). Ses inventeurs, les Suisses Gerd Binnig et Heinrich Rohrer, du laboratoire de recherche d’IBM à Zurich, ont été couronnés par le prix Nobel de physique en 1986.

Le microscope à effet tunnel

Le microscope à force atomique permet d’obser­ver des matériaux non conducteurs, tels que les matériaux céramiques, polymères ou biologiques.
S’appuyant sur un dispositif semblable à celui qui équipait la tête de lecture des tourne-disques, il est 100 % mécanique. La pointe de ce microscope est fixée sur un bras de levier flexible, qui est en interaction avec la surface du matériau. Elle balaye la surface en suivant à très faible distance le relief. La déformation du levier, éclairé par un laser, est mesurée par un photodétecteur et enregistrée sur un ordinateur.
Dans un grand nombre d’expériences, les chercheurs ont recours à la puissance de calcul des supercalculateurs pour modéliser l’assemblage atomique et restituer ses propriétés propres. L’objectif est d’augmenter les connaissances en sciences de la matière ou du vivant et de constituer en amont des assemblages inédits ou de contrôler certaines propriétés.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Innover pour un nuclaire durable

 

 

 

 

 

 

 

Innover pour un nucléaire durable
LES DÉFIS DU CEA NO HORS-SÉRIE –

 PARUTION : JUIN 2016
       
Au sein du CEA, la Direction de l’énergie nucléaire apporte aux pouvoirs publics et aux industriels les éléments d’expertise et d’innovation sur les systèmes de production d’énergie nucléaire. Pour répondre à cet enjeu, elle conduit ses travaux selon trois axes majeurs : les systèmes nucléaires du futur, dits de 4e génération, réacteurs et cycle du combustible associé ; l’optimisation du nucléaire industriel actuel ; le développement et l’exploitation de grands outils expérimentaux et de simulation indispensables pour mener ses recherches. En parallèle, en tant qu’exploitant nucléaire, le CEA mène des programmes de construction et de rénovation de ses installations nucléaires, ainsi que des programmes d’assainissement et de démantèlement de celles arrivées en fin de vie. A l’occasion de la deuxième édition du salon international du nucléaire WNE, qui se tient du 28 au 30 juin 2016 au Bourget, un dossier spécial du journal Les Défis revient sur ces grands thèmes d’activité.
nucléaire du futur
astrid, une option pour la quatrième génération

 © P.Stroppa/CEA - Modélisation du comportement nominal d’un réacteur à neutrons rapides de IVe génération (vue du coeur et de son circuit de refroidissement). Assurer l’indépendance énergétique et la sécurité d’approvisionnement, améliorer les standards de sûreté, optimiser durablement la gestion des matières et minimiser la production des déchets. Le tout, sans émettre de gaz à effet de serre. Voici le cahier des charges du nucléaire du futur fixé par le Forum international génération IV. La conception du démonstrateur technologique de réacteur à neutrons rapides Astrid, prévue par la loi du 28 juin 2006 sur la gestion durable des matières et des déchets radioactifs, est confiée au CEA  et financée dans le cadre des investissements d’avenir votés par le Parlement en 2010.

 © S.Le Couster/CEA - Intérieur de la chaîne blindée procédé (CBP) de l’installation Atalante du centre CEA de Marcoule. La France a fait le choix d’une politique de traitement-recyclage des combustibles usés.  Cette option, déjà déployée industriellement depuis les années 1990, trouvera sa pleine mesure  avec la quatrième génération. La Direction de l'énergie nucléaire du CEA (CEA-DEN), qui a mis au  point  les procédés actuellement mis en œuvre, poursuit aujourd’hui des recherches pour améliorer,  compléter et adapter les technologies aux enjeux de demain.

 
Combustible nucléaire
Moisson d'innovations pour le combustible nucléaire

Produit industriel bien défini et dûment éprouvé depuis plusieurs décennies, le combustible  nucléaire reste toutefois au cœur de nombreuses innovations. Des optimisations sont en effet  nécessaires, tant pour répondre aux impératifs économiques et industriels actuels que pour  préparer les défis de demain. Pour cause, le combustible est un assemblage complexe et compliqué  à mettre en œuvre pour concilier performances et exigences de sûreté accrues. Le défi est relevé  par les chercheurs du CEA-DEN qui maîtrisent savoir et savoir-faire sur l’ensemble de la chaîne : de la conception jusqu’à la caractérisation post-irradiation, en passant par la simulation numérique.

matériaux du nucléaire
Des matériaux faits pour durer !

 © P.Stroppa/CEA - Matériau composite, à base de fibres de carbure de silicium tressées,
en cours de réalisation au CEA pour fabriquer de nouvelles gaines de combustibles. Fortes températures, irradiations, contraintes mécaniques, environnements corrosifs : les matériaux des centrales nucléaires sont soumis à des conditions extrêmes. Ainsi, la garantie de  la  sûreté, de la durée de fonctionnement et des performances des réacteurs actuels, tout comme  la conception et la qualification de matériaux adaptés aux contraintes spécifiques des systèmes  nucléaires du futur, constituent les principaux enjeux du CEA-DEN dans le domaine des matériaux du  nucléaire. Pour cela, les chercheurs s’appuient sur un solide retour d’expérience, des compétences et  des installations uniques au monde. 

moyens de R&D
Une recherche bien outillée

 © CEA-DEN - Maillage du casier (partie centrale), du réflecteur (blocs) et de la piscine (zone extérieure) du RJH, modélisé grâce au logiciel plateforme Salome pour un calcul APOLLO2. Les recherches pour les systèmes nucléaires actuels ou du futur nécessitent des outils expérimentaux  et de simulation spécifiques. Dans ce cadre, le CEA-DEN développe et exploite un parc complet  et cohérent d’installations expérimentales, prépare le remplacement des installations vieillissantes  et réalise de nouvelles installations telles que le Réacteur Jules Horowitz (RJH) à Cadarache.  Dans le domaine de la simulation, il développe des codes dans tous les grands domaines du nucléaire  (neutronique , thermo-hydraulique, mécanique, thermique, chimie du cycle et matériaux) afin  de modéliser l’ensemble des phénomènes entrant en jeu dans un réacteur.

assainissement - démantèlement
Démantèlement : héritage du passé, perspectives d’avenir

 © CEA - État final d’un laboratoire chaud du CEA à Grenoble, après écroûtage des surfaces puis contrôles radiologiques Leader sur l’ensemble du cycle de l’électronucléaire, la France assume également les exigences  d’assainissement-démantèlement de ses installations nucléaires en fin d’exploitation. À ce titre,  le CEA fait figure de pionnier tant dans la maîtrise d’ouvrage de chantiers que dans la R&D  pour en optimiser les délais, coûts et sûreté. Définir le scénario le plus adapté, caractériser l’état  radiologique  des équipements, décontaminer les lieux, procéder au démontage et optimiser les  déchets qui en découlent : fort de ce large panel de compétences et de la diversité de ses installations  concernées, la Direction de l’énergie nucléaire du CEA (CEA-DEN) développe des solutions innovantes  qui font déjà l’objet de transferts industriels.

 

  DOCUMENT     cea         LIEN

 
 
 
 

NERGIE

 

 

 

 

 

 

 

ÉNERGIE

Nous sommes tous entourés d'énergie : dans notre corps, notre maison, notre environnement... Elle est là, dans notre quotidien. Qu'est-ce que l'énergie ? Quelles sont les différentes formes de l'énergie ? Ses sources ? Que signifient les expressions "énergies primaires", "énergies secondaires", "énergies renouvelables", "énergies non-renouvelables", "énergies fossiles" ?

QU'EST-CE QUE L'ÉNERGIE ?
Le mot « énergie » vient du Grec Ancien « énergéia », qui signifie « La force en action ». Ce concept scientifique est apparu avec Aristote et a fortement évolué au cours du temps. Aujourd’hui, l’énergie désigne  « la capacité à effectuer des transformations ». Par exemple, l’énergie c’est ce qui permet de fournir du travail, de produire un mouvement, de modifier la température ou de changer l’état de la matière. Toute action humaine requiert de l’énergie : le fait de se déplacer, de se chauffer, de fabriquer des objets et même de vivre.


L’énergie est partout présente autour de nous : dans la rivière qui fait tourner la roue du moulin, dans le moteur d’une voiture, dans l’eau de la casserole que l’on chauffe, dans la force du vent qui fait tourner les éoliennes… et même dans notre corps humain.

Une énergie de qualité
Toutes les formes d’énergie n’ont pas la même « valeur ». Dans les machines, on distingue classiquement l’énergie mécanique, ou travail, de l’énergie thermique, ou chaleur. La première est beaucoup plus utile que la seconde. C’est elle qui permet de déplacer les objets ou de les déformer.
De son côté, la chaleur a tendance à se diluer dans la matière et seule une petite partie peut être transformée en énergie mécanique. C’est ce qui fait qu’une centrale électrique n’arrive à transformer qu’un tiers de la chaleur de son feu de charbon ou de ses fissions nucléaires en électricité, le reste étant inutilisable et rejeté à l’extérieur.

LES DIFFÉRENTES FORMES D'ÉNERGIE
L’énergie peut exister sous plusieurs formes. Parmi les principales :
*         L’énergie thermique, qui génère de la chaleur ;
*         L’énergie électrique ou électricité, qui fait circuler les particules – électrons - dans les fils électriques ;
*         L’énergie mécanique, qui permet de déplacer des objets ;
*         L’énergie chimique, qui lie les atomes dans les molécules ;
*         L’énergie de rayonnement ou lumineuse, qui génère de la lumière ;
*         L’énergie musculaire qui fait bouger les muscles.


Conservation de l'énergie
L’énergie se conserve. La quantité totale d'énergie dans un système donné ne change pas, on ne peut donc ni la créer, ni la détruire. L'énergie est transmise d'un élément vers un autre, souvent sous une forme différente.
Un exemple : quand on chauffe de l'eau, différentes transformations d’énergie ont lieu. En brûlant dans l’air, le bois libère son énergie chimique. Cette énergie se transforme en chaleur, l’énergie thermique, et en lumière, l’énergie de rayonnement. Lors de cette réaction, la quantité d'énergie totale ne change pas, elle change simplement de forme.
Un autre exemple : lorsqu’une voiture fonctionne, l’essence libère son énergie chimique en brûlant dans l’air. Elle chauffe le moteur et pousse les pistons (énergie thermique et énergie mécanique). Les pistons font tourner le moteur et les roues, transfert d’énergie mécanique, et la voiture se déplace (énergie cinétique). Au passage, la courroie fait tourner l’alternateur qui transforme une petite partie de l’énergie mécanique en électricité qui sera stockée dans la batterie.


LES SOURCES D'ÉNERGIE
L’énergie est issue de différentes sources d’énergie qui peuvent être classifiées en deux groupes : les énergies non renouvelables, dont les sources ont des stocks sur Terre limités et les énergies renouvelables qui dépendent d’éléments que la nature renouvelle en permanence.

Les diverses sources d'énergie

Votre navigateur ne permet pas de lire des vidéos.
télécharger : version vidéo |

Qu'est-ce qu'une énergie intermittente ?
Une énergie intermittente est une énergie pour laquelle les sources ne sont pas disponibles en permanence et dont la disponibilité varie fortement sans possibilité de contrôle. Les énergies solaire et éolienne sont définies comme intermittentes car leur efficacité varie en fonction de la météo et de paramètres extérieurs (jour/nuit).
Pour pallier à cette intermittence, il est nécessaire de stocker ces énergies. Le développement de technologies de stockage est un enjeu important de recherche et développement. 
Pour plus d’informations sur le stockage de l’énergie, consultez notre dossier « l’essentiel sur… le stockage stationnaire de l’énergie ».

Les sources d'énergie non renouvelables
Énergies fossiles
Dans les énergies non renouvelables, on trouve les énergies dites fossiles : ce sont les résidus des matières végétales et organiques accumulés sous terre pendant des centaines de millions d’années. Ces résidus se transforment en hydrocarbure (pétrole, gaz naturel et de schiste, charbon…). Pour pouvoir les exploiter, il faut puiser dans ces ressources qui ne sont pas illimitées, c’est pourquoi les énergies fossiles ne sont pas renouvelables.

Énergie nucléaire
L’énergie nucléaire est « localisée » dans le noyau des atomes. Dans les centrales nucléaires actuelles, on utilise la fission (cassure) des noyaux d’uranium, élément que l’on retrouve sur Terre dans les mines. Les mines d’uranium s’épuiseront un jour tout comme le charbon, le gaz et le pétrole.
Au rythme de l’utilisation des ressources actuellement exploitées, on estime les réserves de pétrole à 40 ans, de gaz naturel conventionnel à 60 ans et de charbon à 120 ans. Les réserves d’uranium, combustible de l’énergie nucléaire, à 100 ans avec les réacteurs actuels.
Le saviez-vous ?
L’énergie nucléaire a un excellent bilan carbone : elle ne génère pas de CO2. Cependant, la production d’électricité avec le nucléaire génère des déchets radioactifs, dont la gestion spécifique est encadrée par la Loi.

Les sources d'énergies renouvelables
Le soleil, le vent, l’eau, la biomasse et la géothermie sont des sources qui ne s’épuisent pas et sont renouvelées en permanence.
Biomasse et géothermie : quelles différences ?
La biomasse et la géothermie sont deux sources d’énergies bien distinctes.
La géothermie est l’énergie générée par la chaleur des profondeurs de la Terre et sa radioactivité. Le mot « géothermie » vient du grec « geo » (la terre) et « thermos » (la chaleur). On l’exploite pour chauffer des habitations grâce à des forages légers.
La biomasse a, quant à elle, pour source le Soleil dont l’énergie de rayonnement est transformée en énergie chimique par les matières organiques d’origine végétale (bois), animale, bactérienne ou fongique (champignons). Il existe des centrales « biomasse » qui produisent de l’électricité avec la combustion de matières organiques.
Parmi toutes ces sources d’énergie, on distingue les énergies primaires des énergies secondaires.

Énergie primaire
Une énergie primaire est une énergie brute n’ayant pas subi de transformation, dont la source se trouve à l’état pur dans l’environnement. Le vent, le Soleil, l’eau, la biomasse, la géothermie, le pétrole, le charbon, le gaz ou l’uranium sont des sources d’énergies primaires.
Énergie secondaire
On appelle « énergie secondaire » une énergie qui est obtenue par la transformation d’une énergie primaire.
Par exemple, l’électricité est une énergie secondaire qu’on obtient à partir de plusieurs énergies primaires : l’énergie solaire avec des panneaux, l’énergie nucléaire avec des réacteurs, l’énergie hydraulique avec des barrages ou encore l’énergie du vent avec des éoliennes. Il n’existe pas d’électricité à l’état naturel.
L’essence, le gasoil et les biocarburants sont également des énergies secondaires ; on les obtient par la transformation du pétrole, qui lui, est brut ou de la biomasse. L’hydrogène, qui n'existe pas à l'état pur, est également une énergie chimique secondaire car il faut le produire.

La domestication des sources d'énergie au fil du temps
La maîtrise des sources d’énergie par l’Homme remonte à 400 000 ans av. J-C. A l’époque, l’Homme apprend à maîtriser le feu. Puis, plus tard, il apprend à maîtriser le vent, l’eau avec des moulins….
Avec l’ère industrielle, l’Homme commence à exploiter des ressources fossiles (charbon, puis pétrole et gaz) et à développer des machines qui vont changer son mode de vie. Depuis, les besoins en énergie n’ont cessé d’augmenter.

En chiffres
81 % des besoins mondiaux en énergie primaire sont actuellement comblés par le pétrole, le charbon et le gaz.
Source : Données 2019 de l'Agence internationale de l'énergie
Énergie et puissance
On mesure l’énergie à l’aide d’une unité particulière nommée le joule. Son nom vient du physicien anglais James Prescott Joule. Un joule représente par exemple l'énergie requise pour élever une pomme de 100 grammes d'un mètre ou encore l'énergie nécessaire pour élever la température d'un gramme (un litre) d'air sec de un degré Celsius.
Dans le domaine de la nutrition, c’est la kilocalorie qui est utilisée. 1 kilocalorie équivaut à 4,2 kilojoules. Pour évaluer l’énergie utilisée sur une année, on utilise généralement la tonne équivalent pétrole, tep.
1 tep est égale à 41 868 000 000 joules.
La puissance correspond, quant à elle, à la vitesse à laquelle l'énergie est délivrée. Elle se mesure en watt, ce qui correspond à un joule par seconde.
Par exemple, si pour faire bouillir un litre d’eau, on utilise d’un côté une flamme d’un gros feu de bois et de l’autre, la flamme d’une bougie : dans les deux cas, la même quantité d’énergie sera utilisée pour faire bouillir l’eau. Seulement, ce sera fait plus rapidement avec un feu qu’avec une bougie. L'énergie est dégagée plus rapidement avec le feu de bois qu'avec la flamme de la bougie. Le feu de bois est donc plus puissant que la flamme de la bougie.

UTILISATION DES ÉNERGIES EN FRANCE ET ENVIRONNEMENT
L’énergie, en France, est surtout utilisée pour le transport, l’habitat (chauffage), l’industrie, le tertiaire et l’agriculture.
En chiffres

 
En 2019, un Français a en moyenne consommé 30 fois plus d’énergie qu’un habitant d’Afrique de l’Est.
Source : Connaissance des Énergies, d'après BP Statistical Review of World Energy
Bien que la dépendance énergétique de la France se soit réduite depuis 1973 grâce à la construction du parc nucléaire, son mix énergétique dépend encore fortement des énergies fossiles qui couvrent près de 50 % de la consommation d’énergie primaire. A eux seuls, le transport et l’habitat représentent en France près de 80 % de la consommation finale. Le bâtiment dépend à plus de 50 % [2] des combustibles fossiles et le transport à 95 % du pétrole. Ces deux secteurs sont à l’origine de plus de 50 % des émissions de CO2, l’un des principaux gaz à effet de serre.
Ces émissions impactent directement le climat en contribuant au réchauffement climatique. Face à ce défi climatique majeur, il devient indispensable de disposer de sources d’énergie à la fois compétitives et bas carbone (faiblement émettrices de gaz à effet de serre) et de faire évoluer le mix énergétique de la France.


Les défis énergétiques
Toute action humaine requiert de l’énergie. Depuis toujours, l’Homme a cherché à accéder à des sources d’énergie abondantes et peu chères pour satisfaire ses besoins. Mais depuis le début de la révolution industrielle, la société moderne utilise sans compter de l’énergie provenant de sources, qui sont, pour la plupart, non renouvelables. Conséquence, les ressources s’épuisent et la quantité d’émission de gaz à effet de serre dans l’atmosphère, issue de l’exploitation des ressources fossiles, menace le climat. Face à ces réalités, il devient nécessaire de :
*         Mieux gérer l’utilisation des énergies en faisant notamment moins de gaspillage ;
*         Repenser notre mix énergétique en utilisant des sources d’énergie bas carbone tels que le nucléaire et les énergies renouvelables ;
*         Améliorer les technologies de stockage de l’énergie (batteries, hydrogène) ;
*         Continuer à travailler sur les énergies du futur : nucléaire du futur (fission et fusion nucléaire), solaire, éolien, bioénergies.

 

 DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google