ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

QUELLES SOURCES D'NERGIE D'ICI 2050 ?

 

Ce texte est similaire aux principaux points développés lors de la 594e conférence de l'Université de tous les savoirs donnée le 16 juillet 2005 par Sylvain David
Les sources d'énergie du 21e siècle[1]
par Sébastien Balibar, Sylvain. David, Ionel Solomon
Introduction & Contexte
Réchauffement global de la Terre, ou déchets nucléaires ? A l'aube du XXème siècle, tel semble être le dilemme auquel notre société se heurte. On parle d'énergies alternatives. Certains sont pour le nucléaire, d'autres sont contre, qu'en est-il vraiment ? Dans ce débat qui est complexe, face à des problèmes scientifiques et techniques difficiles, il est du devoir des physiciens de se mobiliser, pour informer le public et pour contribuer à la recherche de solutions.
figure 1
Les unités pour mesurer l'énergie
Sur les 14 000 Gigawatts thermiques que l'humanité consomme, environ 32 % proviennent du pétrole, 26 % du charbon et 19 % du gaz, soit 77 % de combustibles fossiles non-renouvelables, le reste se répartissant entre 5 % d'origine nucléaire, 6 % d'hydroélectrique, 10 % de la « biomasse traditionnelle » (essentiellement le bois) et 1 à 2 % d'autres énergies dites « renouvelables » telles que le solaire et les éoliennes. Cette énergie consommée est équivalente à 10 milliards de tonne de pétrole par an (10 Gtep/an), soit environ 1.5 tonne équivalent pétrole par habitant et par an. La consommation d'énergie varie grandement d'un région à l'autre ; alors qu'un américain du nord consomme près de 10 tep/an, un européen en consomme environ 4.5, un chinois 1.5 et un africain moins de 0.5 ( Cf. figure 2).
figure 2
Les projections pour le futur sont délicates, mais il apparaît aujourd'hui inévitable que cette consommation augmente significativement dans les décennies à venir. Les scénarios les plus sobres et très volontaristes prévoient une consommation de 15 milliards de tep par an (Gtep/an) pour 2050. Les scénarios qui prennent en compte une augmentation significative du niveau de vie des pays pauvres et un accès à l'énergie relativement facile atteignent 30 Gtep/an en 2050 ( Cf. figure 3). Ces derniers scénarios semblent aujourd'hui irréalistes, tant du point de vue des réserves de combustibles fossiles que de l'environnement et du climat. Un scénario envisageant un doublement de la consommation énergétique semble réaliste et souhaitable pour les pays en voie développement, et comme nous allons le voir, cette augmentation attendue doit être assurée par de nouvelles sources d'énergie.
figure 3
Les combustibles fossiles
En 2000, la consommation mondiale de combustible fossile atteignait 8 Gtep, répartie entre le pétrole (3.7), le gaz (2.1) et le charbon (2.0) ( Cf. figure 4).
figure 4
Il existe de grandes incertitudes concernant les réserves et les prix d'extraction, mais il est aujourd'hui admis que ce siècle verra la fin du pétrole et du gaz. Les géologues les plus pessimistes annoncent même que la production mondiale de pétrole commencera à décroître dès 2008 ( Cf. figure 5). Le gaz devrait durer un peu plus longtemps, quant au charbon, il en existe de grandes quantités réparties de façon plus homogène sur la planète ( Cf. figure 6).
figure 5
De grandes incertitudes sur les réserves de pétrole
(Référence : PR Bauquis - Total Prof. Associés)
figure 6
D'un point de vue environnemental, il ne fait plus aucun doute que brûler tant de combustibles fossiles a conduit à une augmentation très sensible du contenu en gaz à effets de serre de l'atmosphère, en particulier de CO2. Le contenu en CO2 de l'atmosphère vient de dépasser 365 ppmv (parties par million en volume) alors que, depuis 400 000 ans, il oscillait entre 180 ppmv lors des périodes glaciaires et un maximum de 280 ppmv dans les périodes chaudes. En conséquence, un réchauffement sensible de la planète a déjà eu lieu, environ 0.6 °C à ce jour. Cela peut paraître peu mais il semble inévitable que ce réchauffement s'accélère et atteigne au moins 3 degrés à l'horizon 2100 (dans l'hypothèse où l'on réduirait considérablement les émissions de CO2), peut-être 6°C si l'on ne réussit pas à réduire suffisamment ces émissions à très court terme. Ce réchauffement menace de transformer le climat global (fonte des glaces, augmentation des échanges d'eau entre l'équateur et les pôles, modification des courants marins, élévation du niveau des mers...), un phénomène que notre planète n'a jamais connu.
Stabiliser le climat nécessite de diviser par 2 l'émission de gaz à effet de serre, et compte tenu d'un doublement vraisemblable de la consommation d'énergie d'ici 2050, cela implique de diviser par 4 la proportion des combustibles fossiles dans le bouquet énergétique ( Cf. figure 7). Voilà l'ampleur du défi qui s'impose à nous.
figure 7
Les principales sources d'énergie, leurs potentiels et leurs contraintes, vont être maintenant passés en revue.
Le nucléaire de fission
Face à ces graves menaces, le nucléaire est une énergie abondante dès aujourd'hui, qui ne produit pas de gaz à effet de serre ( Cf. figure 8), mais qui nécessite néanmoins le recours à une technologie innovante pour être durable sur le long terme. Le nucléaire est-il donc la solution au problème énergétique de la planète ?
figure 8
L'énergie nucléaire ne représente aujourd'hui que 6 % de la production d'énergie primaire au niveau mondial. Il est probable que l'énergie de fission se développe au niveau mondial dans les 50 années à venir, même si la situation n'est pas claire aujourd'hui. En Europe, pendant que la France produit 80 % de son électricité avec ses réacteurs nucléaires ou que la Finlande commande un nouveau réacteur, l'Allemagne, la Belgique ou l'Italie se montrent très sceptiques vis à vis de cette énergie. Au niveau mondial, les Etats-Unis ont sensiblement augmenté leur production d'électricité nucléaire avec les réacteurs existants, et préparent un redémarrage de leur programme nucléaire dans les années à venir, et la Chine et l'Inde sont sur le point de commander des dizaines de réacteurs.
Un développement du nucléaire au niveau mondial amène à se poser de nouvelles questions en terme de gestion des ressources, de sûreté des installations et de gestion des déchets.
La vision du public vis à vis de cette énergie évolue avec le temps. Hier, la sûreté était au centre du débat, aujourd'hui les déchets focalisent l'attention de la société, alors que les risques de prolifération prennent de plus en plus de place dans le débat.
Les réacteurs actuels ont une puissance de l'ordre du GW électrique, et un rendement de 33 %. Ils utilisent le seul noyau fissile naturel, l'235U, présent à 0.7 % dans le minerai d'uranium naturel. Tout en restant prudent sur les estimations des réserves en uranium, cette filière permet de continuer pendant 200 à 300 ans au rythme actuel. Si le nucléaire est amené à jouer un rôle majeur dans les décennies à venir, les filières actuelles ne pourraient pas assurer un déploiement rapide et massif ( Cf. figure 9). Il faudrait alors passer à des réacteurs régénérateurs, utilisant beaucoup mieux le potentiel énergétique du minerai. Ces systèmes innovants font aujourd'hui l'objet de nombreuses recherches internationales, et pourraient être déployés avant le milieu du siècle. Ils permettraient d'utiliser la quasi totalité du minerai d'uranium, mais également d'utiliser les réserves de thorium. Ils pourraient ainsi produire massivement de l'énergie pendant plusieurs dizaines de milliers d'années ( Cf. encadré 1 en fin de texte). Ils présentent également l'avantage de recycler tous les noyaux lourds, et de limiter ainsi considérablement la radioactivité à long terme des déchets ultimes à stocker. Le cycle thorium, plus innovant, serait ici encore plus avantageux en ayant une masse réduite de combustible et de déchets de longue durée de vie.
figure 9
Concernant les déchets, le problème principal est celui des déchets issus du combustible usé qui sont très actifs pendant très longtemps. Le combustible usé contient trois types de noyaux : les produits de fission, qui sont les cendres des noyaux fissionnés, le plutonium, produit à partir de capture de neutrons sur l'238U, et les actinides mineurs (237Np, 241Am, 244Cm, ...). La radioactivité du combustible usé est dominée par le plutonium, qui est un noyau fissile, d'où toute l'ambiguïté : si le nucléaire doit s'arrêter, le plutonium est un déchet et doit être géré comme tel (stocké ou incinéré), mais si le nucléaire doit se développer, le plutonium est une matière fissile précieuse, indispensable au démarrage de réacteurs de 4ème génération. Cette ambiguïté concernant la qualité du plutonium (déchet ou combustible) est sans doute à l'origine des attitudes attentistes concernant la gestion des combustibles irradiés ( Cf. encadré 1), et il est probable que la décennie à venir clarifiera la situation, par l'engagement ou non des pays asiatiques dans un nucléaire massif.
L'avenir du nucléaire, source d'énergie propre du point de vue du climat, repose sur des technologies nouvelles, dont il faudra assurer la sûreté, en particulier dans l'hypothèse d'une mise à disposition auprès des pays émergeants. Toutes ces avancées nécessitent une intensification des recherches en cours.
La géothermie
L'énergie géothermique provient des désintégrations de l'uranium et du thorium contenus dans la terre. La puissance totale émise par la terre est de 22 TW. L'équilibre thermique étant atteint, toute cette puissance s'évacue par la surface, soit un flux de 0.06 W/m2 environ. Cette puissance correspond seulement au double de la consommation actuelle. Cependant, il existe une quantité d'énergie stockée dans les roches sous forme de chaleur, mais difficilement utilisable, étant donné sa faible concentration. De plus, cette énergie n'est pas renouvelable ; dans la plupart des installations actuelles, le gisement s'épuise en une trentaine d'années environ. Il est assez rare de disposer de vapeur à haute température susceptible de produire directement de l'électricité. Dans la plupart des cas, les roches chaudes à faible profondeur sont difficilement accessibles ; la roche doit être fracturée, afin que de l'eau puisse circuler et extraire la chaleur. Pour ces raisons, il est difficile d'envisager une production massive au niveau mondial à partir de la géothermie. Il existe cependant des cas particulier, comme l'Islande, où l'énergie géothermique est disponible en grande quantité. La géothermie représente aujourd'hui 0.3 % de la production électrique mondiale et a peu près autant pour le chauffage.
L'hydraulique
L'électricité d'origine hydraulique ne produit pas d'effet de serre, et permet de plus de gérer les pointes de façon très efficace. En France, la quasi-totalité du potentiel hydraulique est déjà utilisé, la puissance moyenne est de 8GW, soit 12 % de la production électrique. Au niveau mondial, le potentiel est de l'ordre de 1400 GW moyens, soit près de 90 % de la production électrique actuelle. Cependant, la mise en Suvre est délicate et il est difficile d'imaginer un déploiement massif dans les décennies à venir. En effet, dans la plupart des cas, les gisements se situent dans des régions dépeuplées, notamment en Afrique, où le développement d'un réseau gigantesque serait nécessaire. La Chine est en train de construire un immense barrage (2km x 640km) de puissance maximale 18 GW (environ 9GW moyens), et prévoit d'installer 4 autres barrages d'ici 2020 d'une puissance maximale cumulée de 38 GW. Aujourd'hui ces 5 barrages représenteraient 18 % de la production électrique de la Chine ( Cf. figure 10).
figure 10
L'éolien
L'énergie du vent est très diluée, et nécessite environ 8 ha pour 1 MW installé, fonctionnant environ 20 % du temps. Une éolienne géante (80 m de diamètre) peut atteindre une puissance crête de 2 MW. En France, le potentiel est estimé à 66 TWh/an sur terre soit 7.5 GW moyens, et 97 TWh/an en offshore soit 11 GW moyens, Cela représenterait 30 % de la production électrique. Pour produire 5 % seulement de l'énergie française, c'est-à-dire générer une puissance continue de 10 GW, il faudrait donc installer au moins 50 000 éoliennes. A raison d'une éolienne d'1 GW tous les 200 m cela signifierait un rideau continu d'éoliennes sur 10 000 km de long et il paraît douteux que la population française soit prête à accepter cela ( Cf. figure 11).
figure 11
Le cas de la France est particulier du point de vue des éoliennes, puisque économiser du combustible nucléaire n'a que peu d'impact sur l'économie énergétique ou les émissions de gaz à effet de serre (de plus il serait difficile de moduler la production nucléaire pour suivre les variations du vent). Ce n'est pas le cas en Allemagne ou au Danemark, où les éoliennes contribuent à limiter la consommation de gaz et de charbon, et donc l'émission de gaz à effet de serre.
Il est donc difficile de croire que les éoliennes puissent représenter l'avenir énergétique à moyen terme de la France, mais on aurait tort de négliger la recherche en ce domaine et l'apport complémentaire de l'énergie éolienne pour des usages particuliers, ou pour des pays ne poursuivant pas le choix du nucléaire. Le couplage au vecteur hydrogène devrait également rendre cette énergie intermittente plus attractive dans le futur.
Le solaire
L'énergie solaire est une énergie réellement inépuisable et abondante. En 12 heures, par exemple, l'énergie solaire arrivant sur terre est supérieure au total des énergies fossiles connues et prévisibles. Pour fixer un autre ordre de grandeur, l'énergie solaire qui arrive sur le sol est 10000 fois supérieure à ce que le monde consomme aujourd'hui.
Il serait vraiment dommage de ne pas utiliser un tel pactole ! Pourtant l'énergie solaire représente aujourd'hui 0 04% de la consommation d'énergie primaire.
L'utilisation la plus directe est le chauffage des habitations et de l'eau. On estime aujourd'hui à 50 % le gain possible sur le chauffage domestique (eau et habitation) en utilisant des panneaux solaires thermiques. Couplé à une bonne isolation c'est une économie de 10 à 20 % de combustibles fossiles qui serait possible.
Chauffer un fluide à haute température (plusieurs centaines de degrés) avec l'énergie solaire permet également de produire de l'électricité. Plusieurs technologies existent aujourd'hui, comme les centrales à tour ou la filière cylindro-parabolique. Ces systèmes peuvent être couplés à des réservoirs de chaleur pour assurer une production continue d'électricité entre le jour et la nuit.
Il existe également des dispositifs convertissant directement la lumière en électricité. Ce dispositif « photovoltaïque » possède des propriétés vraiment remarquables: il n'a pas de pièces mobiles, pas de liquide (il ne coule pas !), il ne s'use pas et sa longévité se compte en dizaines d'années. Le rendement de cette conversion photoélectrique est relativement grand: de l'ordre de 15 à 20 % en laboratoire, et 10 à 15 % en production.
En France, on reçoit en moyenne annuelle entre 100 et 200 W/m2 du soleil au niveau du sol, ce qui correspond, en tenant compte du rendement photovoltaïque à une production annuelle d'environ 100 kWh/m2, et en couvrant la moitié des toits, on couvrirait en même temps notre consommation électrique (sans tenir compte du caractère intermittent, et donc du stockage qui serait nécessaire).
Le principal obstacle à l'utilisation à court terme des dispositifs photovoltaïques n'est pas de nature technique ou scientifique, mais d'origine économique. La haute technicité de ces dispositifs conduit à un prix de revient élevé, aboutissant pour le moment à un prix du kWh de 5 à 10 fois plus élevé que celui produit par les sources d'énergie conventionnelles.
Les meilleurs capteurs réalisés à ce jour avec du silicium monocristallin sont chers, difficiles à fabriquer et n'ont qu'un rendement de 12 %. Les capteurs au silicium polycristallin sont moins chers et ont un rendement de 10 %.
L'avenir réside-t-il dans des films semiconducteurs incorporables dans les matériaux de construction ? Ils sont d'ores et déjà bon marché et leur coût baisserait évidemment encore s'ils étaient produits massivement. Mais leur rendement n'est encore que d'environ 5 %. Un autre paramètre à prendre en compte est le coût énergétique de construction du panneau qui diffère selon les technologies. Actuellement, on estime à près de 7 ans le temps que met un panneau au silicium à rendre l'énergie consommée pour sa production et on espère le ramener à 2 ou 3 ans dans les décennies à venir.
Potentiel de la biomasse
Quelques mots de la biomasse, c'est-à-dire le bois et différents alcools agricoles. Ce n'est une énergie renouvelable que si l'on replante autant que l'on consomme; dans ce cas, le CO2 dégagé est ensuite refixé. De plus, le bois est évidemment facile à stocker. Malheureusement, on doit remarquer que ce procédé utilise l'énergie solaire nécessaire à la photosynthèse. Or, ce rendement est inférieur à 0,5 %; même les cultures sucrières ne fournissent que 0,6 W/m2. Il faudrait consacrer à la culture de biocarburants une surface environ 20 à 100 fois plus grande que la surface actuellement consacrée à l'alimentation pour subvenir aux besoins énergétiques de la planète. La biomasse ne sera jamais qu'un complément énergétique. De plus le coût énergétique des bio-carburants est non négligeable. Le meilleur rendement énergétique est celui de l'ester de colza et vaut 2 environ ; cela signifie qu'il faut consommer environ 1 litre de pétrole pour produire 2 litres de bio-carburant ( Cf. figure 12). De plus, le développement d'une telle filière ne serait pas sans risque de dégagements importants de méthane, un gaz à effet de serre bien plus redoutable que le CO2, ou d'utilisation massive d'engrais, un risque potentiel pour la qualité de l'eau, autre problème planétaire d'actualité. Aujourd'hui le chauffage traditionnel au bois (très utilisé dans les zones rurales des pays émergeants) représente tout de même 1Gtep/an (soit 10 % de la production mondiale d'énergie primaire) de la consommation mondiale d'énergie, mais il semble difficile d'envisager une augmentation significative de la production d'énergie par la biomasse dans le futur.
figure 12
biocarburants (référence : J.M. Jancovici, www.manicore.com)
La fusion
On parle beaucoup actuellement de fusion thermonucléaire. Il s'agirait ici de faire fusionner des atomes d'hydrogène, plus précisément le deutérium (1 proton, 1 neutron) et le tritium (1 proton, 2 neutrons). Les produits de réaction sont un noyau d'Hélium-4 et un neutron, ce dernier emportant 80 % de l'énergie libérée.
Les réserves en deutérium sont infinies à l'échelle humaine. Le tritium a une durée de vie de 12 ans, et n'existe pas à l'état naturel ; il doit être produit à partir de lithium par la réaction 6Li+n ->T+a. Les réserves de lithium sont très grandes (sous forme de minerai ou dans l'eau des océans) ce qui permettrait de produire de l'énergie pendant des millénaires, c'est-à-dire autant qu'avec des réacteurs à fission régénérateurs.
La réaction de fusion se déroule à l'intérieur d'un plasma chauffé à plusieurs millions de degrés, le neutron émis joue un double rôle : il emmène l'énergie en dehors du plasma ou elle est récupérée sous forme de chaleur, et il doit également régénérer le tritium en cassant un noyau de lithium.
Cette technologie ne semble pas réaliste à moyen terme tant les problèmes posés sont difficiles. Le premier de ces problèmes est celui de la tenue des matériaux aux neutrons extrêmement énergétiques. L'énergie de ces neutrons, 14 MeV, est dix fois plus grande que celle des neutrons les plus rapides qui sont émis dans les réacteurs à fission. Sans mise au point de matériaux très spéciaux qui seraient susceptibles de résister à de telles particules, la fusion nucléaire n'a pas d'avenir. La gestion du tritium, de sa production à la réinjection en cSur est très délicate et en même temps incontournable pour assurer une production durable à partir de la fusion. La maîtrise d'un plasma chauffé à plusieurs millions de degrés reste à démontrer sur des temps longs. En revanche, cette source d'énergie ne produirait pas de déchets radioactifs à long terme, et limiterait considérablement les risques d'accidents majeurs et les rejets massifs de radioactivités.
Le réacteur expérimental ITER devrait être construit prochainement et fonctionner pendant une trentaine d'années. Il permettra de tester le confinement d'un plasma chaud, et ne répondra que partiellement à toutes les questions posées. L'avenir de la fusion n'est donc pas pour demain.
Le vecteur hydrogène
On l'a vu, certaines sources d'énergie renouvelable souffrent d'une production intermittente, qui rend difficile leur utilisation à court terme. Le stockage d'énergie est donc un aspect indissociable des questions des sources du futur. L'hydrogène est souvent présenté comme la meilleure façon de stocker de l'énergie (chaleur ou électricité). Il ne faudra pas oublier que les rendements se cumulent à chaque étape de production/transport/utilisation, et il est probable que le rendement global n'excède pas 20 %, même s'il est très difficile de donner un chiffre aujourd'hui.
La production d'hydrogène peut être envisagée à partir d'électricité (hydrolyse de l'eau) ou par cycle thermochimique à haute température. La première solution est disponible aujourd'hui, mais souffre d'un rendement faible et d'un prix élevé. La seconde demande encore beaucoup d'efforts de R&D (recherche et développement), mais semble prometteuse, notamment avec le cycle Iode-Souffre qui demande une source de chaleur à 850°C environ. Pour que l'hydrogène ne produise pas indirectement du CO2, cette source de chaleur doit être nucléaire ou solaire. Il existe aujourd'hui un concept de réacteur nucléaire à l'étude (VHTR) couplant un cSur en graphite à très haute température (près de 1000°C), couplée à une unité chimique produisant de l'hydrogène. Le même type de production est envisageable avec des centrales solaires à tour.
Une fois produit, l'hydrogène doit être stocké et utilisé. On parle beaucoup de l'utiliser dans le domaine des transports, et sur ce point, diverses opinions s'affrontent aujourd'hui. Certains voient une utilisation massive directe de l'hydrogène, notamment dans les piles à combustibles, qui permettent d'espérer un rendement bien meilleur qu'un moteur thermique. D'autres au contraire pensent qu'il sera impossible de remplacer les combustibles liquides pour le transport, tant les nouvelles infrastructures à mettre en place seraient coûteuses. Dans ce cas, on adjoindrait du carbone à l'hydrogène (charbon ou biomasse...) pour produire un carburant de synthèse utilisable dans la technologie standard des moteurs actuels.
La maîtrise de la demande
La source principale d'énergie à utiliser est négative: ce sont toutes les économies que l'on pourrait faire. En ce domaine, qu'il s'agisse d'éclairage, d'isolation thermique, de consommations automobiles ou autres, les progrès potentiels sont considérables. Un français moyen consomme 5kW et un américain du nord 11 kW, alors que la moyenne mondiale est de l'ordre de 1 kW seulement. D'une part les riches peuvent arrêter de gaspiller, d'autre part les pauvres ont un droit légitime de consommer plus. Le problème n'est pas seulement technique, c'est bien clair.
Dans un scénario de « laisser-faire », la consommation en 2050 pourrait atteindre 30 GteP, soit 3 fois la consommation actuelle, alors que les scénarios les plus sobres incluant un développement significatif des pays pauvres atteignent une consommation de 15 GteP en 2050. La maîtrise de la demande permettrait donc de gagner un facteur 2. Confronté au défi climatique, on peut conclure que cette maîtrise de l'énergie est indispensable, mais malheureusement non suffisante, et que le développement massif de sources n'émettant pas de CO2, nucléaires et renouvelables, est urgent.
Le problème des énergies, de leur consommation comme de leur production, de leur stockage et de leur transport est majeur ; ses solutions ne sont que partiellement connues et nécessitent une recherche scientifique et technique considérable, à soutenir dès aujourd'hui pour anticiper la fin des combustibles fossiles.
Au-delà des aspects technologiques, une politique mondiale de l'énergie, basée sur une approche pacifique et non sur un système de domination, est incontournable. Un droit d'accès à l'énergie est souhaitable pour les pays les plus pauvres, et cela doit passer par une mise à disposition de nouvelles technologies, respectueuses de l'environnement, mais très chères ; voilà sans doute le véritable défi du siècle à venir en matière d'énergie.
Pur en savoir plus :
http://sfp.in2p3.fr/Debat/debat_energie
http://manicore.com
http://www.iea.org/
http://peakoil.net
Encadré 1
Le nucléaire
Le nucléaire durable
Si le nucléaire est amené à se développer significativement, les filières actuelles épuiseront les réserves d'uranium avant la fin du siècle. En effet, elles utilisent essentiellement l'uranium-235, présent à 0.7 % seulement dans le minerai d'uranium. Ainsi, pour faire fissionner une tonne de matière, il est nécessaire d'extraire 200 tonnes d'uranium naturel, soit un taux d'utilisation du minerai très faible. Les réserves estimées d'uranium (environ 16 millions de tonnes) ne permettent pas d'envisager un déploiement durable d'une énergie nucléaire significative au niveau mondial basé sur les filières à uranium enrichi. L'essentiel du minerai d'uranium (U-238) ne fissionne pas mais, quand il capture un neutron, il produit un noyau susceptible de fissionner, dit « fissile », qui produira donc de l'énergie : U-238 + n ® Pu-239. On obtient également un noyau fissile en utilisant le deuxième actinide naturel, le Thorium-232 : Th-232 + n ® U-233. On parle alors de régénération ; dans ce cas, tout le minerai (dit alors « fertile ») est utilisé, et le problème des réserves est réglé pour des millénaires. Le thorium n'est pas utilisé aujourd'hui, mais pourrait s'avérer tout à fait intéressant dans le cadre d'un recours à des cycles régénérateurs ( Cf. figure 13).
figure 13
Il faut enfin noter que dans le cas d'un système régénérateur, tous les actinides peuvent être recyclés (matière fissile et noyaux plus lourds), ce qui diminue considérablement la radiotoxicité des déchets destinés au stockage géologique. Ces déchets ultimes contiendront des traces des noyaux lourds (pertes au retraitement), les performances de séparation sont donc primordiales pour minimiser la radiotoxicité à long terme des déchets destinés au stockage géologique, et de nouvelles méthodes sont explorées, et notamment la pyrochimie. Le cycle thorium a l'avantage supplémentaire de produire peu de noyaux lourds radioactifs.
La régénération n'est pas simple à obtenir, car elle nécessite de pouvoir disposer de suffisamment de neutrons. Les neutrons produits par les fissions (entre 2.5 et 3) doivent à la fois induire une nouvelle fission, mais également régénérer la matière fissile consommée. Les propriétés physiques des noyaux fissiles font que le cycle Uranium/Plutonium a besoin de neutrons de haute énergie cinétique pour pouvoir atteindre la régénération. L'extraction de chaleur doit alors se faire par des noyaux lourds (l'eau est proscrite), ce qui a conduit au concept de Superphénix, refroidi au sodium, qui permet de ralentir les neutrons suffisamment peu pour obtenir un système régénérateur. Le sodium pose des problèmes de manipulation, qui ont fait de Superphénix (en plus d'une victime politique) une machine d'une technologie complexe et difficilement commercialisable. Il faut également noter que le programme nucléaire mondial s'étant essoufflé, le recours à la régénération ne se justifiait plus, du moins économiquement. Les alternatives au sodium sont le Plomb, qui pose aujourd'hui des problèmes complexes de corrosion de matériaux, et le gaz (hélium) nécessitant quant à lui l'élaboration d'un combustible très innovant compatible avec les hautes températures spécifiques aux systèmes refroidis à l'hélium. Autre problème de taille, un réacteur à neutrons rapides (de 1GW électrique) nécessite de disposer d'au moins 12 tonnes de plutonium pour démarrer. Cet inventaire en matière fissile correspond à la masse totale de plutonium produite par un réacteur actuel pendant 50 ans de fonctionnement. Il apparaît clairement qu'il est impossible d'assurer un déploiement rapide du nucléaire basé seulement sur une filière rapide, et qu'il faudrait construire de nombreux réacteurs à uranium enrichi avant d'opérer la transition vers une filière durable basée sur le cycle uranium/plutonium à neutrons rapides.
Dans ce contexte, le cycle Thorium/Uranium-233 présente de nombreux avantages, à condition de mettre au point une nouvelle technologie. Il s'agit dans ce cas d'utiliser des neutrons de faible énergie, mais de retraiter efficacement le combustible, qui accumule des produits de fission. Compte tenu des faibles énergies de neutrons de ces réacteurs, ces produits de fission sont des poisons neutroniques efficaces, qui captureraient beaucoup de neutrons et rendraient impossible une régénération durable s'ils étaient laissés dans le combustible. Leur extraction rapide est rendue possible par l'utilisation d'un combustible liquide (sel fondu), servant lui-même de caloporteur, et qui peut être en partie dévié avant son retour en cSur, pour être retraité en ligne. Ce concept qui a fait l'objet d'études approfondies aux Etats-Unis dans les années 60 nécessite environ 2 tonnes de matière fissile (contre 12 pour un réacteur à neutrons rapides) pour démarrer, ce qui amène une souplesse de déploiement incontestable. Ces différents concepts sont étudiés dans le cadre du forum international Génération 4, lancés en 2001 à l'initiative des Etats-Unis, afin de mettre en commun au niveau mondial des efforts de recherche sur l'énergie de fission durable ( Cf. figure 14).
figure14
Les déchets : que faire en attendant ?
L'uranium enrichi après combustion contient encore 95 % d'uranium (essentiellement 238), environ 3 % de produits de fission (noyaux de masse 115 environ issus de la fission des actinides), et des noyaux plus lourds, plutonium en tête, lequel domine la radiotoxicité à long terme.
Comme on l'a vu, le plutonium est une matière fissile précieuse indispensable pour amorcer le déploiement de réacteurs régénérateurs durables. Il est par contre le déchet le plus important dans le cas d'un arrêt à court terme du nucléaire.
C'est pour cette raison qu'il est assez difficile aujourd'hui d'avoir une vision arrêtée de la gestion des déchets, inversement, il ne peut être envisageable de renvoyer toute décision au siècle prochain ; la souplesse et la capacité d'adaptation doivent donc être des caractéristiques recherchées dans les options retenues. En observant les diverses politiques de gestion de l'aval du cycle, on s'aperçoit qu'il existe déjà des différences notables entre divers pays. Certains pays (USA, Suède, ...) considèrent leur combustible irradié comme déchet à stocker (scénario de cycle ouvert). D'autres pays (France, Japon, ...) retraitent leur combustible pour en extraire l'uranium et le plutonium, ce dernier étant recyclé dans des combustibles de type MOX, pour un passage supplémentaire en réacteur. Ce scénario de mono-recyclage permet de réduire considérablement la charge thermique et radiotoxique des déchets destinés au stockage, puisque le plutonium en est absent. Il permet également de réduire les volumes de combustibles irradiés (contenant du plutonium) à entreposer, puisque seuls les MOX usés ne sont pas retraités. Cette stratégie constitue donc une solution d'attente assez optimisée, mais la gestion des MOX irradiés ne trouvera une réponse définitive que lorsqu'on sera certain de l'avenir du nucléaire.
Il est possible d'améliorer cette stratégie en séparant les actinides plus lourds (Am et Cm). Dans ce scénario optimisé, la radiotoxicité à long terme des déchets vitrifiés est réduite de près d'un facteur 1000. Une fois séparés, les actinides mineurs peuvent être incinérés dans des réacteurs dédiés, ou entreposés dans l'attente des réacteurs à neutrons rapides du futur, éventuellement capable de les incorporer à leur propre cycle. Encore une fois il ne s'agira que d'une solution d'attente.
Encadré 2
Le solaire photovoltaïque
Quel déploiement pour le solaire photovoltaïque ?
Il faut distinguer deux types d'utilisation de nature et d'horizons temporels très différents.
I - Zones rurales et isolées: les pays en développement (PED).
Parmi les problèmes auxquels doivent faire face les zones isolées, non reliées à un réseau électrique, et en particulier les PED, celui de l'énergie et de la production locale d'électricité pour satisfaire les besoins élémentaires des populations est certainement un des plus importants. Une quantité, même très faible, d'électricité (quelques watts pendant quelques heures par jour) est nécessaire pour atteindre un minimum de confort ou de sécurité médicale. Pour ces régions, le photovoltaïque est de loin la solution générale la mieux adaptée. En l'absence de connexion à un réseau électrique, la question du prix du kWh ne se pose pas, toutes les autres sources étant plus chères. Pour l'éclairage, par exemple, même la lampe à pétrole revient plus cher, sur le long terme, qu'un kit photovoltaïque ! La production individuelle, ou par mini-centrale à l'échelle d'un village, permet:
- de satisfaire les besoins de première nécessité (éclairage, pompage d'eau potable);
- de briser l'isolement des populations rurales (télévision, enseignement);
- la petite irrigation des cultures;
- de satisfaire certains problèmes de santé, comme le stockage au froid des vaccins ou l'alimentation de petites antennes médicales.
Bien sûr, l'alimentation en électricité des PED ne représente pas, même à l'échelle de la planète, une quantité d'énergie considérable, encore que l'on estime à 2 milliards, au moins, le nombre d'habitants qui ne sont pas (et ne seront sans doute jamais) reliés à un réseau de distribution électrique. Mais, le bénéfice humanitaire et politique est tellement conséquent, que c'est l'intérêt bien compris des pays industrialisés de participer, par leur capitaux mais aussi par leur potentiel de recherche, à ces opérations.
II - Production centralisée d'électricité: les centrales solaires
La production d'énergie solaire au niveau des mégawatts (MW) est d'une toute autre nature et fait l'objet de polémiques parfois passionnées. D'abord quelques remarques de mise au point pour corriger certaines opinions erronées et parfois absurdes.
a) Surface au sol. Le « sentiment » que la surface occupée par des centrales solaires serait rédhibitoire ne résiste pas à une analyse quantitative. L'énergie lumineuse reçue en plein soleil est proche de 1kW/m2. Mais cette énergie nous arrive d'une manière intermittente: il n'y en a pas la nuit, et même pendant le jour elle peut être fortement diminuée par la brume ou les nuages. Sur le territoire français, on observe effectivement que la puissance moyenne, sur une année, n'est que 100 à 200 W/m2 de puissance lumineuse suivant l'endroit. Le rendement de conversion électricité/lumière d'un capteur photovoltaïque industriel étant de 10 à 15 %, on arrive à une puissance moyenne électrique sur l'année de 10 à 30 W/m2. Pour une centrale de 1000 MW, cela représente une surface, dans le pire des cas de (10x10km2), à (6x6km2) dans un cas plus favorable. Ces surfaces sont acceptables pour un site industriel, et extrapolables à une centaine de sites totalisant toute la production française d'électricité.
b) Stockage inter saisonnier. Le stockage long terme n'est pas un problème spécifique du photovoltaïque. Il est vrai que l'énergie solaire nous arrive d'une manière intermittente et qu'un stockage inter saisonnier est nécessaire pour parler de moyenne annuelle. Mais s'il était réalisé, il permettrait de corriger dès maintenant la différence de rythme entre la production (continue) et l'utilisation (en pointes) de l'électricité. L'économie réalisée par ce stockage est estimée à 13 % de la production française, soit beaucoup plus que la production photovoltaïque avant de nombreuses années. Une des manières de réaliser ce stockage inter saisonnier serait, par exemple, de produire de l'hydrogène et de l'oxygène par électrolyse, et de stocker les gaz ainsi obtenus dans des anticlinaux vidés de leur pétrole ou de leur gaz naturel, par exemple sur le site de Lacq en Aquitaine.
Quand peut-on espérer une pénétration non négligeable (disons 25 %) du photovoltaïque dans la production française d'électricité ? Les avis divergent fortement, sans que personne de responsable n'avance de date inférieure à 2020-2030. La condition nécessaire pour une telle pénétration est que le kWh photovoltaïque descende au dessous du prix des autres sources d'énergie. Le problème est difficile et les prédictions aléatoires. Les paramètres techniques et scientifiques ne sont pas seuls en cause, encore que des grands progrès, ou même une percée, dans la physique des matériaux photovoltaïques pourraient changer la donne: il faut poursuivre et sans doute augmenter l'effort de recherche dans ce domaine.
Mais la réponse dépend fortement des conditions économiques et politiques. Les plus optimistes (les Allemands en particulier, surtout pour des raisons d'écologie) pensent que, à condition qu'un effort et qu'une volonté politique suffisants soient déployés, l'électricité solaire pourrait aboutir avant 2050. D'autres sont très sceptiques sur cette prédiction et pensent que l'électricité photovoltaïque ne pourra déboucher que lorsque les autres sources d'énergie auront disparu ou seront devenues très chères, soit pas avant la fin du siècle.
La France, fière (à juste titre) de son parc nucléaire, a fortement réduit ces dernières années son activité technique et scientifique dans le domaine des cellules solaires. C'est bien dommage, car notre pays, qui pourtant a été pionnier dans l'invention et la recherche du photovoltaïque, risque ainsi d'être absent dans les énergies du futur.
[1] Ce texte est paru initialement dans/Images de la physique de 2005/ (édition, année de la physique)

 

VIDEO                CANAL  U               LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

PROJECTIONS CLIMATIQUES

 

Paris, 2 décembre 2013


Des projections climatiques d'une précision inégalée sur toute l'Europe


Une équipe internationale impliquant le CNRS, Météo-France, le CEA, l'UVSQ et l'INERIS1, a réalisé puis analysé2 un ensemble de projections climatiques sur toute l'Europe d'une résolution sans précédent (12 km), en affinant les simulations globales réalisées pour le 5e rapport du GIEC. Ces simulations pour le XXIe siècle offrent désormais une représentation beaucoup plus fine des phénomènes locaux et des événements extrêmes. Les premières analyses confirment un accroissement sensible de la fréquence des événements extrêmes : pluies intenses, vagues de chaleur et périodes de sécheresses. Les données de ce projet Euro-Cordex viennent d'être rendues publiques et mises à disposition des scientifiques. Elles permettront de nouvelles études, plus précises, de l'impact du changement climatique en Europe sur la qualité de l'air, l'hydrologie et les événements extrêmes. Autant de domaines qui concernent des secteurs clés comme l'énergie, la santé et l'agriculture.
Euro-Cordex : des prévisions plus fines sur le climat de l'Europe 
Ces nouvelles simulations confirment les projections présentées en septembre dernier3 pour la planète tout en donnant une vision beaucoup plus précise sur l'Europe. Elles prévoient une hausse des températures en Europe de 1°C à 5°C d'ici la fin du XXIe siècle, avec des différences d'une région et d'une saison à une autre. L'Europe du Sud devrait subir un réchauffement beaucoup plus rapide que l'Europe du Nord en été, et le réchauffement hivernal serait plus rapide sur l'Est et le Nord de l'Europe. Les précipitations devraient être plus fortes sur le Nord de l'Europe et plus faibles sur le Sud. Dans pratiquement tous les pays européens, les simulations projettent une fréquence accrue des précipitations intenses, phénomènes bien mieux représentés qu'auparavant grâce à la haute résolution obtenue. Des périodes sèches plus longues et des vagues de chaleur plus fréquentes sont annoncées. La France quant à elle a un futur contrasté avec une augmentation marquée et généralisée des précipitations en hiver, ainsi qu'une augmentation des périodes sèches en été, particulièrement dans sa partie méridionale. Les simulations de haute résolution permettent de représenter des phénomènes comme les précipitations intenses sur les massifs montagneux (voir figure ci-dessous).

 

DOCUMENT                CNRS                LIEN

 
 
 
 

MOTEURS MOLCULAIRES

 

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE


De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires (naturels). Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le "fioul" biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable. L'élaboration de "machines" et "moteurs" moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un "moteur". D'ores et déjà, certaines équipes de chimiste ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des "muscles" moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe. Quelques exemples représentatifs seront discutés lors de l'exposé. Un certain nombre de questions ayant trait aux applications potentielles du domaine de "nanomécanique moléculaire" seront abordées : - "ordinateurs moléculaires", pour lesquels certains chercheurs fondent de grands espoirs, stockage et traitement de l'information au niveau moléculaire, - robots microscopiques, capables de remplir une grande variété de fonctions allant de la médecine à la vie de tous les jours, - transport sélectif de molécules ou d'ions à travers des membranes.

 

VIDEO                 CANAL  U                LIEN

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

LE TEMPS

 

Texte de la 188e conférence de l’Université de tous les savoirs donnée le 6 juillet 2000.


Le temps, son cours et sa flèche
par Etienne KLEIN


Un peu de poésie pour commencer
C'est à un physicien britannique, Arthur Eddington, que le temps doit d'être équipé (depuis 1929) d'un emblème, la flèche, que la mythologie attribuait jusque-là à Éros, le dieu de l'amour, représenté comme un enfant fessu et ailé qui blesse les cœurs de ses flèches aiguisées. La flèche du temps ne symbolise plus le désir amoureux, hélas, mais le sentiment tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour les physiciens, elle se traduit par l'irréversibilité de certains phénomènes physiques. Elle se distingue du cours même du temps, avec lequel elle est pourtant souvent confondue.
Avant d'entrer dans le vif du sujet, je voudrais vous proposer quelques phrases d'écrivains ou de poètes, qui chacune à sa façon, évoquent soit le cours du temps, soit sa flèche, soit un mélange des deux.
Commençons par Sacha Guitry : « Madame est en retard. C’est donc qu’elle va venir. » C'est le cours du temps qui est ici évoqué, d'une façon non dramatique mais cruellement misogyne. Continuons avec Georges Perros, l'auteur des Papiers Collés : « L’horloge sonne. C’est le temps qui tâte son pouls. » Voilà sans doute la façon la plus neutre d'évoquer le fait que le temps passe et de dire qu'il a un cours bien défini. Poursuivons avec Robert Desnos : « La feuille qui tombe et la roue qui tourne te diront que rien n’est perpétuel sur terre. » Cette phrase juxtapose l'idée de temporalité à celle de finitude. Tristan Tzara, un autre poète surréaliste, enfonce le clou d'une façon qui fait froid dans le dos : « Je me souviens d’une horloge coupant des têtes pour indiquer les heures. » C'est que le temps a à voir avec l'irréversibilité et avec la mort. Loin de pouvoir tuer le temps, c’est lui qui nous dévore. L'Antiquité associait d'ailleurs la planète Saturne au cruel titan Kronos qui dévorait ses enfants au fur et à mesure que son épouse Rhéa les mettait au monde. Mais comme il n'est pas question aujourd'hui de sombrer dans la délectation morose en associant trop directement temps et mort, nous terminerons ce petit florilège par ces mots de Jorge Luis Borges (dans Aleph), qui rappellent que la valeur de la vie, la vie comme valeur, s'enracine justement dans la connaissance de son essentielle précarité : « La mort rend les hommes précieux et pathétiques. Ils émeuvent par leur condition de fantômes ; chaque acte qu'ils accomplissent peut être le dernier ; aucun visage qui ne soit à l'instant de se dissiper comme un visage de songe. Tout chez les mortels a la valeur de l'irrécupérable et de l'aléatoire. »
Qu'est-ce que temps ?
Nos réflexions sur le temps sont presque toujours confuses, sans doute parce que nous ne savons pas trop de quel type d'objet il s’agit. Le temps est-il une chose ? Est-ce une idée ? Est-ce une apparence ? N'est-ce qu'un mot ? Existe-t-il en dehors de l’ « âme », selon le terme de saint Augustin ? Est-il un produit de la « conscience », selon le terme de Husserl ? Il est difficile de répondre à ces questions, mais très souvent on croit que les scientifiques, et notamment les physiciens, seront un jour capables de nous révéler la nature du temps, ou du moins d'en proposer une définition qui serait plus exacte que les autres. Il s'agit sans doute d'un malentendu, car il est toujours difficile de définir les mots importants. Peut-être est-ce même impossible puisque, si ces mots sont vraiment fondamentaux, on ne peut pas les rapporter à autre chose qu'eux-mêmes. Définir, c’est avant tout ramener une conception donnée à une autre plus fondamentale. Mais qu’y a-t-il de plus fondamental que ce qui est déjà fondamental ? Rien, et c’est sans doute pourquoi le philosophe Martin Heidegger avait raison de remarquer que les scientifiques posent finalement très peu de questions comme « Qu’est-ce que le temps ? », « Qu’est-ce que l’espace? », « Qu’est-ce que la matière? », alors que c’est souvent la réponse à ces questions que l’on attend d’eux.
On oublie trop souvent que la puissance de la physique vient de ce qu'elle a su limiter ses ambitions. Elle ne s'intéresse pas à toutes les questions qui se posent dans nos têtes, loin s'en faut. Elle prend soin de ne sélectionner que celles qui relèvent de ses compétences et de sa méthode. Par exemple, elle n'essaie pas de résoudre la question de la nature du temps, ou du moins, si elle le fait, c'est seulement à la marge de ses théories. Elle cherche plutôt la meilleure façon de représenter le temps, ce qui est une tout autre affaire.
Attardons-nous deux minutes sur l'épineuse question de la définition du temps. Chacun comprend de quoi on veut parler lorsque le mot temps est prononcé, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l’est pas. Bien sûr, on peut tenter de définir le temps et les philosophes n'ont pas manqué de le faire : le temps est ce qui passe quand rien ne se passe, il est ce qui fait que tout se fait ou se défait, il est l’ordre des choses qui se succèdent, il est le nombre du mouvement selon l'avant et l'après, il est le devenir en train de devenir. Mais toutes ces expressions contiennent déjà l'idée du temps (par exemple, l’idée de « passage » présuppose l’idée d’une temporalité, c’est-à-dire de quelque chose qui s’écoule). Elles ne sont donc que des métaphores du temps, impuissantes à rendre compte de sa véritable nature. Cela n'est pas très grave, car il n'est pas nécessaire de définir le temps pour en proposer une représentation. De fait, les physiciens sont parvenus à en faire un concept opératoire sans être capables de le définir précisément.
La physique et le temps
Y flairant une source de paradoxes, les philosophes n’ont cessé d’interroger la réalité du temps, et ce depuis l’Antiquité grecque. Souvenons-nous par exemple de la solution avancée par Parménide et les Éléates, qui proposaient de confondre la matière et l'espace, excluant par là même le vide et se trouvaient contraints de penser le mouvement comme une simple translation, c'est-à-dire comme une succession de positions fixes. Du coup, le temps leur demeurait inexplicable, et c'est pourquoi ils s'attachaient à le démontrer impossible et à tout décrire à partir de l'immobilité. Souvenons-nous également de Héraclite et des atomistes, qui prirent un autre parti : ils proposaient de confondre la matière avec le mouvement et affirmaient la réalité du vide. Selon eux, tout est mobile, tellement mobile même qu'on ne peut pas imaginer de point fixe pour évaluer les changements d'état ni expliquer quoi que ce soit.
L'influence de Parménide a été très forte en physique. En effet, la physique a longtemps cherché à éliminer le temps. Le temps est associé au variable, à l’instable, à l'éphémère, tandis que la physique, elle, est soi-disant à la recherche de rapports qui soient soustraits au changement. Lors même qu’elle s’applique à des processus qui ont une histoire ou une évolution, c’est pour y discerner soit des substances et des formes, soit des lois et des règles indépendantes du temps. Mais dans sa pratique, elle se heurte évidemment au temps, d'une façon telle que la question de savoir si le monde doit être vu plutôt comme un système ou plutôt comme une histoire continue de se poser. La physique a-t-elle vocation à décrire l'immuable ou bien doit-elle être la législation des métamorphoses ?
Le temps existe-t-il ?
Aristote a posé la question de l'existence du temps d'une façon qui a été abondamment discutée : puisque le passé n'est plus, puisque que l'avenir n'est pas encore, puisque le présent lui-même a déjà fini d'être dès qu’il a commencé d’exister, comment pourrait-il y avoir un « être » du temps ? Le temps a beau contenir la totalité de ce qui est, nous ne parvenons pas à le penser autrement que comme une limite toujours disparaissante entre deux néants, le passé d'un côté, l’avenir de l'autre. Mais un être qui n’est qu’en cessant d’être, est-ce encore un être ?
Si l’on peut ainsi s’interroger sur l’existence même du temps, il est en revanche très difficile de dire le monde sans faire appel à lui, et tout aussi difficile de nier les marques indélébiles qu’il imprime sur les choses et sur nos propres corps. Le temps se présente à nous d'une façon ambiguë : d'une part, il est ce qui fait que les choses persistent à être (on pourrait donc dire, plus plaisamment, qu'il est le moyen le plus commode qu'a trouvé la nature pour que tout ne se passe pas d'un seul coup) ; d'autre part, il est ce qui les fait changer. Le présent, qui est finalement la seule chose qui nous soit présente, a en effet ceci de paradoxal qu'étant à la fois toujours présent et jamais le même, de sorte que l'on doit admettre qu'il imbrique la permanence et le changement.
Une difficulté soulevée par la question du temps consiste en ce que nous ne pouvons pas nous mettre en retrait par rapport à lui. D’habitude, lorsque nous voulons étudier un objet, nous commençons par l’observer sous divers angles, mais lorsqu’il s’agit du temps, la mise à distance n’est plus possible puisqu’il nous affecte sans cesse. Nous sommes dans le temps et nous ne pouvons pas en sortir. C’est d’ailleurs une caractéristique que le temps partage avec l’espace puisque nous ne pouvons pas non plus nous extraire de l’espace. Mais il y a une différence essentielle entre le temps et l’espace : nous pouvons nous déplacer à l’intérieur de l’espace, aller et venir dans n’importe quelle direction, alors que nous ne pouvons pas changer notre place dans le temps. L’espace est donc le lieu de notre liberté, le temps la marque de notre emprisonnement.
Je cesserai là mes petites digressions philosophiques, par manque de temps d'abord, mais aussi parce que les historiens des sciences s'accordent à dire que la physique moderne a commencé avec Galilée, qui justement prit garde à ne pas se perdre en vaines discussions à propos de la nature ou de la réalité du temps. Il ne s'intéressa qu'au statut qu'il convenait de lui donner dans le champ de la physique. Cela l'amena à considérer le temps comme une grandeur quantifiable susceptible d'ordonner des expériences et de les relier mathématiquement. C'est dans cet esprit qu'il étudia la chute des corps. Il réalisa que si le temps, plutôt que l'espace parcouru, était choisi comme le paramètre fondamental, alors la chute des corps obéissait à une loi simple : la vitesse acquise est simplement proportionnelle à la durée de la chute. Cette découverte signa la naissance de la dynamique moderne, qui allait donner au temps un statut inédit. Jusqu'alors, l'idée que l'on s'était faite du temps était restée centrée sur des préoccupations humaines. Le temps servait essentiellement aux hommes de moyen d'orientation dans l'univers social et de mode de régulation de leur coexistence, mais il n'intervenait pas de façon explicite et quantitative dans l'étude des phénomènes naturels.
Temps physique et temps psychologique
Puisqu'elle est limitée dans ses ambitions, la physique ne prétend pas répondre à toutes les questions qui concernent le temps. Par exemple, elle échoue à rendre compte de la relation entre le temps physique et le temps psychologique, entre le temps des horloges et celui de la conscience. Ces deux temps ont certainement des liens, mais certaines de leurs propriétés sont distinctes, voire antagonistes. Déjà, leurs structures diffèrent. Le temps physique est toujours représenté comme un mince filament qui s'écoule identiquement à lui-même. Mais le temps subjectif, lui, se déploie en ligne brisée, entremêle des rythmes différents, des discontinuités, de sorte qu'il ressemble plutôt à un cordage tressé. Notre conscience éprouve en effet plusieurs temporalités enchevêtrées, tant par leur nature (le temps de nos sensations, celui de nos idées, de nos humeurs,…) que par leurs échelles, tout comme une corde est faite de multiples brins, eux-mêmes composés de fines et courtes fibres.
Temps physique et temps psychologique se distinguent aussi par le fait que le premier, toujours ponctuellement concentré dans le présent, sépare l’infini du passé de l’infini du futur tandis que le second mélange au sein du présent un peu du passé récent et un peu de l’avenir proche. Dans le temps physique, des instants successifs n’existent jamais ensemble, par définition. Le temps psychologique, lui, élabore une sorte de coexistence au sein du présent du passé immédiat et du futur imminent[1]. Il unit donc ce que le temps physique ne cesse de séparer, il retient ce qu’il emporte, inclut ce qu’il exclut, maintient ce qu’il supprime. Ainsi, lorsqu’on entend une mélodie, la note précédente est « retenue » avec la note présente et la projection de la note future pour former un ensemble harmonieux. Passé immédiat et futur imminent coexistent donc dans le présent. Sans cette alliance au sein de la conscience, chaque note serait isolée et il n’y aurait pas de mélodie à proprement parler.
Temps physique et temps psychologique se distinguent également par leur fluidité. Le premier s'écoule uniformément (du moins dans la conception classique) tandis que le deuxième a une fluidité si variable que la notion de durée éprouvée n'a qu'une consistance très relative : il n'y a pas deux personnes qui, dans un temps donné, compteraient un nombre égal d'instants. Notre estimation des durées varie avec l’âge, et surtout avec l'intensité et la signification pour nous des événements qui se produisent[2] Rien de tel pour le temps physique, et c'est bien pourquoi nous portons des montres.
Enfin, les temps physique et psychologique n'accordent pas des statuts semblables aux notions de passé et d'avenir. C'est la question de la flèche du temps, sur laquelle nous reviendrons par la suite. Ce que je veux dire dans un premier temps, c'est que l'irréductibilité des temps physique et psychologique semble insurmontable, du moins pour le moment. On se doute bien que leurs liens se situent à la couture de la matière et de la vie, mais les tentatives pour dériver le temps du « monde » du temps de « l'âme » ou l'inverse n’ont pas vraiment abouti. Le temps mathématisé du physicien ne semble pas épuiser le sens du temps vécu, pas plus que le temps vécu ne donne l'intuition de toutes les facettes du temps physique.
À force de schématisation, la physique a peut-être laissé échapper quelques-unes des propriétés fondamentales du temps. Le temps monotone des physiciens, constitué de tic-tac répétitifs et esseulés, n'est peut-être qu'une idéalisation très appauvrie du temps de la vie.
L'écoulement du temps pourrait-il être discontinu ?
Tout au long de son histoire, la physique a considéré que l'espace est un continuum, c'est-à-dire qu'il est possible d'envisager des portions de longueurs aussi petites que l'on veut, sans jamais atteindre de limite. Le point, qui correspondrait à un nombre infini de divisions, reste toutefois hors d'atteinte, mais on peut en principe s'en rapprocher continûment. Le fait qu'il soit ainsi possible de considérer des longueurs infimes, et même nulles, fait surgir d'énormes difficultés, par exemple lorsque l'on s'intéresse au champ électrique produit par une charge électrique, disons un électron, à la distance r de celui-ci. Ce champ, variant comme 1/ r2, devient infini lorsque la distance r s'annule. De telles divergences ou singularités conduisent à des difficultés mathématiques que les physiciens tentent d'éviter de différentes façons : soit en assignant un domaine de validité limité aux expressions divergentes (on supposera pour l'exemple cité ci-dessus que, si la distance r devient trop petite, l'expression en 1/ r2 doit être remplacée par une autre, non divergente) ; soit en utilisant des procédés mathématiques qui abolissent « artificiellement » ces divergences et autorisent le calcul. On peut citer par exemple la théorie des distributions, être mathématiques ressemblant à des fonctions discontinues qui prendraient une valeur nulle en tous les points de l'espace, sauf en un seul. On peut également évoquer la procédure dite de renormalisation. Celle-ci consiste à éliminer toutes les quantités infinies qui apparaissent dans les calculs en retranchant à celles-ci un petit nombre de quantités elles-mêmes infinies, de sorte d'obtenir un résultat fini.
Une dernière piste, plus audacieuse, consiste à imaginer que l'espace lui-même pourrait être discret, c'est-à-dire structuré selon un réseau, dont la maille, finie et non nulle, représenterait une distance minimale au-dessous de laquelle il serait impossible de descendre. Toute divergence serait ainsi évitée. Mais là aussi, de terribles problèmes se posent. D'abord, quelle serait la taille de la maille et d'où proviendrait-elle ? Ensuite, un tel réseau introduirait des directions privilégiées qui détruirait l'isotropie de l'espace, c'est-à-dire son invariance par rotation. Or cette invariance joue, avec d'autres symétries du même type, un rôle fondamental dans toute la physique en imposant des lois de conservation très contraignantes.
Des travaux mathématiques récents, notamment effectués par Alain Connes dans les années 1980, pourraient toutefois changer la donne. Ils concernent ce qu'on appelle la géométrie non commutative. Celle-ci permet de considérer des structures spatiales qui présentent un caractère discontinu mais qui ne brisent pas les symétries fondamentales. Cette nouvelle géométrie est obtenue en remplaçant les coordonnées spatiales usuelles, qui sont des nombres ordinaires, par des opérateurs algébriques. L'appellation de la théorie provient de ce que ces opérateurs ne commutent pas entre eux (l'ordre de leur application n'est pas indifférent), mais vérifient au contraire certaines relations de commutation qui définissent les propriétés de l'espace à petite échelle. Les propriétés habituelles de l'espace étant restituées aux échelles de la physique habituelle, ce n'est qu'au-dessous d'une certaine échelle que les effets de cette géométrie apparaissent. Cette échelle, qui pourrait être celle dite de Planck (10-35 m), représenterait une limite à la divisibilité de l'espace.
Mais revenons-en au temps. Les physiciens le supposent constitué d'instants qui se succèdent dans une structure continue. Ces instants jouent pour le temps le même rôle que le point pour l'espace. Ils sont tout aussi inaccessibles à la perception. En effet, nous ne sentons pas les instants qui passent. Pour nous, ainsi que nous l'avons déjà dit, le présent est une sorte de fluide continu qui mélange un peu du passé immédiat et du futur imminent, sans qu'aucune de nos sensations ne vienne indiquer l'alchimie par laquelle une succession d'instants parvient à s’épaissir en durée. L'idée d'un temps discontinu, c'est-à-dire d'une atomicité de la durée, est parfois évoquée, mais aucune théorie n'est jamais venue l'éclairer, du moins à ma connaissance. Il faut dire qu'elle pose d'énormes difficultés conceptuelles : comment le temps pourrait-il être constitué d'instants séparés par des durées privées de temps ? L'impossibilité d'observer les instants ne va en tous cas pas contre l'idée d'un temps continu, de la même façon que l'absence d'objet véritablement ponctuel ne va contre la possibilité d'un espace continu.
La causalité et l’interdiction des voyages dans le temps
Le mouvement des aiguilles de nos montres incite à assimiler le temps à un flux composé d'instants infiniment proches parcourus les uns après les autres, c'est-à-dire à une variable à une seule dimension. Cette représentation du temps accorde au temps une topologie beaucoup plus pauvre que celle de l’espace, qui lui a trois dimensions. Elle n'offre en fait que deux variantes, la ligne ou le cercle, selon que la courbe du temps est ouverte ou fermée. Il n’y a donc a priori que deux types de temps possibles, le temps linéaire et le temps cyclique. Le cours du temps se manifeste sur ces courbes par le fait qu'elles sont orientées, c'est-à-dire parcourues dans un sens bien défini, du passé vers le futur.
Si les physiciens ont choisi d'adopter un temps linéaire plutôt que cyclique, c'est en vertu du principe de causalité selon lequel la cause d'un phénomène est nécessairement antérieure au phénomène lui-même. Ce principe de causalité interdit en outre les voyages dans le temps, car ceux-ci permettraient en principe de rétroagir dans le passé pour modifier une séquence d’événements ayant déjà eu lieu. Une telle possibilité conduirait à affronter de pénibles situations : un jeune homme pourrait rejoindre dans le passé sa grand-mère alors que celle-ci est encore jeune, lui faire un brin de cour au volant d'une belle voiture de sport, rater un virage et expédier la jeune femme ad patres, l'empêchant ainsi de mettre au monde le premier maillon de la descendance dont le susdit jeune homme fait pourtant partie… Un tel paradoxe, possible avec un temps cyclique puisque ce qu’on appelle la cause pourrait tout aussi bien être l’effet et vice versa, ne l'est pas avec un temps linéaire, celui-ci ordonnant les événements selon un enchaînement chronologique irrémédiable. On en peut pas à la fois aller vers le passé et vers l'avenir. De même qu'un fleuve coule toujours dans le même sens, de l'amont vers l'aval, le temps a un cours bien défini, s'écoulant du passé vers l'avenir, sans jamais rebrousser chemin ni faire de boucle, de sorte qu'un instant donné ne peut jamais se reproduire…
Le principe de causalité se décline de différentes façons selon les théories physiques. Il ne renvoie pas toujours explicitement à l'idée de cause, se contentant parfois d'imposer une chronologie obligatoire entre certains types d'événements. Mentionnons rapidement, à titre d'illustrations, la façon dont il est pris en compte en relativité (restreinte ou générale) et en physique quantique.
En relativité restreinte
Le principe de causalité est garanti par l'impossibilité de transmettre de l'énergie ou de l'information à une vitesse supérieure à celle de la lumière. Cette impossibilité interdit les voyages dans le temps et les renversements de chronologie.
En relativité générale
La causalité est violée s’il existe une boucle temporelle, c’est-à-dire une ligne d’univers refermée sur elle-même. La théorie prévoit que de telles boucles pourraient apparaître derrière l’horizon de trous noirs en rotation très rapide, mais rien ne garantit qu'elles existent.
En physique quantique non relativiste
La causalité est inscrite dans l’équation de Schrödinger qui fait jouer au Hamiltonien le rôle de générateur infinitésimal des translations dans le temps. Il s’agit d’une causalité sans cause explicite.
En théorie quantique des champs
Les contraintes de la causalité s’expriment au moyen des règles de commutation des opérateurs de champs. Un opérateur de création Ф*(x) d’une particule au point x et l’opérateur d’annihilation de cette même particule Ф(y) au point y doivent commuter pour une séparation du genre espace et ne pas commuter pour une séparation du genre temps. Ces règles empêchent une particule de se propager sur une ligne du genre espace (la particule se propagerait plus vite que la lumière) et imposent, pour une propagation sur une ligne du genre temps, que la création d’une particule précède son annihilation. Ces contraintes ne peuvent être satisfaites que si la décomposition en ondes planes des opérateurs de champs contient des fréquences négatives, correspondant à des antiparticules. L’antimatière est donc la trace « matérielle » du fait que le temps passe en sens unique.
D'une façon générale, le principe de causalité s'exprime par le biais de ce que l'on appelle l'invariance CPT, sur laquelle nous allons nous attarder.
L'invariance CPT
Certaines symétries géométriques nous sont familières. D’autres, plus abstraites, sont couramment invoquées par les physiciens. C'est le cas de la « parité », de la « conjugaison de charge », et du « renversement du temps ».
La parité est une opération, notée P, qui consiste à regarder l'image d'une expérience donnée dans un miroir. Prenons l’exemple d'une expérience réelle mettant en jeu une collision entre particules. Appliquer l'opération P à une telle situation consiste à réaliser par la pensée l'expérience telle qu'elle serait vue dans un miroir. La nature des particules mises en jeu reste la même. En revanche, leurs positions sont modifiées puisque droite et gauche sont inversées dans l'opération.
La question se pose évidemment de savoir si, une fois cette opération réalisée, la nouvelle expérience peut ou non se réaliser dans la nature ou en laboratoire. Si la réponse est oui, on dira que l'expérience respecte la symétrie P. Dans le cas contraire, on dira qu'elle la viole.
À toute particule est par ailleurs associée une antiparticule, de même masse qu'elle et dont toutes les charges, notamment la charge électrique, sont opposées à celle de la particule correspondante. La conjugaison de charge est précisément l'opération qui consiste à transformer (sur le papier) une particule en son antiparticule, et vice versa. Par exemple, elle transforme l'électron en positron et le positron en électron, le proton en antiproton et l'antiproton en proton. Cette opération est notée C, pour « charge », en raison de l'inversion des charges entre particule et antiparticule.
Partons à nouveau d'une expérience réelle mettant en jeu une collision entre particules. Enregistrons soigneusement les vitesses et les positions de chacune des particules qui interviennent tout au long de l'expérience. Appliquons maintenant l'opération C : à chaque fois que l'on rencontre une particule, on la remplace par son antiparticule et on lui impose de suivre exactement la même trajectoire que celle qu'avait la particule dans la situation initiale. Si par exemple on regarde une collision entre un proton et un neutron, l'opération C nous décrira la « même » collision, sauf qu'elle se produira entre un antiproton et un antineutron. Si, une fois cette opération accomplie, la nouvelle expérience peut se réaliser, on dira que l'expérience respecte la symétrie C. Dans le cas contraire, on dira qu'elle la viole.
Enfin, l'opération « renversement du temps », notée T, correspond à un renversement du mouvement plutôt qu'à une inversion du temps proprement dit. Elle consiste à dérouler un phénomène dans le sens inverse de celui dans lequel il s'est produit, autrement dit à passer le film à l'envers. Selon les lois classiques, si à un instant donné t0, pris comme origine des temps ( t0 = 0), les vitesses de chaque astre du système solaire (Soleil, planètes et leurs satellites) étaient renversées, leur trajectoire ne serait pas modifiée, mais la position de chaque astre sur sa trajectoire à l'instant ultérieur t serait celle qu'il occupait à l'instant -t.
La parité, la conjugaison de charge et le renversement du temps jouent un rôle fondamental dans les équations que manient les physiciens des particules, par le biais de l'invariance CPT : comme son sigle l'indique, l'opération CPT est le produit des trois opérations C, P et T. Cette opération ne modifiant aucune des lois connues de la physique, on parle d'invariance CPT.
En langage imagé, l'invariance CPT se traduit en disant que les lois physiques qui gouvernent notre monde sont identiques à celles d'un monde d'antimatière observé dans un miroir et où le temps s'écoulerait à l'envers. Fondamentalement liée au principe de causalité, qui ordonne les événements selon un enchaînement irrémédiable, elle a notamment comme conséquence une sorte de symétrie entre la matière et l'antimatière. En particulier, elle prévoit que la masse et la durée de vie des particules sont rigoureusement égales à celles de leurs antiparticules.
L’interaction faible et les kaons neutres
Pendant longtemps, les physiciens, s'appuyant sur le sens commun, crurent que toutes les lois de la physique respectaient la symétrie P. N'est-il pas évident, lorsque nous voyons un arrangement d'objets dans un miroir, que nous pourrions réaliser cet arrangement dans la réalité aussi ? Pourtant, il fut démontré en 1957, à la surprise générale, que l'interaction nucléaire faible, responsable notamment de la radioactivité  par laquelle un neutron se désintègre en un proton et un électron, ne respecte pas la symétrie P. Autrement dit, l'image dans un miroir d'un phénomène régi par l'interaction faible correspond à un phénomène qui n'existe pas dans la nature et qu'on ne peut pas non plus produire en laboratoire. Cette violation de la parité, apanage de l'interaction faible, permet de définir de façon absolue la droite et la gauche.
On démontra dans le même temps que l’interaction faible violait également l’invariance par conjugaison de charge, d’une façon telle que la symétrie globale PC était, elle, préservée. Cette invariance par CP, combinée à l’invariance CPT, impliquait l‘invariance par T. Ce résultat rassurant ne tint que quelques années. En 1964, une expérience révéla que l’invariance par PC est elle aussi brisée, même si ce n’est que très légèrement, lors de la désintégration (par l’interaction faible) de particules étranges qu’on appelle les kaons neutres. Ces particules sont les seules pour lesquelles une telle dissymétrie ait jamais été observée. Mais alors, CPT étant toujours conservée, si PC ne l’est pas en l’occurrence, c’est que T ne l’est pas non plus, mais cette violation n’avait pas été mise en évidence directement.
Une expérience du CERN, baptisée CPLEAR, a apporté en 1998 une pierre décisive à ce débat. Elle a permis de mettre en évidence, de façon directe, une violation de la symétrie temporelle au sein d’un système microscopique particulier, celui formé par un kaon neutre et son antiparticule. Il est établi depuis longtemps qu’un kaon neutre se transforme au cours du temps en sa propre antiparticule, qui à son tour se retransforme en kaon neutre. Ce que l’expérience CPLEAR vient de mettre en évidence, c’est que la vitesse à laquelle un kaon neutre se transforme en son antiparticule n’est pas exactement la même que celle du processus inverse, contrairement à ce que la symétrie T prévoit. C’est la première fois qu’est mesurée directement une différence entre un processus microscopique et le processus inverse. L’origine profonde de cette légère brisure de la symétrie temporelle passé-futur demeure mystérieuse.
La question de la flèche du temps
Pour nous, passé et futur ne sont pas équivalents. Par exemple, nous nous souvenons en partie du passé, mais pas du tout de l’avenir. Cette asymétrie entre passé et futur est la manifestation du cours même du temps. Depuis Newton, les physiciens se demandent si cette distinction existe également au niveau des phénomènes physiques. Font-ils eux aussi la distinction entre le passé et l'avenir ?
Pensons à une table de billard sur laquelle nous faisons entrer deux boules en collision. Après le choc, les deux boules repartent dans des directions opposées. Si les frottements sont négligeables, leurs vitesses resteront constantes. Imaginons que nous ayons filmé la collision et que nous projetions le film à l’envers. Cela équivaut à échanger les rôles respectifs du passé et de l’avenir, c’est-à-dire à inverser le cours du temps. Ce que l’on voit alors à l’écran, c’est une autre collision de deux boules, correspondant à la collision qui s’est réellement produite mais avec toutes les vitesses inversées.
Le point important est qu'un spectateur qui ne verrait que la projection du film inversé serait tout à fait incapable de dire si ce qu’il voit correspond à ce qui s’est réellement passé ou si le film a effectivement été retourné. La raison de cette ambiguïté est que la deuxième collision est régie par les mêmes lois dynamiques que la première. Elle est donc tout aussi « physique », au sens où elle est tout aussi réalisable que la collision originale. Autrement dit, une telle collision est « réversible ». Sa dynamique ne dépendant pas de l’orientation du cours du temps, elle ne fait aucune distinction entre le passé et l’avenir. Cela signifie, non pas qu'elle autorise les voyages dans le temps, mais que pour elle le cours du temps est arbitraire.
Selon la physique d’aujourd’hui, tous les phénomènes ayant lieu au niveau microscopique sont comme ces collisions de boules de billard, c'est-à-dire réversibles. Or à notre échelle, nous n'observons que des phénomènes irréversibles, à commencer par le fait que nous vieillissons : si nous filmons une scène de la vie courante et projetons le film à l’envers, nous voyons dès les premières images qu’il y a eu inversion (le plongeur est expulsé de la piscine et se retrouve bien sec sur son plongeoir). A l'échelle macroscopique, le temps ne fait donc pas que passer : il invente, il crée, il use, il détruit, sans jamais pouvoir refaire ce qu'il a défait.
Comment expliquer l’émergence de cette irréversibilité observée à l’échelle macroscopique à partir de lois physiques qui l’ignorent à l’échelle microscopique ? Ce problème, dit de « la flèche du temps » a été ardemment discuté depuis deux siècles. La plus ancienne explication s'appuie sur l'irréversibilité associée au second principe de la thermodynamique, selon lequel l'entropie d'un système isolé ne peut qu'augmenter au cours du temps : de même que de l'eau tiède ne redevient jamais une juxtaposition d'eau chaude et d'eau froide, un système macroscopique qui évolue ne peut revenir à sa configuration initiale. Plus récemment, des physiciens ont suggéré que la flèche du temps proviendrait plutôt de l'expansion même de l'univers, qui orienterait tous les processus physiques selon un cours irréversible. D'autres pistes faisant référence à la physique quantique ou à la physique des particules ont également été proposées. Toutefois, aucune de ces explications ne peut être présentée comme universelle et définitive. Il semble donc qu'il n'y ait pas d'unité théorique autour du concept de temps, comme si deux façons de penser ne cessent de s'affronter, celle qui se fonde sur l'histoire et le temps, et celle qui se fonde sur l'invariance et l'absence de temps. Elles correspondent peut-être à deux composantes contradictoires mais inséparables de notre effort pour comprendre le monde : nous ne pouvons pas penser le monde sans le temps et nous ne savons pas le raconter sans imaginer qu’il monnaie quelque invariance.

 

VIDEO            CANAL  U               LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google