ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

QUELLES SOURCES D'NERGIE D'ICI 2050 ?

 

Ce texte est similaire aux principaux points développés lors de la 594e conférence de l'Université de tous les savoirs donnée le 16 juillet 2005 par Sylvain David

Les sources d'énergie du 21e siècle[1]

par Sébastien Balibar, Sylvain. David, Ionel Solomon

Introduction & Contexte

Réchauffement global de la Terre, ou déchets nucléaires ? A l'aube du XXème siècle, tel semble être le dilemme auquel notre société se heurte. On parle d'énergies alternatives. Certains sont pour le nucléaire, d'autres sont contre, qu'en est-il vraiment ? Dans ce débat qui est complexe, face à des problèmes scientifiques et techniques difficiles, il est du devoir des physiciens de se mobiliser, pour informer le public et pour contribuer à la recherche de solutions.

figure 1

Les unités pour mesurer l'énergie

Sur les 14 000 Gigawatts thermiques que l'humanité consomme, environ 32 % proviennent du pétrole, 26 % du charbon et 19 % du gaz, soit 77 % de combustibles fossiles non-renouvelables, le reste se répartissant entre 5 % d'origine nucléaire, 6 % d'hydroélectrique, 10 % de la « biomasse traditionnelle » (essentiellement le bois) et 1 à 2 % d'autres énergies dites « renouvelables » telles que le solaire et les éoliennes. Cette énergie consommée est équivalente à 10 milliards de tonne de pétrole par an (10 Gtep/an), soit environ 1.5 tonne équivalent pétrole par habitant et par an. La consommation d'énergie varie grandement d'un région à l'autre ; alors qu'un américain du nord consomme près de 10 tep/an, un européen en consomme environ 4.5, un chinois 1.5 et un africain moins de 0.5 ( Cf. figure 2).

figure 2

Les projections pour le futur sont délicates, mais il apparaît aujourd'hui inévitable que cette consommation augmente significativement dans les décennies à venir. Les scénarios les plus sobres et très volontaristes prévoient une consommation de 15 milliards de tep par an (Gtep/an) pour 2050. Les scénarios qui prennent en compte une augmentation significative du niveau de vie des pays pauvres et un accès à l'énergie relativement facile atteignent 30 Gtep/an en 2050 ( Cf. figure 3). Ces derniers scénarios semblent aujourd'hui irréalistes, tant du point de vue des réserves de combustibles fossiles que de l'environnement et du climat. Un scénario envisageant un doublement de la consommation énergétique semble réaliste et souhaitable pour les pays en voie développement, et comme nous allons le voir, cette augmentation attendue doit être assurée par de nouvelles sources d'énergie.

figure 3

Les combustibles fossiles

En 2000, la consommation mondiale de combustible fossile atteignait 8 Gtep, répartie entre le pétrole (3.7), le gaz (2.1) et le charbon (2.0) ( Cf. figure 4).

figure 4

Il existe de grandes incertitudes concernant les réserves et les prix d'extraction, mais il est aujourd'hui admis que ce siècle verra la fin du pétrole et du gaz. Les géologues les plus pessimistes annoncent même que la production mondiale de pétrole commencera à décroître dès 2008 ( Cf. figure 5). Le gaz devrait durer un peu plus longtemps, quant au charbon, il en existe de grandes quantités réparties de façon plus homogène sur la planète ( Cf. figure 6).

figure 5

De grandes incertitudes sur les réserves de pétrole

(Référence : PR Bauquis - Total Prof. Associés)

figure 6

D'un point de vue environnemental, il ne fait plus aucun doute que brûler tant de combustibles fossiles a conduit à une augmentation très sensible du contenu en gaz à effets de serre de l'atmosphère, en particulier de CO2. Le contenu en CO2 de l'atmosphère vient de dépasser 365 ppmv (parties par million en volume) alors que, depuis 400 000 ans, il oscillait entre 180 ppmv lors des périodes glaciaires et un maximum de 280 ppmv dans les périodes chaudes. En conséquence, un réchauffement sensible de la planète a déjà eu lieu, environ 0.6 °C à ce jour. Cela peut paraître peu mais il semble inévitable que ce réchauffement s'accélère et atteigne au moins 3 degrés à l'horizon 2100 (dans l'hypothèse où l'on réduirait considérablement les émissions de CO2), peut-être 6°C si l'on ne réussit pas à réduire suffisamment ces émissions à très court terme. Ce réchauffement menace de transformer le climat global (fonte des glaces, augmentation des échanges d'eau entre l'équateur et les pôles, modification des courants marins, élévation du niveau des mers...), un phénomène que notre planète n'a jamais connu.

Stabiliser le climat nécessite de diviser par 2 l'émission de gaz à effet de serre, et compte tenu d'un doublement vraisemblable de la consommation d'énergie d'ici 2050, cela implique de diviser par 4 la proportion des combustibles fossiles dans le bouquet énergétique ( Cf. figure 7). Voilà l'ampleur du défi qui s'impose à nous.

figure 7

Les principales sources d'énergie, leurs potentiels et leurs contraintes, vont être maintenant passés en revue.

Le nucléaire de fission

Face à ces graves menaces, le nucléaire est une énergie abondante dès aujourd'hui, qui ne produit pas de gaz à effet de serre ( Cf. figure 8), mais qui nécessite néanmoins le recours à une technologie innovante pour être durable sur le long terme. Le nucléaire est-il donc la solution au problème énergétique de la planète ?

figure 8

L'énergie nucléaire ne représente aujourd'hui que 6 % de la production d'énergie primaire au niveau mondial. Il est probable que l'énergie de fission se développe au niveau mondial dans les 50 années à venir, même si la situation n'est pas claire aujourd'hui. En Europe, pendant que la France produit 80 % de son électricité avec ses réacteurs nucléaires ou que la Finlande commande un nouveau réacteur, l'Allemagne, la Belgique ou l'Italie se montrent très sceptiques vis à vis de cette énergie. Au niveau mondial, les Etats-Unis ont sensiblement augmenté leur production d'électricité nucléaire avec les réacteurs existants, et préparent un redémarrage de leur programme nucléaire dans les années à venir, et la Chine et l'Inde sont sur le point de commander des dizaines de réacteurs.

Un développement du nucléaire au niveau mondial amène à se poser de nouvelles questions en terme de gestion des ressources, de sûreté des installations et de gestion des déchets.

La vision du public vis à vis de cette énergie évolue avec le temps. Hier, la sûreté était au centre du débat, aujourd'hui les déchets focalisent l'attention de la société, alors que les risques de prolifération prennent de plus en plus de place dans le débat.

Les réacteurs actuels ont une puissance de l'ordre du GW électrique, et un rendement de 33 %. Ils utilisent le seul noyau fissile naturel, l'235U, présent à 0.7 % dans le minerai d'uranium naturel. Tout en restant prudent sur les estimations des réserves en uranium, cette filière permet de continuer pendant 200 à 300 ans au rythme actuel. Si le nucléaire est amené à jouer un rôle majeur dans les décennies à venir, les filières actuelles ne pourraient pas assurer un déploiement rapide et massif ( Cf. figure 9). Il faudrait alors passer à des réacteurs régénérateurs, utilisant beaucoup mieux le potentiel énergétique du minerai. Ces systèmes innovants font aujourd'hui l'objet de nombreuses recherches internationales, et pourraient être déployés avant le milieu du siècle. Ils permettraient d'utiliser la quasi totalité du minerai d'uranium, mais également d'utiliser les réserves de thorium. Ils pourraient ainsi produire massivement de l'énergie pendant plusieurs dizaines de milliers d'années ( Cf. encadré 1 en fin de texte). Ils présentent également l'avantage de recycler tous les noyaux lourds, et de limiter ainsi considérablement la radioactivité à long terme des déchets ultimes à stocker. Le cycle thorium, plus innovant, serait ici encore plus avantageux en ayant une masse réduite de combustible et de déchets de longue durée de vie.

figure 9

Concernant les déchets, le problème principal est celui des déchets issus du combustible usé qui sont très actifs pendant très longtemps. Le combustible usé contient trois types de noyaux : les produits de fission, qui sont les cendres des noyaux fissionnés, le plutonium, produit à partir de capture de neutrons sur l'238U, et les actinides mineurs (237Np, 241Am, 244Cm, ...). La radioactivité du combustible usé est dominée par le plutonium, qui est un noyau fissile, d'où toute l'ambiguïté : si le nucléaire doit s'arrêter, le plutonium est un déchet et doit être géré comme tel (stocké ou incinéré), mais si le nucléaire doit se développer, le plutonium est une matière fissile précieuse, indispensable au démarrage de réacteurs de 4ème génération. Cette ambiguïté concernant la qualité du plutonium (déchet ou combustible) est sans doute à l'origine des attitudes attentistes concernant la gestion des combustibles irradiés ( Cf. encadré 1), et il est probable que la décennie à venir clarifiera la situation, par l'engagement ou non des pays asiatiques dans un nucléaire massif.

L'avenir du nucléaire, source d'énergie propre du point de vue du climat, repose sur des technologies nouvelles, dont il faudra assurer la sûreté, en particulier dans l'hypothèse d'une mise à disposition auprès des pays émergeants. Toutes ces avancées nécessitent une intensification des recherches en cours.

La géothermie

L'énergie géothermique provient des désintégrations de l'uranium et du thorium contenus dans la terre. La puissance totale émise par la terre est de 22 TW. L'équilibre thermique étant atteint, toute cette puissance s'évacue par la surface, soit un flux de 0.06 W/m2 environ. Cette puissance correspond seulement au double de la consommation actuelle. Cependant, il existe une quantité d'énergie stockée dans les roches sous forme de chaleur, mais difficilement utilisable, étant donné sa faible concentration. De plus, cette énergie n'est pas renouvelable ; dans la plupart des installations actuelles, le gisement s'épuise en une trentaine d'années environ. Il est assez rare de disposer de vapeur à haute température susceptible de produire directement de l'électricité. Dans la plupart des cas, les roches chaudes à faible profondeur sont difficilement accessibles ; la roche doit être fracturée, afin que de l'eau puisse circuler et extraire la chaleur. Pour ces raisons, il est difficile d'envisager une production massive au niveau mondial à partir de la géothermie. Il existe cependant des cas particulier, comme l'Islande, où l'énergie géothermique est disponible en grande quantité. La géothermie représente aujourd'hui 0.3 % de la production électrique mondiale et a peu près autant pour le chauffage.

L'hydraulique

L'électricité d'origine hydraulique ne produit pas d'effet de serre, et permet de plus de gérer les pointes de façon très efficace. En France, la quasi-totalité du potentiel hydraulique est déjà utilisé, la puissance moyenne est de 8GW, soit 12 % de la production électrique. Au niveau mondial, le potentiel est de l'ordre de 1400 GW moyens, soit près de 90 % de la production électrique actuelle. Cependant, la mise en Suvre est délicate et il est difficile d'imaginer un déploiement massif dans les décennies à venir. En effet, dans la plupart des cas, les gisements se situent dans des régions dépeuplées, notamment en Afrique, où le développement d'un réseau gigantesque serait nécessaire. La Chine est en train de construire un immense barrage (2km x 640km) de puissance maximale 18 GW (environ 9GW moyens), et prévoit d'installer 4 autres barrages d'ici 2020 d'une puissance maximale cumulée de 38 GW. Aujourd'hui ces 5 barrages représenteraient 18 % de la production électrique de la Chine ( Cf. figure 10).

figure 10

L'éolien

L'énergie du vent est très diluée, et nécessite environ 8 ha pour 1 MW installé, fonctionnant environ 20 % du temps. Une éolienne géante (80 m de diamètre) peut atteindre une puissance crête de 2 MW. En France, le potentiel est estimé à 66 TWh/an sur terre soit 7.5 GW moyens, et 97 TWh/an en offshore soit 11 GW moyens, Cela représenterait 30 % de la production électrique. Pour produire 5 % seulement de l'énergie française, c'est-à-dire générer une puissance continue de 10 GW, il faudrait donc installer au moins 50 000 éoliennes. A raison d'une éolienne d'1 GW tous les 200 m cela signifierait un rideau continu d'éoliennes sur 10 000 km de long et il paraît douteux que la population française soit prête à accepter cela ( Cf. figure 11).

figure 11

Le cas de la France est particulier du point de vue des éoliennes, puisque économiser du combustible nucléaire n'a que peu d'impact sur l'économie énergétique ou les émissions de gaz à effet de serre (de plus il serait difficile de moduler la production nucléaire pour suivre les variations du vent). Ce n'est pas le cas en Allemagne ou au Danemark, où les éoliennes contribuent à limiter la consommation de gaz et de charbon, et donc l'émission de gaz à effet de serre.

Il est donc difficile de croire que les éoliennes puissent représenter l'avenir énergétique à moyen terme de la France, mais on aurait tort de négliger la recherche en ce domaine et l'apport complémentaire de l'énergie éolienne pour des usages particuliers, ou pour des pays ne poursuivant pas le choix du nucléaire. Le couplage au vecteur hydrogène devrait également rendre cette énergie intermittente plus attractive dans le futur.

Le solaire

L'énergie solaire est une énergie réellement inépuisable et abondante. En 12 heures, par exemple, l'énergie solaire arrivant sur terre est supérieure au total des énergies fossiles connues et prévisibles. Pour fixer un autre ordre de grandeur, l'énergie solaire qui arrive sur le sol est 10000 fois supérieure à ce que le monde consomme aujourd'hui.

Il serait vraiment dommage de ne pas utiliser un tel pactole ! Pourtant l'énergie solaire représente aujourd'hui 0 04% de la consommation d'énergie primaire.

L'utilisation la plus directe est le chauffage des habitations et de l'eau. On estime aujourd'hui à 50 % le gain possible sur le chauffage domestique (eau et habitation) en utilisant des panneaux solaires thermiques. Couplé à une bonne isolation c'est une économie de 10 à 20 % de combustibles fossiles qui serait possible.

Chauffer un fluide à haute température (plusieurs centaines de degrés) avec l'énergie solaire permet également de produire de l'électricité. Plusieurs technologies existent aujourd'hui, comme les centrales à tour ou la filière cylindro-parabolique. Ces systèmes peuvent être couplés à des réservoirs de chaleur pour assurer une production continue d'électricité entre le jour et la nuit.

Il existe également des dispositifs convertissant directement la lumière en électricité. Ce dispositif « photovoltaïque » possède des propriétés vraiment remarquables: il n'a pas de pièces mobiles, pas de liquide (il ne coule pas !), il ne s'use pas et sa longévité se compte en dizaines d'années. Le rendement de cette conversion photoélectrique est relativement grand: de l'ordre de 15 à 20 % en laboratoire, et 10 à 15 % en production.

En France, on reçoit en moyenne annuelle entre 100 et 200 W/m2 du soleil au niveau du sol, ce qui correspond, en tenant compte du rendement photovoltaïque à une production annuelle d'environ 100 kWh/m2, et en couvrant la moitié des toits, on couvrirait en même temps notre consommation électrique (sans tenir compte du caractère intermittent, et donc du stockage qui serait nécessaire).

Le principal obstacle à l'utilisation à court terme des dispositifs photovoltaïques n'est pas de nature technique ou scientifique, mais d'origine économique. La haute technicité de ces dispositifs conduit à un prix de revient élevé, aboutissant pour le moment à un prix du kWh de 5 à 10 fois plus élevé que celui produit par les sources d'énergie conventionnelles.

Les meilleurs capteurs réalisés à ce jour avec du silicium monocristallin sont chers, difficiles à fabriquer et n'ont qu'un rendement de 12 %. Les capteurs au silicium polycristallin sont moins chers et ont un rendement de 10 %.

L'avenir réside-t-il dans des films semiconducteurs incorporables dans les matériaux de construction ? Ils sont d'ores et déjà bon marché et leur coût baisserait évidemment encore s'ils étaient produits massivement. Mais leur rendement n'est encore que d'environ 5 %. Un autre paramètre à prendre en compte est le coût énergétique de construction du panneau qui diffère selon les technologies. Actuellement, on estime à près de 7 ans le temps que met un panneau au silicium à rendre l'énergie consommée pour sa production et on espère le ramener à 2 ou 3 ans dans les décennies à venir.

Potentiel de la biomasse

Quelques mots de la biomasse, c'est-à-dire le bois et différents alcools agricoles. Ce n'est une énergie renouvelable que si l'on replante autant que l'on consomme; dans ce cas, le CO2 dégagé est ensuite refixé. De plus, le bois est évidemment facile à stocker. Malheureusement, on doit remarquer que ce procédé utilise l'énergie solaire nécessaire à la photosynthèse. Or, ce rendement est inférieur à 0,5 %; même les cultures sucrières ne fournissent que 0,6 W/m2. Il faudrait consacrer à la culture de biocarburants une surface environ 20 à 100 fois plus grande que la surface actuellement consacrée à l'alimentation pour subvenir aux besoins énergétiques de la planète. La biomasse ne sera jamais qu'un complément énergétique. De plus le coût énergétique des bio-carburants est non négligeable. Le meilleur rendement énergétique est celui de l'ester de colza et vaut 2 environ ; cela signifie qu'il faut consommer environ 1 litre de pétrole pour produire 2 litres de bio-carburant ( Cf. figure 12). De plus, le développement d'une telle filière ne serait pas sans risque de dégagements importants de méthane, un gaz à effet de serre bien plus redoutable que le CO2, ou d'utilisation massive d'engrais, un risque potentiel pour la qualité de l'eau, autre problème planétaire d'actualité. Aujourd'hui le chauffage traditionnel au bois (très utilisé dans les zones rurales des pays émergeants) représente tout de même 1Gtep/an (soit 10 % de la production mondiale d'énergie primaire) de la consommation mondiale d'énergie, mais il semble difficile d'envisager une augmentation significative de la production d'énergie par la biomasse dans le futur.

figure 12

biocarburants (référence : J.M. Jancovici, www.manicore.com)

La fusion

On parle beaucoup actuellement de fusion thermonucléaire. Il s'agirait ici de faire fusionner des atomes d'hydrogène, plus précisément le deutérium (1 proton, 1 neutron) et le tritium (1 proton, 2 neutrons). Les produits de réaction sont un noyau d'Hélium-4 et un neutron, ce dernier emportant 80 % de l'énergie libérée.

Les réserves en deutérium sont infinies à l'échelle humaine. Le tritium a une durée de vie de 12 ans, et n'existe pas à l'état naturel ; il doit être produit à partir de lithium par la réaction 6Li+n ->T+a. Les réserves de lithium sont très grandes (sous forme de minerai ou dans l'eau des océans) ce qui permettrait de produire de l'énergie pendant des millénaires, c'est-à-dire autant qu'avec des réacteurs à fission régénérateurs.

La réaction de fusion se déroule à l'intérieur d'un plasma chauffé à plusieurs millions de degrés, le neutron émis joue un double rôle : il emmène l'énergie en dehors du plasma ou elle est récupérée sous forme de chaleur, et il doit également régénérer le tritium en cassant un noyau de lithium.

Cette technologie ne semble pas réaliste à moyen terme tant les problèmes posés sont difficiles. Le premier de ces problèmes est celui de la tenue des matériaux aux neutrons extrêmement énergétiques. L'énergie de ces neutrons, 14 MeV, est dix fois plus grande que celle des neutrons les plus rapides qui sont émis dans les réacteurs à fission. Sans mise au point de matériaux très spéciaux qui seraient susceptibles de résister à de telles particules, la fusion nucléaire n'a pas d'avenir. La gestion du tritium, de sa production à la réinjection en cSur est très délicate et en même temps incontournable pour assurer une production durable à partir de la fusion. La maîtrise d'un plasma chauffé à plusieurs millions de degrés reste à démontrer sur des temps longs. En revanche, cette source d'énergie ne produirait pas de déchets radioactifs à long terme, et limiterait considérablement les risques d'accidents majeurs et les rejets massifs de radioactivités.

Le réacteur expérimental ITER devrait être construit prochainement et fonctionner pendant une trentaine d'années. Il permettra de tester le confinement d'un plasma chaud, et ne répondra que partiellement à toutes les questions posées. L'avenir de la fusion n'est donc pas pour demain.

Le vecteur hydrogène

On l'a vu, certaines sources d'énergie renouvelable souffrent d'une production intermittente, qui rend difficile leur utilisation à court terme. Le stockage d'énergie est donc un aspect indissociable des questions des sources du futur. L'hydrogène est souvent présenté comme la meilleure façon de stocker de l'énergie (chaleur ou électricité). Il ne faudra pas oublier que les rendements se cumulent à chaque étape de production/transport/utilisation, et il est probable que le rendement global n'excède pas 20 %, même s'il est très difficile de donner un chiffre aujourd'hui.

La production d'hydrogène peut être envisagée à partir d'électricité (hydrolyse de l'eau) ou par cycle thermochimique à haute température. La première solution est disponible aujourd'hui, mais souffre d'un rendement faible et d'un prix élevé. La seconde demande encore beaucoup d'efforts de R&D (recherche et développement), mais semble prometteuse, notamment avec le cycle Iode-Souffre qui demande une source de chaleur à 850°C environ. Pour que l'hydrogène ne produise pas indirectement du CO2, cette source de chaleur doit être nucléaire ou solaire. Il existe aujourd'hui un concept de réacteur nucléaire à l'étude (VHTR) couplant un cSur en graphite à très haute température (près de 1000°C), couplée à une unité chimique produisant de l'hydrogène. Le même type de production est envisageable avec des centrales solaires à tour.

Une fois produit, l'hydrogène doit être stocké et utilisé. On parle beaucoup de l'utiliser dans le domaine des transports, et sur ce point, diverses opinions s'affrontent aujourd'hui. Certains voient une utilisation massive directe de l'hydrogène, notamment dans les piles à combustibles, qui permettent d'espérer un rendement bien meilleur qu'un moteur thermique. D'autres au contraire pensent qu'il sera impossible de remplacer les combustibles liquides pour le transport, tant les nouvelles infrastructures à mettre en place seraient coûteuses. Dans ce cas, on adjoindrait du carbone à l'hydrogène (charbon ou biomasse...) pour produire un carburant de synthèse utilisable dans la technologie standard des moteurs actuels.

La maîtrise de la demande

La source principale d'énergie à utiliser est négative: ce sont toutes les économies que l'on pourrait faire. En ce domaine, qu'il s'agisse d'éclairage, d'isolation thermique, de consommations automobiles ou autres, les progrès potentiels sont considérables. Un français moyen consomme 5kW et un américain du nord 11 kW, alors que la moyenne mondiale est de l'ordre de 1 kW seulement. D'une part les riches peuvent arrêter de gaspiller, d'autre part les pauvres ont un droit légitime de consommer plus. Le problème n'est pas seulement technique, c'est bien clair.

Dans un scénario de « laisser-faire », la consommation en 2050 pourrait atteindre 30 GteP, soit 3 fois la consommation actuelle, alors que les scénarios les plus sobres incluant un développement significatif des pays pauvres atteignent une consommation de 15 GteP en 2050. La maîtrise de la demande permettrait donc de gagner un facteur 2. Confronté au défi climatique, on peut conclure que cette maîtrise de l'énergie est indispensable, mais malheureusement non suffisante, et que le développement massif de sources n'émettant pas de CO2, nucléaires et renouvelables, est urgent.

Le problème des énergies, de leur consommation comme de leur production, de leur stockage et de leur transport est majeur ; ses solutions ne sont que partiellement connues et nécessitent une recherche scientifique et technique considérable, à soutenir dès aujourd'hui pour anticiper la fin des combustibles fossiles.

Au-delà des aspects technologiques, une politique mondiale de l'énergie, basée sur une approche pacifique et non sur un système de domination, est incontournable. Un droit d'accès à l'énergie est souhaitable pour les pays les plus pauvres, et cela doit passer par une mise à disposition de nouvelles technologies, respectueuses de l'environnement, mais très chères ; voilà sans doute le véritable défi du siècle à venir en matière d'énergie.

Pur en savoir plus :

http://sfp.in2p3.fr/Debat/debat_energie

http://manicore.com

http://www.iea.org/

http://peakoil.net

Encadré 1

Le nucléaire

Le nucléaire durable

Si le nucléaire est amené à se développer significativement, les filières actuelles épuiseront les réserves d'uranium avant la fin du siècle. En effet, elles utilisent essentiellement l'uranium-235, présent à 0.7 % seulement dans le minerai d'uranium. Ainsi, pour faire fissionner une tonne de matière, il est nécessaire d'extraire 200 tonnes d'uranium naturel, soit un taux d'utilisation du minerai très faible. Les réserves estimées d'uranium (environ 16 millions de tonnes) ne permettent pas d'envisager un déploiement durable d'une énergie nucléaire significative au niveau mondial basé sur les filières à uranium enrichi. L'essentiel du minerai d'uranium (U-238) ne fissionne pas mais, quand il capture un neutron, il produit un noyau susceptible de fissionner, dit « fissile », qui produira donc de l'énergie : U-238 + n ® Pu-239. On obtient également un noyau fissile en utilisant le deuxième actinide naturel, le Thorium-232 : Th-232 + n ® U-233. On parle alors de régénération ; dans ce cas, tout le minerai (dit alors « fertile ») est utilisé, et le problème des réserves est réglé pour des millénaires. Le thorium n'est pas utilisé aujourd'hui, mais pourrait s'avérer tout à fait intéressant dans le cadre d'un recours à des cycles régénérateurs ( Cf. figure 13).

figure 13

Il faut enfin noter que dans le cas d'un système régénérateur, tous les actinides peuvent être recyclés (matière fissile et noyaux plus lourds), ce qui diminue considérablement la radiotoxicité des déchets destinés au stockage géologique. Ces déchets ultimes contiendront des traces des noyaux lourds (pertes au retraitement), les performances de séparation sont donc primordiales pour minimiser la radiotoxicité à long terme des déchets destinés au stockage géologique, et de nouvelles méthodes sont explorées, et notamment la pyrochimie. Le cycle thorium a l'avantage supplémentaire de produire peu de noyaux lourds radioactifs.

La régénération n'est pas simple à obtenir, car elle nécessite de pouvoir disposer de suffisamment de neutrons. Les neutrons produits par les fissions (entre 2.5 et 3) doivent à la fois induire une nouvelle fission, mais également régénérer la matière fissile consommée. Les propriétés physiques des noyaux fissiles font que le cycle Uranium/Plutonium a besoin de neutrons de haute énergie cinétique pour pouvoir atteindre la régénération. L'extraction de chaleur doit alors se faire par des noyaux lourds (l'eau est proscrite), ce qui a conduit au concept de Superphénix, refroidi au sodium, qui permet de ralentir les neutrons suffisamment peu pour obtenir un système régénérateur. Le sodium pose des problèmes de manipulation, qui ont fait de Superphénix (en plus d'une victime politique) une machine d'une technologie complexe et difficilement commercialisable. Il faut également noter que le programme nucléaire mondial s'étant essoufflé, le recours à la régénération ne se justifiait plus, du moins économiquement. Les alternatives au sodium sont le Plomb, qui pose aujourd'hui des problèmes complexes de corrosion de matériaux, et le gaz (hélium) nécessitant quant à lui l'élaboration d'un combustible très innovant compatible avec les hautes températures spécifiques aux systèmes refroidis à l'hélium. Autre problème de taille, un réacteur à neutrons rapides (de 1GW électrique) nécessite de disposer d'au moins 12 tonnes de plutonium pour démarrer. Cet inventaire en matière fissile correspond à la masse totale de plutonium produite par un réacteur actuel pendant 50 ans de fonctionnement. Il apparaît clairement qu'il est impossible d'assurer un déploiement rapide du nucléaire basé seulement sur une filière rapide, et qu'il faudrait construire de nombreux réacteurs à uranium enrichi avant d'opérer la transition vers une filière durable basée sur le cycle uranium/plutonium à neutrons rapides.

Dans ce contexte, le cycle Thorium/Uranium-233 présente de nombreux avantages, à condition de mettre au point une nouvelle technologie. Il s'agit dans ce cas d'utiliser des neutrons de faible énergie, mais de retraiter efficacement le combustible, qui accumule des produits de fission. Compte tenu des faibles énergies de neutrons de ces réacteurs, ces produits de fission sont des poisons neutroniques efficaces, qui captureraient beaucoup de neutrons et rendraient impossible une régénération durable s'ils étaient laissés dans le combustible. Leur extraction rapide est rendue possible par l'utilisation d'un combustible liquide (sel fondu), servant lui-même de caloporteur, et qui peut être en partie dévié avant son retour en cSur, pour être retraité en ligne. Ce concept qui a fait l'objet d'études approfondies aux Etats-Unis dans les années 60 nécessite environ 2 tonnes de matière fissile (contre 12 pour un réacteur à neutrons rapides) pour démarrer, ce qui amène une souplesse de déploiement incontestable. Ces différents concepts sont étudiés dans le cadre du forum international Génération 4, lancés en 2001 à l'initiative des Etats-Unis, afin de mettre en commun au niveau mondial des efforts de recherche sur l'énergie de fission durable ( Cf. figure 14).

figure14

Les déchets : que faire en attendant ?

L'uranium enrichi après combustion contient encore 95 % d'uranium (essentiellement 238), environ 3 % de produits de fission (noyaux de masse 115 environ issus de la fission des actinides), et des noyaux plus lourds, plutonium en tête, lequel domine la radiotoxicité à long terme.

Comme on l'a vu, le plutonium est une matière fissile précieuse indispensable pour amorcer le déploiement de réacteurs régénérateurs durables. Il est par contre le déchet le plus important dans le cas d'un arrêt à court terme du nucléaire.

C'est pour cette raison qu'il est assez difficile aujourd'hui d'avoir une vision arrêtée de la gestion des déchets, inversement, il ne peut être envisageable de renvoyer toute décision au siècle prochain ; la souplesse et la capacité d'adaptation doivent donc être des caractéristiques recherchées dans les options retenues. En observant les diverses politiques de gestion de l'aval du cycle, on s'aperçoit qu'il existe déjà des différences notables entre divers pays. Certains pays (USA, Suède, ...) considèrent leur combustible irradié comme déchet à stocker (scénario de cycle ouvert). D'autres pays (France, Japon, ...) retraitent leur combustible pour en extraire l'uranium et le plutonium, ce dernier étant recyclé dans des combustibles de type MOX, pour un passage supplémentaire en réacteur. Ce scénario de mono-recyclage permet de réduire considérablement la charge thermique et radiotoxique des déchets destinés au stockage, puisque le plutonium en est absent. Il permet également de réduire les volumes de combustibles irradiés (contenant du plutonium) à entreposer, puisque seuls les MOX usés ne sont pas retraités. Cette stratégie constitue donc une solution d'attente assez optimisée, mais la gestion des MOX irradiés ne trouvera une réponse définitive que lorsqu'on sera certain de l'avenir du nucléaire.

Il est possible d'améliorer cette stratégie en séparant les actinides plus lourds (Am et Cm). Dans ce scénario optimisé, la radiotoxicité à long terme des déchets vitrifiés est réduite de près d'un facteur 1000. Une fois séparés, les actinides mineurs peuvent être incinérés dans des réacteurs dédiés, ou entreposés dans l'attente des réacteurs à neutrons rapides du futur, éventuellement capable de les incorporer à leur propre cycle. Encore une fois il ne s'agira que d'une solution d'attente.

Encadré 2

Le solaire photovoltaïque

Quel déploiement pour le solaire photovoltaïque ?

Il faut distinguer deux types d'utilisation de nature et d'horizons temporels très différents.

I - Zones rurales et isolées: les pays en développement (PED).

Parmi les problèmes auxquels doivent faire face les zones isolées, non reliées à un réseau électrique, et en particulier les PED, celui de l'énergie et de la production locale d'électricité pour satisfaire les besoins élémentaires des populations est certainement un des plus importants. Une quantité, même très faible, d'électricité (quelques watts pendant quelques heures par jour) est nécessaire pour atteindre un minimum de confort ou de sécurité médicale. Pour ces régions, le photovoltaïque est de loin la solution générale la mieux adaptée. En l'absence de connexion à un réseau électrique, la question du prix du kWh ne se pose pas, toutes les autres sources étant plus chères. Pour l'éclairage, par exemple, même la lampe à pétrole revient plus cher, sur le long terme, qu'un kit photovoltaïque ! La production individuelle, ou par mini-centrale à l'échelle d'un village, permet:

- de satisfaire les besoins de première nécessité (éclairage, pompage d'eau potable);

- de briser l'isolement des populations rurales (télévision, enseignement);

- la petite irrigation des cultures;

- de satisfaire certains problèmes de santé, comme le stockage au froid des vaccins ou l'alimentation de petites antennes médicales.

Bien sûr, l'alimentation en électricité des PED ne représente pas, même à l'échelle de la planète, une quantité d'énergie considérable, encore que l'on estime à 2 milliards, au moins, le nombre d'habitants qui ne sont pas (et ne seront sans doute jamais) reliés à un réseau de distribution électrique. Mais, le bénéfice humanitaire et politique est tellement conséquent, que c'est l'intérêt bien compris des pays industrialisés de participer, par leur capitaux mais aussi par leur potentiel de recherche, à ces opérations.

II - Production centralisée d'électricité: les centrales solaires

La production d'énergie solaire au niveau des mégawatts (MW) est d'une toute autre nature et fait l'objet de polémiques parfois passionnées. D'abord quelques remarques de mise au point pour corriger certaines opinions erronées et parfois absurdes.

a) Surface au sol. Le « sentiment » que la surface occupée par des centrales solaires serait rédhibitoire ne résiste pas à une analyse quantitative. L'énergie lumineuse reçue en plein soleil est proche de 1kW/m2. Mais cette énergie nous arrive d'une manière intermittente: il n'y en a pas la nuit, et même pendant le jour elle peut être fortement diminuée par la brume ou les nuages. Sur le territoire français, on observe effectivement que la puissance moyenne, sur une année, n'est que 100 à 200 W/m2 de puissance lumineuse suivant l'endroit. Le rendement de conversion électricité/lumière d'un capteur photovoltaïque industriel étant de 10 à 15 %, on arrive à une puissance moyenne électrique sur l'année de 10 à 30 W/m2. Pour une centrale de 1000 MW, cela représente une surface, dans le pire des cas de (10x10km2), à (6x6km2) dans un cas plus favorable. Ces surfaces sont acceptables pour un site industriel, et extrapolables à une centaine de sites totalisant toute la production française d'électricité.

b) Stockage inter saisonnier. Le stockage long terme n'est pas un problème spécifique du photovoltaïque. Il est vrai que l'énergie solaire nous arrive d'une manière intermittente et qu'un stockage inter saisonnier est nécessaire pour parler de moyenne annuelle. Mais s'il était réalisé, il permettrait de corriger dès maintenant la différence de rythme entre la production (continue) et l'utilisation (en pointes) de l'électricité. L'économie réalisée par ce stockage est estimée à 13 % de la production française, soit beaucoup plus que la production photovoltaïque avant de nombreuses années. Une des manières de réaliser ce stockage inter saisonnier serait, par exemple, de produire de l'hydrogène et de l'oxygène par électrolyse, et de stocker les gaz ainsi obtenus dans des anticlinaux vidés de leur pétrole ou de leur gaz naturel, par exemple sur le site de Lacq en Aquitaine.

Quand peut-on espérer une pénétration non négligeable (disons 25 %) du photovoltaïque dans la production française d'électricité ? Les avis divergent fortement, sans que personne de responsable n'avance de date inférieure à 2020-2030. La condition nécessaire pour une telle pénétration est que le kWh photovoltaïque descende au dessous du prix des autres sources d'énergie. Le problème est difficile et les prédictions aléatoires. Les paramètres techniques et scientifiques ne sont pas seuls en cause, encore que des grands progrès, ou même une percée, dans la physique des matériaux photovoltaïques pourraient changer la donne: il faut poursuivre et sans doute augmenter l'effort de recherche dans ce domaine.

Mais la réponse dépend fortement des conditions économiques et politiques. Les plus optimistes (les Allemands en particulier, surtout pour des raisons d'écologie) pensent que, à condition qu'un effort et qu'une volonté politique suffisants soient déployés, l'électricité solaire pourrait aboutir avant 2050. D'autres sont très sceptiques sur cette prédiction et pensent que l'électricité photovoltaïque ne pourra déboucher que lorsque les autres sources d'énergie auront disparu ou seront devenues très chères, soit pas avant la fin du siècle.

La France, fière (à juste titre) de son parc nucléaire, a fortement réduit ces dernières années son activité technique et scientifique dans le domaine des cellules solaires. C'est bien dommage, car notre pays, qui pourtant a été pionnier dans l'invention et la recherche du photovoltaïque, risque ainsi d'être absent dans les énergies du futur.

[1] Ce texte est paru initialement dans/Images de la physique de 2005/ (édition, année de la physique)

 

DOCUMENT       canal-u.tv     LIEN 

 
 
 
 

Luc Steels " Les robots nous aident comprendre l'intelligence humaine "

 

Luc Steels " Les robots nous aident à comprendre l'intelligence humaine "
Gautier Cariou dans mensuel 509
daté mars 2016 -


Quels sont les mécanismes à l'origine du langage ? Comment naissent les mots, comment la grammaire émerge-t-elle ? Grâce à des travaux à la croisée de la robotique, de l'informatique, de la psychologie et de la linguistique, Luc Steels a apporté de nouvelles pièces à ce grand puzzle qu'est l'intelligence humaine.
Luc Steels ne cherche pas la facilité. Son moteur ? La volonté de toujours repousser l'état de l'art d'une discipline. Dès que les contours d'un champ de recherche deviennent trop nets, il change de direction. Cet esprit pionnier l'a conduit à révolutionner la robotique, en faisant basculer l'intelligence artificielle (IA) classique, programmée à l'avance pour des tâches précises, vers une IA fondée sur l'apprentissage, capable de se programmer elle-même. Au cours de sa carrière, il a fondé deux laboratoires d'IA, dont le Computer Science Laboratory (CSL) de Sony, où il a créé un nouveau champ de recherche : la linguistique évolutionnaire. Depuis, il développe des outils informatiques et robotiques pour comprendre les processus d'acquisition du langage chez l'enfant et les mécanismes par lesquels le langage émerge, se propage et évolue dans les populations humaines. Une méthodologie en rupture totale avec l'approche traditionnelle des sciences humaines.

La Recherche. Depuis plus de trente ans, vous développez des méthodes d'intelligence artificielle (IA) pour décrypter les mécanismes de l'intelligence, et en particulier du langage. Quelles réponses l'IA peut-elle apporter à un champ déjà si investi par les sciences sociales et les neurosciences ?

Luc Steels Pour étudier l'acquisition du langage et le développement des capacités sensorielles et motrices chez l'enfant, les linguistes, les psychologues et les neuroscientifiques n'ont que deux outils à leur disposition : des expériences de pensée et des observations du comportement ou du cerveau. Mais aucun de ces outils ne leur permet de créer des modèles formels qui rendent compte des mécanismes d'acquisition de ces capacités cognitives. À la fin des années 1980, avec mon collègue Rodney Brooks, fondateur de la société américaine iRobot, nous avons donc eu l'idée de fabriquer des systèmes artificiels - des robots - et de les utiliser comme plates-formes expérimentales pour tester différents mécanismes pouvant expliquer l'émergence de comportements intelligents chez les espèces vivantes. Bien sûr, cette approche ne garantit pas à 100 % que les principes utilisés sont transposables aux systèmes vivants, mais cette méthodologie est une source importante de progrès pour appréhender au plus près l'extraordinaire complexité des phénomènes observés dans la cognition humaine. En d'autres termes, c'est par la construction de systèmes artificiels que l'on peut espérer comprendre au mieux l'intelligence réelle.

Quels mécanismes de l'intelligence avez-vous mis en évidence ?

L'un de ces mécanismes est l'« auto-organisation ». Il m'a été inspiré par le groupe d'Ilya Prigogine, Prix Nobel de chimie en 1977. Lorsque j'ai créé le laboratoire d'intelligence artificielle de l'université libre néerlandophone de Bruxelles, en 1983, je me suis rapproché des membres de son équipe qui travaillaient sur le même campus. Ils étudiaient alors les systèmes complexes : les colonies de fourmis, le vol des oiseaux, etc., et se demandaient comment l'ordre et l'organisation pouvaient émerger du chaos. De fait, dans ces systèmes, aucun programme central ne commande quoi que ce soit. Il n'y a pas une fourmi chef d'orchestre qui donne des ordres à ses congénères ; et pourtant, au fil des interactions entre chaque fourmi, en échangeant des phéromones, un comportement collectif intelligent émerge. J'étais convaincu que ce phénomène d'auto-organisation pouvait devenir un mécanisme clé de l'intelligence des machines. C'est ce que nous avons démontré avec Rodney Brooks (1). Plutôt que de doter un robot d'un programme central complexe, nous avons fabriqué des robots dont l'intelligence est distribuée entre plusieurs modules, chacun programmé pour une action simple : éviter un obstacle, revenir en arrière si le robot est coincé, revenir vers une station de rechargement avant que la batterie soit épuisée. Toutes ces actions élémentaires donnent lieu à un comportement global intelligent de la part du robot sans qu'il soit programmé à l'avance pour ce comportement. Cette approche constituait un changement de paradigme : nous passions d'une IA « classique », avec un programme central dédié à une tâche bien définie comme le pilotage des avions, la planification du trafic ferroviaire - ce que l'on appelle les systèmes experts -, à une robotique qui se programme elle-même, en fonction des interactions avec son environnement.

Vous vous êtes ensuite intéressé au langage...

Oui, je suis retourné à mes premières amours. Avant de me consacrer à l'intelligence artificielle, j'avais suivi des études de linguistique à l'université d'Anvers, en Belgique. Puis, pendant mes études au laboratoire d'IA du MIT, je suivais en parallèle le cours de linguistique de Noam Chomsky, qui est sans doute la figure la plus emblématique du domaine. Dans les années 1980, j'étais imprégné des idées nouvelles de l'IA, et il était pour moi très clair qu'il fallait trouver une autre voie que celle des sciences sociales pour avancer dans l'étude et la compréhension du langage. Je me disais que si les mécanismes d'auto-organisation pouvaient faire émerger des comportements intelligents, alors ces mêmes mécanismes devaient également être utiles pour expliquer une autre forme d'intelligence : le langage.

En quoi l'auto-organisation aide-t-elle à comprendre le langage ?

Prenons l'exemple des oiseaux migrateurs. Lorsqu'ils volent, ils suivent une trajectoire aléatoire au départ puis s'influencent mutuellement et, de proche en proche, ils finissent par s'aligner. Chaque oiseau pris individuellement n'a pourtant pas de vision d'ensemble et ne reçoit pas d'ordre mais, collectivement, le groupe devient cohérent. J'étais persuadé que l'émergence des mots au sein d'une population humaine obéissait au même principe. On peut imaginer, par exemple, que deux personnes se mettent d'accord pour nommer un objet « stylo ». Chacun d'eux va ensuite parler avec deux autres personnes et ainsi de suite. Le choix du mot initial étant aléatoire, il est fort probable qu'un autre groupe emploie plutôt le mot « Bic » ou n'importe quel autre mot pour désigner le même objet. Au début, de nombreux mots coexistent dans la population. Puis, par interactions successives, de plus en plus d'individus emploient le mot « stylo », et le lexique se stabilise.

Avez-vous testé la validité de cette hypothèse ?

Oui. C'était en 1999. J'étais alors directeur du laboratoire d'intelligence artificielle de Sony, à Paris. J'avais mis en place une expérience de grande ampleur pour étudier le phénomène de propagation des mots dans une population d'agents artificiels. Par agent artificiel, j'entends une entité informatique capable de se télécharger dans un robot. Les robots impliqués dans cette expérience étaient de simples « têtes parlantes », des systèmes dotés d'un micro, d'un haut-parleur, d'une caméra mobile et d'un ordinateur de bord connecté à Internet. Nous les avions installés sur plusieurs sites : au palais de la Découverte à Paris, à Londres, à Tokyo... Dans chaque ville, deux robots étaient positionnés devant un tableau blanc sur lequel étaient représentées des figures géométriques de couleurs différentes. Téléchargés dans ces robots, les agents artificiels étaient programmés pour se prêter à un jeu de langage. L'un d'entre eux (l'enseignant) devait choisir une figure et la faire deviner à l'autre agent (l'apprenant) en prononçant à voix haute un mot produit à partir de sons élémentaires puisés dans sa mémoire de travail. L'apprenant devait alors interpréter la signification du mot prononcé en pointant sa caméra vers la figure qu'il pensait correspondre. En cas d'erreur, l'enseignant pointait sa caméra en direction de la bonne figure, et l'apprenant enregistrait cette information. Pour toute nouvelle partie, les agents pouvaient changer de rôle et se télécharger dans n'importe quel robot à travers le monde. Après quelques milliers d'interactions, un vocabulaire commun a émergé pour définir chacune des figures géométriques, des couleurs... et a été adopté par l'ensemble des agents. En augmentant la population des agents, et après 500 000 échanges de mots entre plus d'un millier d'agents, le lexique continue d'évoluer, mais à la marge. Ce lexique comprend des mots simples comme « kazozo » pour désigner la couleur verte, mais aussi des mots correspondant à des notions plus complexes comme « maliwena », qui signifie « en haut à gauche, niveau élevé de rouge ».

Le mécanisme d'auto-organisation est-il suffisant pour comprendre le langage ?

Non. Il ne rend compte que du phénomène de propagation et de partage d'un vocabulaire commun décrit plus haut. Mais il n'explique en aucun cas la création et l'évolution du langage. Comment les mots sont créés au départ, comment la grammaire peut émerger, évoluer et gagner en complexité dans les populations humaines ? Pour répondre à cette question, je me suis inspiré de la science de l'évolution qui essaie de déterminer les mécanismes à l'origine de l'apparition des espèces. J'avais l'intuition que le langage faisait également l'objet d'un processus évolutif : les mots, les groupes de mots, la grammaire et la syntaxe sélectionnés sont ceux qui sont les plus efficaces pour que les individus puissent se comprendre. Pour vérifier la pertinence de ce mécanisme de « sélection culturelle », j'ai implémenté un algorithme qui incite les robots à sélectionner les stratégies de communication qui, à la fois, maximisent le succès de la communication et minimisent l'effort cognitif à fournir.

Quels résultats avez-vous obtenus ?

Dotés des mécanismes de sélection culturelle et d'auto-organisation, des robots qui n'avaient aucune grammaire au départ en viennent à partager et à adopter des règles grammaticales communes, pourvu qu'ils interagissent suffisamment longtemps (2). Les robots sont dotés d'un ensemble d'outils à partir desquels ils peuvent créer leur propre grammaire (3). À chaque nouvelle expérience, une grammaire différente émerge. C'est le principe même de l'évolution : il n'est pas possible de prévoir les étapes de l'évolution, mais on peut comprendre comment ça marche. Faire émerger une grammaire chez des robots, c'était une première à tous les points de vue. En reproduisant des expériences analogues à celles des têtes parlantes, nous avons également mis en évidence que la grammaire n'apparaît pas d'un seul coup, mais en plusieurs étapes. Au départ, elle est plutôt de nature sémantique : elle exprime le rôle des objets dans l'action, puis elle gagne en complexité de façon graduelle.

Aujourd'hui, vous continuez d'étudier la grammaire avec ces outils d'intelligence artificielle, un domaine baptisé « linguistique évolutionnaire ». Quel genre d'expériences menez-vous ?

À l'Institut de biologie évolutive de Barcelone, mon équipe et moi-même examinons certains aspects spécifiques de la grammaire. Par exemple, en français, il existe des phrases nominales, des phrases verbales, des phrases principales, etc. Or, avec des robots, on voit émerger ce genre de structure hiérarchique, ce qui nous permet d'étudier les mécanismes de leur apparition. Nous examinons également le phénomène d'accord sujet-verbe, ou encore les processus d'apparition et d'évolution des cas comme l'accusatif, le datif... (4) À titre d'exemple, au XIIIe siècle, la langue anglaise comportait un système de cas, avec la même complexité que le latin, avant de disparaître. L'anglais a évolué, et c'est aujourd'hui l'ordre des mots dans la phrase qui s'est substitué aux cas. C'est ce genre de problèmes très concrets que l'on étudie aujourd'hui.

Sur le plan théorique, qu'apporte l'ensemble de vos travaux aux sciences humaines ?

En linguistique, deux théories s'affrontent pour expliquer notre capacité pour le langage. Selon la première, proposée par Noam Chomsky dans les années 1950, les hommes sont dotés d'une capacité innée pour le langage. Il existerait une « grammaire universelle » ancrée dans le cerveau dès la naissance et un organe biologique dédié au langage. Une autre théorie, dite « constructiviste », défendue par le psychologue suisse Jean Piaget, considère au contraire que l'acquisition du langage est le fruit d'un apprentissage en plusieurs étapes. En interagissant avec son environnement, l'enfant acquerrait le langage de façon graduelle. Sans nier le rôle central du cerveau dans cette capacité langagière, la théorie constructiviste s'oppose à l'idée d'un organe spécifique au langage. Vous l'aurez compris, je suis plutôt partisan de la théorie constructiviste. De mon point de vue, le langage est un système dynamique, évolutif, émergent, et non pas un système fixe et inné comme le prétend Chomsky : les mécanismes que j'ai testés indiquent clairement que les robots n'ont pas de programme dédié au langage. Ils sont seulement dotés de mécanismes généraux qui leur permettent de créer leur propre vocabulaire et règles grammaticales. Certains de mes anciens étudiants comme Pierre-Yves Oudeyer, aujourd'hui directeur de recherche à Inria, et François Pachet, mon successeur à la direction du CSL, ont montré que les agents artificiels utilisaient les mêmes mécanismes pour interpréter les sons et la musique que pour le langage. Autrement dit, les capacités cognitives mobilisées par les machines ne sont pas spécifiques au langage. Si l'on transpose ce résultat à la linguistique, cela signifie que les circuits neuronaux sollicités pour le langage sont également mobilisés pour d'autres tâches comme la reconnaissance des sons et de la musique. Il n'existerait donc pas d'organe dédié au langage, contrairement à ce que propose Noam Chomsky.

Pensez-vous que vos travaux mettent un terme au débat inné-acquis ?

Là, on entre dans l'histoire des sciences. Darwin a mis dix ans avant d'écrire De l'origine des espèces. Après la parution de l'ouvrage, la théorie de la sélection naturelle a été acceptée très vite dans la communauté scientifique. Mais ce n'est pas toujours aussi simple. Le biologiste Gregor Mendel, par exemple, avait fait toutes les expériences nécessaires pour valider ses principes concernant l'hérédité biologique. Il avait publié ses idées dans un obscur journal allemand, mais elles ont été oubliées pendant vingt ans avant de ressurgir et d'être reprises. Pour les idées que je viens de décrire, nous avons des expériences reproductibles qui valident un certain nombre de mécanismes. Malgré tout, nous sommes encore dans une phase d'écriture de livres et de débats. Aujourd'hui, les résistances sont encore fortes de la part des chercheurs en sciences humaines. Pour eux, ces expériences ne sont pas pertinentes. Et pour cause, la méthode que nous employons constitue un changement de paradigme qui nécessite de redéfinir ce que l'on accepte comme preuve. En sciences humaines, un chercheur écrit un livre, puis un autre chercheur donne sa réponse. La matière du débat est l'histoire des idées, et les preuves sont des références à des figures d'autorité. Dans notre approche de linguistique évolutionnaire, l'autorité ne joue pas. Seules les preuves mathématiques et les expériences computationnelles et de robotique comptent pour déterminer si un modèle est valable du point de vue théorique. J'essaie de me battre pour que ces preuves formelles soient mieux comprises et acceptées dans les sciences humaines. Mais pour l'heure, c'est un choc des cultures !
BIO
22 JANVIER 1952 Naissance dans la région d'Anvers, en Belgique.

1977-1979 Il obtient un poste de chercheur au laboratoire d'intelligence artificielle du MIT, à Cambridge, aux États-Unis. En parallèle, il suit les cours de linguistique de Noam Chomsky.

1980 Il rejoint le centre de recherche de la société pétrolière Schlumberger-Doll.

1983 Il fonde le laboratoire d'intelligence artificielle de l'université libre néerlandophone de Bruxelles (VUB).

1985-1996 Il cofonde et dirige le département de sciences computationnelles de la VUB.

1996 : Il fonde le Computer Science Laboratory de Sony, à Paris.

2011 Il rejoint l'Institut de biologie évolutive au sein de l'Institution catalane de recherche et d'études avancée, à Barcelone.


 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 5

 

Qu'est-ce que l'intelligence artificielle ?
Philippe Pajot dans dossiers 18
daté juin-juillet 2016 -


« Pour moi, la définition la plus simple de l'intelligence artificielle serait : l'ensemble des techniques qui permet aux machines - ordinateurs, robots - de faire des tâches habituellement dévolues aux humains et aux autres animaux. Toutefois, les définitions de l'intelligence artificielle sont multiples et difficiles à énoncer. Même pour les informaticiens, ce que recouvre l'intelligence artificielle change avec le temps. On peut dire, en plaisantant à moitié, que les problèmes de mathématiques ou d'informatique non résolus en font partie. Et que dès qu'ils sont résolus, ils n'en font plus partie...

ÉVALUER LA COMPLEXITÉ DES TÂCHES
L'une des difficultés à appréhender cette notion mouvante réside dans le fait qu'on a beaucoup de mal à s'imaginer, en tant qu'humain, ce qui est vraiment difficile à réaliser pour une machine. Être parvenu à concevoir des machines qui jouent aux échecs mieux que les humains avant d'avoir su créer une machine qui reconnaît une table ou une personne sur une image est a priori très surprenant.

En fait, il se trouve que jouer aux échecs est bien plus facile que ce que l'on pensait. C'est compliqué pour les humains, mais très simple pour une machine. À l'inverse, la perception visuelle - voir et reconnaître son environnement - nous semble une tâche aisée, alors qu'elle mobilise un tiers de nos ressources cérébrales et qu'elle requiert beaucoup d'énergie. Mais le fait que nous effectuons inconsciemment cette tâche en permanence et que tout le monde en est capable nous la fait paraître facile. Nous estimons mal la complexité des tâches que l'on accomplit. La récente domination du programme AlphaGo, conçu par l'équipe de Google DeepMind, contre des champions de go illustre très bien ce propos (lire page 76). C'est un beau résultat d'intelligence artificielle, mais dans un domaine où les humains ne sont pas particulièrement doués. Un humain a besoin de très nombreuses années de pratique pour bien jouer au go. Les joueurs de haut niveau y associent même une sorte de mysticisme lié à cet apprentissage.

Avec l'apprentissage automatique - le fait pour une machine d'apprendre sans avoir été explicitement programmée - qui est l'une des grandes voies de l'intelligence artificielle, cette capacité laborieuse chez les humains a été remplacée par une intuition pseudo-mécanique avec les réseaux de neurones. En combinant cet apprentissage automatique et la recherche arborescente, qui consiste à explorer plusieurs possibilités - ce que les humains font aussi dans une certaine mesure -, on obtient un programme « intelligent », capable de battre les champions de go. Cette victoire de l'intelligence artificielle est due au fait que la machine est si rapide qu'elle peut s'entraîner sur plus de parties en quelques mois que ne pourra le faire n'importe quel joueur humain durant toute sa vie.

BIENTÔT L'INTELLIGENCE UNIVERSELLE ?
Or cette belle réussite de l'apprentissage automatique a quelquefois été interprétée comme la voie vers une intelligence artificielle universelle, capable aussi bien de jouer au go que de conduire une voiture. Ce n'est pas le cas. Même si le résultat est certes impressionnant, il faut plutôt voir cette réussite comme une victoire à un jeu qui recouvre des situations particulièrement simples pour les ordinateurs et particulièrement compliquées pour les humains, ainsi que nous l'avons dit.

Toutefois, l'intelligence artificielle universelle, non spécialisée, est quelque chose d'envisageable. Et je dirai même de très probable, même si j'ignore dans combien de temps nous en disposerons. Tous les pronostics qui ont été faits jusqu'à présent ont été optimistes mais les arguments utilisés sont un peu trompeurs. Par exemple, certains disent que, d'ici à une trentaine d'années, nous disposerons de machines dont la puissance de calcul sera à peu près équivalente à la capacité du cerveau humain et qu'on pourra alors concevoir une intelligence universelle. Je ne pense pas que cela suffise. À mon avis, le problème est qu'on ne connaît toujours pas les mécanismes de l'intelligence et de l'apprentissage. Certes, les machines effectuent de plus en plus de tâches variées, mais il y a beaucoup de choses qu'on n'arrive pas à leur faire faire. En particulier, on peut mettre le doigt sur au moins un obstacle qui nous reste à franchir, ou plutôt un principe qu'on n'a pas encore trouvé, c'est ce qu'on appelle l'apprentissage prédictif, ou encore non supervisé. C'est la forme d'apprentissage dominante chez les animaux.

L'APPRENTISSAGE PRÉDICTIF RESTE UN OBSTACLE
L'apprentissage, qu'il soit ou non automatique, se décline en effet en trois grandes catégories : l'apprentissage par renforcement, l'apprentissage supervisé et l'apprentissage prédictif/non supervisé. L'apprentissage par renforcement ressemble un peu à ce qu'on fait lorsqu'on entraîne un animal de cirque ou de compagnie : on attend que la machine fasse une action qui est correcte ; et quand cela arrive, on lui donne une sorte de récompense. Chez la machine, cela fonctionne bien à condition de faire des millions d'essais. Quand l'environnement dans lequel travaille la machine est artificiel, tel un jeu vidéo ou le jeu de go, on peut effectivement jouer des millions de parties. Mais cela ne fonctionne pas dans le monde réel, qui est plus incertain et où un cycle d'apprentissage peut prendre très longtemps. Entraîner un robot par cette méthode reste ainsi très compliqué. Autrement dit, les possibilités de l'apprentissage par renforcement pur sont certes spectaculaires, comme l'illustre la domination de la machine au jeu de go, mais restent limitées.

L'apprentissage supervisé recouvre, lui, la majorité des applications de l'apprentissage automatique et de l'intelligence artificielle. Le principe ? C'est un peu comme montrer un livre d'images à un enfant, où figurent un éléphant, une girafe, une chaise... tout en nommant ce qu'on y voit et attendre que l'enfant sache les reconnaître en les nommant lui-même. Pour les machines, cela fonctionne bien, à condition, là aussi, d'avoir des millions d'exemples à leur livrer. Et c'est ce que l'on parvient à faire depuis quelques années, par exemple pour la reconnaissance d'images sur Internet (lire page 90).

Le dernier type d'apprentissage est celui que l'on met en oeuvre simplement par l'observation. Quand on est bébé, on apprend que les objets continuent d'exister quand on ne les voit pas. On apprend que l'on peut bouger certains objets et d'autres pas... que les objets tombent... que le monde est tridimensionnel... Tout cela s'acquiert spontanément par observation du monde et en agissant dans le monde. Ce mode d'apprentissage qui nous est familier est encore difficile d'accès pour les machines. Il est mal aisé de formaliser le problème mathématiquement et il n'est pas facile de mesurer objectivement la performance d'un système d'apprentissage prédictif.

Par exemple, montrons une vidéo à une machine et mettons le film sur pause. Si l'on demande à la machine de prédire la situation qui va suivre, cela lui est presque impossible, car le monde est intrinsèquement non prédictible. Autrement dit, beaucoup de choses peuvent se passer qui sont toutes plausibles et on ne sait pas encore lui faire comprendre correctement que, dans la vidéo, une seule chose va se produire parmi toutes les choses plausibles. Par exemple, si je tiens un crayon debout sur sa pointe et que je le lâche, je sais qu'il va tomber, mais je ne sais pas de quel côté. Avec les méthodes classiques, la machine sera pénalisée pour avoir prédit le mauvais côté. Comment peut-elle découvrir par elle-même l'ensemble des futurs plausibles et que peu importe la direction précise de la chute ? Ce n'est qu'un exemple, mais tant qu'on n'aura pas trouvé les principes sous-jacents à cet apprentissage non supervisé en présence d'incertitude, qui permet à la machine d'apprendre « toute seule » en observant le spectacle du monde, l'intelligence artificielle universelle restera un objectif lointain.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

Les nouveaux dfis de la spintronique

 

spintronique

24.05.2016, par Sylvain Guilbaud
Spintronique Réseau de structures magnétiques en vortex.
 C. PFEIDERER/TUM
Partager
Exploitant à la fois les propriétés électriques et magnétiques des électrons, la spintronique a permis dès les années 1990 une explosion de la capacité de stockage des disques durs. Elle offre aujourd’hui de nouvelles pistes pour le futur des technologies de l’information.
Moins de dix ans ont été nécessaires entre la démonstration en laboratoire par Albert Fert et Peter Grünberg, à la fin des années 1980, de l’effet emblématique de la spintronique, la magnéto-résistance géante, et la commercialisation des premiers disques durs utilisant cette propriété par IBM en 1997. Rarement un transfert de technologie entre la recherche fondamentale et la production de masse aura été aussi rapide. Voilà qui illustre l’évolution fulgurante de la spintronique depuis une vingtaine d’années.

Une électronique du spin

La spintronique est le mariage de l’électronique, qui utilise la charge électrique des électrons pour transmettre de l’information, et du spin, une autre propriété intrinsèque des électrons. Le spin est une caractéristique microscopique purement quantique, qui n’a pas d’équivalent à notre échelle. Mais on peut se représenter, de manière schématique, un électron comme un petit aimant pouvant prendre seulement deux orientations : un spin « vers le haut » ou un spin « vers le bas ». « Cette propriété était connue depuis les débuts de la physique quantique, mais il n’y avait pas eu d’idée pour l’utiliser en électronique », souligne Yannick Dappe, chercheur au Service de physique de l’état condensé (Spec)1 du CEA Saclay. Dans les années 1960-1970, des théories sont élaborées pour décrire comment les courants de spins se déplacent dans les matériaux magnétiques. Dans les années 1980, le développement des nanotechnologies, en particulier la maîtrise des dépôts métalliques, permet de créer des matériaux possédant les couches d’une épaisseur de seulement quelques nanomètres qui sont nécessaires à l’exploitation du spin des électrons.

Spintronique Représentation schématique du spin de l'électron. Dans une image classique, un spin +1/2 correspond à une rotation de l'électron sur son axe, donnant lieu à un moment magnétique, un spin -1/2 correspond à la même rotation en sens inverse, donnant lieu à un moment magnétique de signe opposé.
 S. SMOGUNOV; Y.-J. DAPPE/SPEC
Partager
Multiplier par mille la densité de stockage

C’est dans de telles structures, composées d’une couche d’un métal normal, comme le chrome, en sandwich entre deux couches de métal ferromagnétique, comme le fer, que l’effet de magnéto-résistance géante est observé. Les matériaux ferromagnétiques soumis à un champ magnétique alignent leur aimantation dans la direction de ce champ. De plus, dans ces matériaux, les électrons ne rencontrent pas la même résistance en fonction de leur spin. Quand les aimantations des deux couches ferromagnétiques sont parallèles, les électrons qui se propagent bien dans l’une se propagent bien dans l’autre : la résistance globale est faible. Au contraire, si les aimantations des couches ferromagnétiques sont antiparallèles, les électrons qui se propagent bien dans l’une se propageront mal dans l’autre : la résistance globale sera forte. Cette différence de résistance induite par un champ magnétique peut être très forte, d’où le nom de magnéto-résistance géante. Sa découverte vaudra le prix Nobel de physique à Albert Fert et Peter Grünberg en 2007.

Cet effet est employé dans les têtes de lecture des disques durs, dont l’objectif est de lire l’orientation magnétique des domaines qui se présentent successivement à la surface du disque dur et qui constituent les bits d’information. La sensibilité des têtes de lecture à magnéto-résistance géante permet de lire une information codée sur des domaines plus petits, et donc d’augmenter la densité de stockage d’un facteur voisin de 1 000. « Les capteurs de champ magnétique à base de magnéto-résistance géante ont aussi trouvé d’autres applications : dans les voitures pour réaliser des capteurs de mouvements de rotation ou de translation ou en technologie médicale pour analyser des concentrations de molécules marquées par une nanoparticule magnétique », précise Albert Fert.

Spintronique Dispositif permettant le dépôt sur un substrat de couches métalliques magnétiques ultraminces dont l'empilement aboutit à l'effet de magnéto-résistance géante (GMR).
 H. RAGUET/CNRS PHOTOTHEQUE
Partager
Des mémoires de plus en plus rapides

Si le disque dur reste la base de la mémoire de nos ordinateurs, il a l’inconvénient d’être lent d’accès. Une milliseconde est nécessaire pour lire une information. La mémoire vive de type RAM, très rapide, le supplée. Mais celle-ci est volatile : il faut lui fournir en permanence de l’énergie sous peine de perdre l’information. Il s’agit là d’une source de consommation très importante des ordinateurs. La spintronique permet de réaliser des « mémoires magnétiques » ou MRAM, non volatiles, rapides et économes en électricité. Les jonctions tunnels magnétiques qui les composent sont également constituées de deux couches ferromagnétiques, séparée cette fois par une barrière isolante. L’effet de magnéto-résistance s’en trouve fortement augmenté. On peut stocker de l’information dans la configuration d’aimantation d’une jonction tunnel et mettre des millions de ces jonctions en réseau pour réaliser une MRAM. La première génération de ces composants est arrivée sur le marché en 2006, mais la densité de stockage n’était pas encore suffisante pour s’imposer dans les ordinateurs. « En revanche, les MRAM ont trouvé leur application dans l’avionique et le spatial, poursuit Albert Fert. Car, contrairement aux mémoires classiques, elles sont peu perturbées par les rayonnements dans la haute atmosphère. »

Ces mémoires
bouleverseront le
paradigme actuel
qui sépare, dans
un ordinateur,
mémoire vive
et mémoire
de stockage.


Le grand espoir vient de la nouvelle génération de MRAM développée actuellement. Elle intègre un autre effet majeur de la spintronique, le transfert de moment de spin. Celui-ci permet de renverser l’aimantation d’une couche, et donc d’écrire une information dans la mémoire, grâce à un simple courant électrique plutôt qu’en appliquant un champ magnétique. « Ces mémoires s’implanteront vraisemblablement dans les ordinateurs d’ici quelques années et bouleverseront alors le paradigme actuel qui sépare, dans un ordinateur, mémoire vive et mémoire de stockage », annonce Martin Bowen, physicien à l’Institut de physique et chimie des matériaux de Strasbourg2.

Spintronique Les mémoires MRAM pourraient à terme remplacer les mémoires Flash actuellement utilisées dans les disques durs SSD.
 Ralf ROLETSCHEK/fahrradmonteur.de/WIKIMEDIA COMMONS
Partager
Du stockage à la transmission de l’information

Au-delà de ces applications, la spintronique fait toujours l’objet de recherches fondamentales dont le panorama s’est diversifié. D’une part, les chercheurs tentent d’aller toujours plus loin dans la spintronique « classique », celle employée dans les dispositifs à magnéto-résistance, qui consiste à placer différents matériaux sur le chemin des électrons pour influencer la circulation des spins. « Au lieu d’utiliser des couches de métal normal, comme dans les premiers dispositifs, ou des barrières isolantes, comme dans les jonctions tunnels magnétiques, on peut aussi tester d’autres matériaux, comme des assemblées de molécules, pour filtrer les électrons en fonction de leur spin », explique Yannick Dappe. C’est le principe de la spintronique moléculaire sur lequel le chercheur effectue des travaux théoriques avec son collègue du Spec Alexander Smogunov. Des matériaux comme le graphène sont aussi très étudiés. Plutôt que de simplement stocker l’information, la spintronique pourrait aussi aider à la transmettre. Pour cela, il faut développer des sources performantes de courants polarisés en spin. « Cela nécessite de bien comprendre comment des matériaux dissemblables tels qu’un métal ferromagnétique et des molécules partagent leur charge électronique lorsqu’ils forment une interface, détaille Martin Bowen. Un autre enjeu est de miniaturiser ces concepts à une nano-échelle, par exemple en utilisant les propriétés électroniques des défauts de structure, comme lorsque l’absence d’un atome créé une lacune. »

De nouvelles façons de manipuler les spins ont aussi émergé ces dernières années. L’une d’elle est la spin-orbitronique. L’idée est d’utiliser un effet relativiste, le couplage spin-orbite, très important dans les métaux lourds comme le bismuth ou le platine. Parmi les pistes ouvertes par ce domaine se trouve la possibilité de stocker et transporter de l’information grâce aux skyrmions. « Ce sont des petits nœuds de spins de quelques nanomètres avec lesquels on peut mémoriser une information, comme avec les boules d’un boulier. On peut ensuite déplacer ces skyrmions le long d’une piste jusqu’à un nanocapteur pour lire l’information codée dans un train de skyrmions », explique Albert Fert, dont l’équipe au sein de l’unité mixte de recherche CNRS/Thales se penche en particulier sur ce champ de recherche.

Alors que la fabrication des composants à base de semi-conducteurs commence à atteindre ses limites en termes de miniaturisation, la spintronique s’impose petit à petit comme une technologie complémentaire permettant de dépasser certaines de ces limites et de prendre probablement à moyen terme le relai de l’électronique classique. Outre les nouveaux composants qu’elle propose, comme les MRAM, la spintronique pourrait participer à la définition de nouvelles architectures informatiques, c’est-à-dire de nouvelles façons de faire les calculs. L’électronique neuromorphique propose par exemple de s’inspirer du fonctionnement du cerveau, en particulier des synapses, qui se transforment en fonction de l’information qu’elles reçoivent.

Notes
1. Unité CNRS/CEA.
2. Unité CNRS/Univ. de Strasbourg.

 

DOCUMENT    cnrs  le  journal     LIEN

Inscrivez  le  titre  complet  dans  la  rubrique  " cnrs  le  journal "

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google