ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

« Le monde numérique simplifie la pensée »

 


« Le monde numérique simplifie la pensée »

Marina Julienne dans mensuel 484
daté février 2014

LA RECHERCHE : Votre dernier ouvrage s'intitule L'Homme simplifié. Cela ne s'oppose-t-il pas à la notion d'homme augmenté, au coeur de votre précédent ouvrage paru en 2010 ?


JEAN-MICHEL BESNIER : Non, car ces deux notions sont les deux faces de la même médaille. Dans mon précédent livre Demain les posthumains, j'expliquais de quelle façon les avancées scientifiques en génétique, en intelligence artificielle et en robotique sont censées permettre l'avènement d'un homme aux performances cognitives ou physiques améliorées. J'évoquais le transhumanisme, un courant de pensée qui a émergé à l'université de Californie, à Los Angeles, dans les années 1980. Les membres de ce courant imaginent sans ciller la fabrication d'un « homme parfait », connecté et quasi immortel. Ils espèrent qu'un être humain d'une santé physique et d'une intelligence hors norme va se développer grâce à l'administration d'une grande variété de molécules ou en utilisant des prothèses conçues initialement pour des personnes malades ou âgées.


Vous dénoncez cette perspective ?


J.-M.B. Effectivement, car dès aujourd'hui des individus pourtant en bonne santé ont recours à certains psychostimulants, par exemple pour dormir moins longtemps, mémoriser davantage, et peut-être vivre plus longtemps. Ils sont assurément dans le plus, mais leur pensée n'est pas devenue pour autant plus élaborée. Il me semble que, à défaut de favoriser la réflexion, l'extension sans précédent des technologies numériques, dites « intelligentes », risque de réduire nos comportements à une logique de pur fonctionnement. L'homme soi-disant « augmenté » masque en fait « l'homme simplifié », que je décris dans mon dernier ouvrage.


Que voulez-vous dire par homme simplifié ?


J.-M.B. Toutes ces technologies numériques nient la complexité qui est au coeur de l'humain et fait sa richesse. Prenons les logiciels dits « éducatifs » qui se limitent à des questionnaires à choix multiples. Ils risquent de développer une pensée automatique proche du réflexe. C'est le contraire de ce qu'on attend d'outils pédagogiques destinés à développer le jugement et l'aptitude à transférer les savoirs d'un domaine à l'autre. Autre exemple : le Web met à notre disposition une sorte d'encyclopédie universelle. Mais le fait d'accéder à des milliers d'informations ne suffit pas à produire du savoir. Encore faut-il comprendre comment organiser ces informations pour en extraire des connaissances. Considérons aussi les serveurs vocaux, censés simplifier la vie des utilisateurs : ils vont à l'encontre de la communication qu'ils devraient permettre et marginalisent toute une catégorie de la population. Imaginez une personne âgée qui a des problèmes de vue : si elle ne peut pas trouver la touche étoile de son téléphone, elle est privée de l'accès à une majorité de services publics. Et que dire des personnes ne parlant pas parfaitement français qui énoncent le mot-clé attendu en vain, car, souvent, il n'est pas reconnu par ces nouvelles machines.
Intéressons-nous enfin aux « robots compagnons » très prisés au Japon : en croyant grâce à eux affronter le vieillissement de leur population, les Japonais font-ils autre chose qu'ouvrir la porte à une société sans âme ? Ce qui me surprend, c'est notre tendance à être euphoriques devant n'importe quelle innovation technologique, en faisant l'économie de la démarche réflexive la plus élémentaire sur ses conséquences pour l'être humain.


Faut-il rejeter ces technologies en bloc ?


J.-M.B. Non, mais il ne faudrait pas oublier qu'elles relèvent du « pharmakon », comme disaient les Grecs, c'est-à-dire à la fois du remède et du poison. Elles sont bénéfiques pour les personnes qui sont diminuées à la suite d'un handicap physique ou qui souffrent d'une situation politique opprimante. Ainsi, certains tétraplégiques communiquent grâce à une tablette numérique. Et les victimes de dictatures trouvent le moyen de s'organiser grâce aux réseaux sociaux. Mais est-ce une raison pour méconnaître la servitude volontaire à laquelle se soumettent tant de gens « ordinaires », en se laissant assujettir par leurs machines ? Entre technophobie et technophilie, il s'agit non pas de choisir mais de savoir positionner le curseur.


Serions-nous plus assujettis aux machines aujourd'hui que dans le passé ?


J.-M.B. Jusqu'au milieu du XXe siècle, les ingénieurs ont créé des machines ou des technologies permettant une meilleure adaptation aux exigences du monde environnant et facilitant le bien-être : l'électricité, l'automobile, l'avion les machines à laver, etc. Mais progressivement, les laboratoires ont commencé à mettre au point des objets innovants dont la seule justification est d'être soumis à la sélection par le marché : chacun de ces objets s'impose ou disparaît, non pas parce qu'il satisfait un besoin, mais parce qu'il bénéficie d'un rapport de forces favorable dans la compétition économique. La stratégie marketing a pris la relève de l'analyse des attentes. Nous sommes ainsi passés du téléphone fixe au mobile, puis au mobile intelligent ; et demain ce seront les implants intracérébraux pour augmenter notre mémoire. Dans ce système, on innove pour innover. Ainsi, les lunettes de Google (connectées à Internet, avec GPS et caméra intégrés) ont déjà été jugées sans intérêt par ceux qui les ont testées. Google en inondera quand même le marché parce qu'il en sortira peut-être quelque chose d'inédit, qui en consacrera la valeur après coup. Et plus personne ne pourra alors s'en passer ! À un autre niveau, la biologie de synthèse cherche à produire des créatures vivantes qui n'existent pas dans la nature, avec l'idée que l'on trouvera peut-être une efficacité, un intérêt à ces artefacts biologiques. L'innovation est devenue une fin en soi. Voilà pourquoi les technologies nous donnent le sentiment qu'elles s'emballent et nous submergent.


Nous serions soumis à la technologie ?


J.-M.B. Notre apathie devant ce déferlement d'objets et de technologies est un peu inquiétante. Au XIXe siècle, la révolution industrielle a provoqué au Royaume-Uni la révolte des luddistes (qui brisaient les métiers à tisser mécaniques) contre le risque d'aliénation de l'homme par la machine. De Karl Marx à Charlie Chaplin, on s'est interrogé sur l'inhumanité de ces temps modernes. Aujourd'hui, certains d'entre nous s'énervent contre les serveurs vocaux qui nous coupent la parole, mais une majorité de citoyens achète toujours plus de machines dites « intelligentes » sans s'inquiéter qu'on ait désormais dissocié l'idée d'« intelligence » de celle de conscience ou d'intention d'agir.


Qualifier ces machines d'intelligentes vous semble stupide ?


J.-M.B. On ose parler d'« objets intelligents », acceptant ainsi que l'intelligence se réduise à la simple aptitude d'un organisme ou d'une machine à donner de bonnes réponses à des stimuli considérés comme des informations ! Beaucoup s'émerveillent qu'un enfant de 7 ans n'ait pas besoin d'un mode d'emploi comme son grand-père pour utiliser un ordinateur. Mais cela révèle justement les progrès de nouvelles procédures de pensée, dominées par les automatismes : elles sont efficaces parce qu'elles ne se laissent pas arrêter par une démarche de mentalisation ou une réflexion désormais perçue comme encombrante. L'idée que, pour utiliser les machines, on a plus recours à l'instinct et à la réactivité qu'aux tâtonnements de l'intelligence disqualifie les exercices d'approfondissement jadis associés à l'instruction. Cette défaite de la pensée profonde risque de conduire peu à peu à un affaiblissement des capacités d'apprentissage de notre cerveau.


L'intelligence humaine serait-elle menacée ?


J.-M.B. L'hominisation s'est faite essentiellement par le langage et par l'outil, qui ont jusqu'ici avancé de pair. Les encyclopédistes du XVIIIe siècle l'avaient compris : l'homme grandit en dominant la nature grâce à ses outils et, simultanément, en organisant son environnement social grâce à son langage. Fondés sur le langage, les « arts libéraux », « ouvrages de l'esprit » selon Diderot, stimulaient et orientaient les « arts mécaniques », lesquels apportaient en retour de quoi perfectionner l'exercice des premiers. Aujourd'hui, notre langage, de plus en plus dicté par des impératifs techniques, se réduit comme peau de chagrin. Le Web (les textos, les tweets...) nous contraint à épurer le lexique et la syntaxe de notre langue. Google a proposé de supprimer l'apostrophe de la langue anglaise, au motif qu'elle est peu commode sur les claviers ! Nous faisons sciemment violence aux adjectifs, aux propositions relatives... Nous sommes quotidiennement invités à décoder et à faire circuler des signaux, et non plus à échanger des signes.


En quoi les signaux sont-ils simplificateurs ?


J.-M.B. Un signal est un message destiné à prescrire un comportement, alors qu'un signe s'inscrit toujours dans une démarche de conversation, un espace de dialogue. Le langage humain ne se réduit pas au traitement du signal des ingénieurs en télécommunication, il est intrinsèquement équivoque, ambigu, complexe... Mais les technologies de la communication veulent la transparence et l'univocité des messages et nous nous plions à leurs exigences. Formater les esprits avec des catégories sémantiques épurées, c'est réduire la pensée.
Nous ne sommes plus très loin de la langue décrite par George Orwell dans 1984, le « novlang », où le mot « liberté », par exemple, ne désignait plus que la suppression d'un obstacle (l'eau est « libre » de circuler dans la rivière), mais ne faisait plus référence à la Révolution française, ni à l'idée d'autonomie. Naturellement, cette simplification du langage s'accompagne d'une simplification de l'écriture. Symptôme parmi d'autres de l'offensive contre le langage humain, aux États-Unis, plusieurs États viennent de supprimer l'enseignement de l'écriture cursive à l'école. Par commodité, sans s'aviser que c'est dans une écriture personnalisée que l'on projette le mieux des sentiments et des émotions.


Pourquoi allez-vous jusqu'à parler de dépression de l'homme devant la machine ?


J.-M.B. Les machines entament globalement notre disposition à communiquer avec les autres. Elles provoquent d'abord un sentiment d'impuissance, car la compréhension de leur fonctionnement nous échappe. Lorsqu'un objet connecté (ordinateur, système de pilotage automatique, téléphone mobile, etc.) se bloque, nous sommes presque honteux de notre incapacité à le remettre en route. Le philosophe allemand Günther Anders identifiait déjà au milieu du XXe siècle cette « honte d'être soi » qu'alimentaient le perfectionnement et l'autonomie des machines. Ensuite, les machines jouent le rôle d'anxiolytiques : leurs automatismes calment nos angoisses. D'où l'addiction qu'elles provoquent parfois. Si certains usagers frénétiques d'Internet aimeraient presque fusionner avec leurs ordinateurs, c'est probablement pour échapper aux affres d'une vie intérieure vécue sur le mode dépressif. Loin de nous pousser à utiliser le temps qu'elles nous font gagner pour nous permettre d'aller au musée ou de lire plus de philosophie, les machines saturent notre « temps de cerveau disponible », en multipliant ces armes de distraction massive que sont les jeux vidéos, les portables, les réseaux sociaux : tout ce qui capture la concentration, favorise le zapping et nourrit la dépression. Car la dépression dans ce cas, c'est la soumission à une machine et l'incapacité à affronter le conflit en direct avec l'autre. Tel est bien le sort de l'homme simplifié, victime de ces machines qui limitent sa réflexion et rendent sa vie indolore. Il délègue sans état d'âme son existence à des avatars - ceux que lui permet de créer un site comme Second Life - et plus généralement à ceux qu'il endosse au quotidien dans les personnages interchangeables que l'univers des réseaux le pousse à jouer sans qu'il s'en rende toujours compte.


Comment reprendre le contrôle de nos innovations ?
J.-M.B. Pour cela, il faut reprendre goût à ce qui est humain, même trop humain, accepter par exemple la fragilité qui est la nôtre, souhaiter innover sans s'imposer d'en finir avec ce que nous sommes. Reprendre le contrôle imposerait de réévaluer la vieillesse et d'être capable d'y voir une ressource en humanité, d'admettre que la souffrance psychique (sans aller jusqu'au masochisme !) fasse partie de ce qu'il y a de profond en nous, de se demander par exemple jusqu'à quel point on pourrait se priver des techniques de procréation médicalement assistée... Si nous redevenions capables de penser les techniques comme des instruments destinés à composer avec la vulnérabilité et non à l'éliminer, nous pourrions encore en faire des outils de convivialité. Il faut se rappeler que, à l'origine, le micro-ordinateur relevait d'un projet de convivialité révolutionnaire : il était censé nous permettre d'échapper au centralisme des pouvoirs politiques et bureaucratiques. De même, les réseaux informatiques envisagés dans les années 1960 par le biologiste Steward Brand, chef de file de la contre-culture américaine, étaient accueillis par les hippies comme un moyen d'assurer l'entraide au sein de leurs microcommunautés !


* Jean-Michel Besnier est agrégé de philosophie et docteur en sciences politiques. Il est professeur de philosophie à l'université Paris-Sorbonne. Il y occupe la chaire de philosophie des technologies de l'information et de la communication, et dirige l'équipe de recherche « rationalités contemporaines ». De 1989 à 2012,il a été membre du Centre de recherche en épistémologie appliquée, laboratoire du CNRS et de l'École polytechnique axé sur les sciences cognitives.

 

 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

PRÉVISION DES SÉISMES

 


 

 

 

 

 

Paris, 8 juillet 2016
Prévision des séismes : une technique innovante pour observer les failles sous-marines

Pour surveiller un segment de la faille sismique nord-anatolienne près d'Istanbul, une équipe internationale de chercheurs, notamment du CNRS et de l'université de Bretagne occidentale, a déployé un réseau de balises au fond de la mer de Marmara. Objectif : mesurer les mouvements des fonds marins de part et d'autre de ce segment. Les données récoltées lors des six premiers mois révèlent que la faille serait bloquée au niveau de ce segment, suggérant une accumulation progressive d'énergie susceptible d'être libérée brusquement. Ce qui pourrait provoquer un séisme de forte magnitude à proximité d'Istanbul. Cette étude, issue d'une collaboration entre des chercheurs français, allemands et turcs, vient d'être publiée dans Geophysical Research Letters.
La faille nord-anatolienne, responsable de tremblements de terre destructeurs en 1999 en Turquie, est comparable à la faille de San Andreas en Californie. Elle constitue la limite des plaques tectoniques eurasiatique et anatolienne, qui se déplacent l'une par rapport à l'autre d'environ 2 cm par an. Le comportement d'un segment sous-marin de cette faille, situé à quelques dizaines de kilomètres au large d'Istanbul, en mer de Marmara, intrigue particulièrement les chercheurs, car il semble exempt de sismicité depuis le 18e siècle. Comment se comporte ce segment ? Glisse-t-il en continu, cède-t-il régulièrement, provoquant de petits séismes épisodiques de faible magnitude ou est-il bloqué, laissant présager une future rupture et donc un fort séisme ?

Observer in situ le mouvement d'une faille sous-marine sur plusieurs années est un vrai défi. Pour le relever, les chercheurs testent une méthode de télédétection sous-marine innovante, à l'aide de balises acoustiques actives, autonomes et interrogeables à distance depuis la surface de la mer. Posées sur le fond marin de part et d'autre de la faille à 800 mètres de profondeur, ces balises s'interrogent à tour de rôle par paire et mesurent le temps aller-retour d'un signal acoustique entre elles. Ces laps de temps sont ensuite convertis en distances entre les balises. C'est la variation de ces distances dans le temps qui permet de détecter un mouvement des fonds marins et la déformation du réseau de balises, de déduire les déplacements de la faille. Concrètement, un réseau de dix balises françaises et allemandes a été déployé lors d'une première campagne en mer1 en octobre 2014. Les six premiers mois de données (temps de parcours, température, pression et stabilité)2 confirment les performances de la méthode. Après calculs, les données ne révèlent aucun mouvement significatif de la faille surveillée, dans la limite de résolution du réseau. Les distances entre balises, séparées de 350 à 1700 mètres, sont mesurées avec une résolution de 1,5 à 2,5 mm. Ce segment serait donc bloqué ou quasi-bloqué, et accumulerait des contraintes susceptibles de générer un séisme. L'acquisition d'information sur plusieurs années sera cependant nécessaire pour confirmer cette observation ou caractériser un fonctionnement plus complexe de cette portion de faille.

Si, au-delà de cette démonstration, cette approche dite de « géodésie acoustique fond de mer » s'avère robuste sur le long terme (ici 3 à 5 ans sont envisagés dans la limite d'autonomie des batteries), elle pourrait être intégrée dans un observatoire sous-marin permanent en complément d'autres observations (sismologie, émission de bulles, …) pour surveiller in situ et en temps réel l'activité de cette faille en particulier, ou d'autres failles actives sous-marines dans le monde.

Ces travaux sont menés par le Laboratoire Domaines océaniques3 (LDO, CNRS/Université de Bretagne occidentale), en collaboration avec le laboratoire Littoral environnement et sociétés (CNRS/Université de La Rochelle), l'institut Geomar à Kiel (Allemagne), le Centre européen de recherche et d'enseignement de géosciences de l'environnement (CNRS/Collège de France/AMU/IRD), le Laboratoire Géosciences marines de l'Ifremer, l'Eurasian Institute of Earth Sciences de l'Université Technique d'Istanbul (Turquie) et le Kandilli Observatory and Earthquake Research Institute de l'Université Bogazici d'Istanbul. Cet article est dédié à la mémoire d'Anne Deschamps, chargée de recherche CNRS au LDO, initiatrice et responsable du projet, décédée peu après avoir conduit avec succès le déploiement de ces balises.


 DOCUMENT         cnrs        LIEN

 
 
 
 

Dialogues entre neurones biologiques et artificiels

 

 

 

 

 

 

Dialogues entre neurones biologiques et artificiels
mensuel 314
daté novembre 1998 -  Réservé aux abonnés du site


De mieux en mieux connue, l'activité électrique des neurones est désormais fidèlement simulée par des logiciels qui s'appuient sur la description du mouvement des ions à travers les membranes. A présent, on cherche à intégrer des modèles sur des circuits électroniques : ces simulateurs analogiques atteignent aujourd'hui des performances qui n'ont presque rien à envier aux neurones réels. Très récemment, une nouvelle approche expérimentale a permis de réaliser des connexions directes entre neurones artificiels et biologiques au sein de réseaux neuronaux dits « hybrides ».
Nul n'ignore que le système nerveux est formé d'un ensemble de cellules spécialisées, les neurones, connectées les unes aux autres au sein de réseaux. On sait également qu'à l'aide de signaux électriques et chimiques, ces cellules communiquent, entre elles et avec d'autres cellules de l'organisme, par l'intermédiaire de synapses. Les fonctions les plus intégrées du cerveau découlent en grande partie de la façon dont ces réseaux de neurones sont agencés, sont régulés et se forment.

Trois éléments au moins déterminent le fonctionnement des réseaux: les neurones qui les composent, les synapses qui les connectent et le plan des connexions entre les éléments du réseau. Les interactions entre ces trois éléments sont difficiles à appréhender. En effet, les neurones peuvent posséder des propriétés électriques membranaires en dehors de toute influence synaptique, et ces propriétés peuvent varier selon le potentiel de membrane du neurone et la concentration extérieure de certaines substances dites " neuro-modulatrices ». A cette complexité de fonctionnement s'ajoute la plasticité particulièrement développée des synapses: même la façon dont les neurones sont câblés les uns aux autres s'avère variable dans de nombreux cas.

Tous ces phénomènes rendent l'étude des réseaux de neurones fortement dépendante des techniques expérimen- tales disponibles pour les observer ou les contrôler. Une approche qui s'est révélée fructueuse pour contourner les difficultés a consisté à bâtir des modèles théoriques. Les simulations des courants et tensions transmembranaires des neurones ont débuté dans les années 1950 avec les travaux pionniers de Alan L. Hodgkin et Andrew F. Huxley1. Que savait-on à l'époque ? On a observé que les neurones, délimités par une membrane lipidique semi-perméable aux ions, entretiennent des différences de concentrations ioniques entre leur intérieur et le milieu extérieur. Ces différences induisent des mouvements d'ions au travers de canaux spécialisés, appelés " canaux ioniques ". Leur ouverture et leur fermeture dépendent de façon complexe du temps et du potentiel de membrane : cette dépendance au potentiel voltage-dépendance prend souvent la forme d'une fonction non linéaire. A.L. Hodgkin et A. F. Huxley ont donc proposé de considérer les canaux ioniques comme des « trous » dans la membrane: chaque trou est spécifique à un type d'ions et est contrôlé par une porte qui s'ouvre ou se ferme. Chaque porte est ainsi décrite mathématiquement par une équation différentielle, dans laquelle interviennent les fonctions de voltage dépendance ainsi que des paramètres cinétiques d'ouverture et de fermeture.

L'activité électrique globale du neurone est représentée à l'aide d'équations décrivant un ou plusieurs petits circuits « équivalents » : ils contiennent en parallèle une branche capacitive, qui correspond à la partie isolante membranaire, et plusieurs branches résistives, qui représentent les canaux ioniques. En suivant un formalisme identique, on peut affiner la description et reproduire des relations synaptiques ou des canaux possédant une dépendance à la concentration interne d'une substance comme le calcium. Ces modèles se distinguent des " réseaux de neurones formels » qui, utilisés en informatique pour la reconnaissance des formes ou l'analyse d'images, n'ont en fait que de très lointains rapports avec les neurones réels. En revanche, les modèles dérivés des concepts de Hodgkin et Huxley s'attachent à décrire le détail du comportement électrochimique des neurones et de leurs interactions. Ils permettent de faire des prédictions, plus facilement qu'à l'aide d'expériences sur des neurones réels, puisqu'on peut contrôler des paramètres qui seraient difficiles, voire impossibles à maîtriser sur des objets biologiques. Au cours des dix derniè- res années, de nombreuses questions ont été abordées avec succès par cette démarche2.

Ces logiciels de simulation informatique des neurones et de leurs réseaux sont de plus en plus puissants, mais ils sont rarement capables de travailler en temps réel, tant le nombre d'équations à résoudre peut être important. En revanche, le calcul en temps réel est toujours possible si l'on utilise des circuits électroniques analogiques. L'activité électrique générée en sortie d'un simulateur analogique formé de plusieurs circuits élémentaires est ainsi l'équivalent temporel du potentiel de membrane que l'on mesure sur un neurone réel. Si ces circuits travaillent par définition en temps réel, notons qu'il est simple d'accélérer encore le fonctionnement des simulateurs analogiques en divisant par un facteur donné tous les paramètres cinétiques. On obtient alors un neurone artificiel reproduisant en accéléré le comportement d'un neurone réel. Cette vitesse, en dehors des applications qui nécessitent le temps réel, est importante pour les simulations qui s'avèrent parfois très coûteuses en temps de calcul.

Les premiers circuits analogiques de ce type ont été réalisés par l'équipe de Carver Mead à Caltech, puis par Rodney Douglas et Misha Mahowald en 19913. Depuis cinq ans, notre équipe développe de tels circuits, avec deux objectifs : être aussi proche que possible du formalisme mathématique de référence, celui de Hodgkin et Huxley, et garder la souplesse des simulateurs numériques en rendant ces circuits entièrement programmables. Les circuits intégrés destinés à des applications spécifiques sont appelés des ASIC de l'anglais Application Specific Integrated Circuit . Afin de reproduire le modèle décrit par Hodgkin et Huxley, le circuit rassemble des blocs générateurs de courants ioniques4. Chaque bloc présente une sortie de courant ionique sur l'une des broches du circuit. Un modèle de neurone se construit en connectant les sorties en courant, correspondant aux différents courants ioniques désirés, sur un condensateur tenant lieu de membrane neuronale fig. 1.

La méthode dite des réseaux hybrides consiste à construire des réseaux de neurones biologiques réels et de neurones électroniques, connectés les uns aux autres par des synapses artificielles fig. 2. On peut ainsi remplacer, contrôler ou modifier une partie d'un réseau réel5. Les synapses artificielles, bien que nécessairement simplifiées, doivent reproduire les propriétés essentielles des synapses réelles qui génèrent, dans le neurone postsynaptique, un courant de même nature que les courants passant par les canaux ioniques voltage-dépendance.

Les premières applications ont été réalisées chez des invertébrés où les réseaux sont constitués d'un petit nombre de neurones

Il y a cependant une différence majeure: l'ouverture des canaux synaptiques d'un neurone réel dépend des variations de potentiel du neurone présynaptique via la libération d'un neurotransmetteur. Pour simuler ce type d'influence chimique, il est en fait possible, à l'aide d'une micro-électrode de verre, d'injecter un « faux " courant synaptique qui intègre les paramètres des synapses modélisées. La fonction mathématique reliant le potentiel de membrane présynaptique à la quantité de courant injecté sera calculée à chaque instant par un ordinateur ou un circuit spécialisé.

Les neurones réels sont reliés au système par une micro-électrode. Cette contrainte limite pour le moment l'application des réseaux hybrides à des systèmes neuronaux simples. Ainsi, leurs premières utilisations en neurosciences ont été réalisées chez des invertébrés où les réseaux sont constitués d'un petit nombre de neurones. Plus récemment, cette technique a été appliquée à l'étude, chez des mammifères, des réseaux d'une structure cérébrale dotée d'une architecture de base bien connue, le thalamus.

Que sait-on de son rôle ? Au cours de l'éveil, un flot continuel d'informations sensorielles nous renseigne instant après instant sur l'état du monde extérieur et de notre propre corps6. On sait que le codage de ces informations est opéré par des cellules nerveuses sous la forme de potentiels d'action. Les signaux ainsi codés sont véhiculés par des voies séparées vers différentes aires du néocortex, spécialisées dans le traitement d'une modalité sensorielle particulière. Le thalamus est la première structure cérébrale que rencontrent ces voies sensorielles en route vers le cortex. De fait, la destruction du thalamus nous rendrait immanquablement aveugles, sourds, et complètement isolés du monde extérieur et de notre corps sur le plan sensoriel et moteur.

Cette privation sensorielle ne rappelle-t-elle pas les caractéristiques de l'état de sommeil ? L'endormissement est en effet associé à une diminution marquée de la perception sensorielle, qui va s'amplifiant au cours des stades de sommeil successifs classés de I à IV. Cette transition de la veille vers le sommeil est clairement visible sur un électroencéphalogramme EEG et se caractérise par la transformation d'oscillations rapides 20-60 Hz, de petite amplitude, en ondes plus lentes 1 à 14 Hz et de grande amplitude. Les oscillations les plus caractéristiques des premiers stades du sommeil s'appellent les " fuseaux ". Le sommeil à fuseaux stade II représente chez l'homme sain environ 30 à 50 % du temps passé à dormir. Ces fuseaux sont produits par le thalamus et propagés vers le cortex où on les repère dans l'EEG sous la forme de bouffées d'oscillations de 10-14 Hz qui reviennent périodiquement toutes les dizaines de secondes.

Ces observations permettent d'élaborer des hypothèses sur le rôle du thala-mus: en diminuant la transmission des informations sensorielles qui transitent vers le cortex, son activité oscillatoire serait prépondérante dans la chute de la perception consciente associée au sommeil. Pendant l'éveil au contraire, ces oscillations étant abolies, le thalamus autoriserait la transmission des informations vers le cortex. Grâce à la technique des réseaux de neurones hybrides, il est désormais possible de soumettre ces hypothèses à l'épreuve de l'expérience.

Logés au coeur des hémisphères cérébraux, les noyaux thalamiques sont difficiles d'accès pour l'expérimentation. Une façon de remédier à ce problème consiste à recueillir une portion significative de matière cérébrale, puis à la maintenir en survie artificielle in vitro dans un dispositif qui apporte oxygène et nutriments. Nous avons mis au point une telle préparation de thalamus chez le furet Mustelaputorius furo : une tranche de tissu thalamique de 400 µm d'épaisseur est prélevée dans le noyau géniculé latéral dorsal, qui constitue la partie du thalamus traitant les informations visuelles en provenance de la rétine fig. 1. Les connexions synaptiques entre les axones d'origine rétinienne et les neurones qui forment le réseau thalamique sont conservées. La stimulation électrique de ces axones permet de mimer l'entrée des signaux visuels dans le thalamus.

Cette tranche thalamique offre une caractéristique remarquable: elle conserve la propriété de produire spontanément les fuseaux caractéristiques du sommeil. La genèse des fuseaux est une propriété émergente du réseau. Elle découle à la fois des interactions synaptiques et des propriétés membranaires électriques de deux populations de neurones thalamiques: les neurones relais thalamo-corticaux TC, qui produisent un neurotransmetteur excitateur le glutamate, et les neurones réticulaires thalamiques nRt, dont le neurotransmetteur inhibiteur est le GABA acide g amino-butyrique. Par leurs seules propriétés membranaires, c'est-à-dire en l'absence de toute influence synaptique, les neurones relais TC, de même que les neurones nRt, peuvent se comporter comme des oscillateurs et générer des potentiels d'action en bouffées lorsque leur potentiel de membrane est hyperpolarisé inférieur à ­60 mV. En revanche ces propriétés d'oscillateurs disparaissent lorsque le potentiel de membrane s'approche du seuil de déclenchement des potentiels d'action ­55 mV.

Ces deux modes d'activité cellulaire, associés aux interactions synaptiques, confèrent au réseau thalamique la propriété de fonctionner dans un continuum de régimes d'activité, du sommeil profond à l'éveil attentif. La reconstruction de ce réseau par la technique hybride permet de déterminer l'influence des " poids » synaptiques la force d'une synapse, dont la mesure et le contrôle individuel ne seraient pas réalisables dans un réseau purement biologique. Cette technique permet également de tester le rôle des différents canaux ioniques transmembranaires des neurones qui, par exemple, peuvent influencer la durée ou la fréquence de l'oscillation, voire le potentiel de membrane des neurones, donc le degré d'éveil du réseau.

Comment parvient-on à éclairer le rôle des circuits thalamiques dans le filtrage des informations sensorielles ? On sait qu'un signal visuel, sous la forme de train de potentiels d'action dans les axones des cellules de la rétine, est relayé vers le cortex par la décharge de potentiels d'action du neurone relais. Dans l'expérience de la figure 2, le réseau thalamique hybride est placé dans un état éveillé où le potentiel de membrane des neurones réels et artificiels est dépolarisé, proche du seuil des potentiels d'actions. La stimulation électrique du nerf optique se traduit par le déclenchement de potentiels d'action dans le neurone réel TC. Dans ces conditions d'éveil, le réseau thalamique a bien autorisé le transfert de l'information à destination corticale.

Ces stratégies sont déjà expérimentées dans le cas de prothèses sensorielles de la cochlée et de la rétine ou en neurochirurgie fonctionnelle

Par contraste, les oscillations produites par le réseau hybride en état de sommeil où les neurones sont hyperpolarisés bloquent le transfert des signaux visuels fig. 3. Le blocage provient de puissantes inhibitions évoquées dans le neurone biologique TC par le neurone nRt artificiel.

Ce résultat, révélé par la manipulation d'un réseau neuronal hybride, confirme les hypothèses émises plus haut. L'oscillation produite par le réseau filtrerait bien l'information en route vers le néocortex. Il reste néanmoins à élucider de nombreux mécanismes de ce filtrage: les techniques de modélisation et de connexions hybrides, en reconstituant une partie de ces réseaux et en rendant possible leur contrôle, constituent de précieux outils pour y parvenir. Plus largement, divers champs de recherche fondamentale en neurobiologie profiteront certainement du développement de ces techniques.

Mais plus encore, la réalisation de connexions directes entre des circuits électroniques et le système nerveux ouvre de nombreuses et troublantes perspectives de suppléance, de contrôle ou de correction de certaines fonctions cérébrales par des systèmes artificiels. De telles stratégies sont déjà expérimentées dans le cas de prothèses sensorielles de la cochlée et de la rétine, ou dans le développement de la neurochirurgie fonctionnelle qui, par l'intermédiaire d'électrodes de stimulation intracérébrales, vise à corriger certains déficits ou dysfonctionnements.
1A.L. Hodgkin, A.F. Huxley, " A quantitative description of membrane current and its application to conduction and excitation in nerve ", J. Physiol., 117, 500, 1952.

2G. Le Masson, M. Marder, L.F. Abbott, Science, 259, 1915, 1992.

3R. Douglas, M. Mahowald, Nature, 354, 515, 1991.

4A. Laflaquière et al., " Accurate analog VLSI model of Calcium-dependent bursting neurons ", Proc. of the International Conference on Neural Networks ICNN'97, p. II, 882, 1997.

5G. Le Masson, S. Le Masson, M. Moulins, Progr. Biophys. Molec. Biol., 64, 201, 1996.

6P.A. McCormick et T. Bal, Annual review of Neuroscience, 20, 185, 1997.


    DOCUMENT       la recherche.fr      LIEN

 
 
 
 

La difficile tâche des prévisions solaires

 

 

 

 

 

 

 

La difficile tâche des prévisions solaires
Pierre Lantos dans mensuel 332
daté juin 2000 -  Réservé aux abonnés du site


Depuis le XIXe siècle, les astronomes savent que le Soleil connaît des pics d'activité tous les onze ans. Mais ils peinent encore pour prédire avec précision l'intensité du cycle à venir. En l'absence de théorie physique, de nouvelles méthodes à base de réseaux de neurones semblent porter leurs fruits.
Comme lors de chaque cycle de onze ans, on observe à la surface de notre étoile de très nombreuses éruptions durant la période de grande activitéI-V. Trouver une méthode fiable de prévision de l'amplitude et de l'instant du maximum est devenu un enjeu économique important, puisque les effets de ces sautes d'humeur de notre étoile se font sentir quelques heures plus tard sur l'atmosphère terrestre et l'électronique des satellites. Or l'amplitude des différents cycles est très irrégulière. Calculée sur le nombre de taches visibles sur sa surface voir l'encadré : « Une histoire de taches », elle peut varier d'un facteur quatre de 50 vers 1800, à 200 en 1958. La variation quotidienne peut être aussi très importante. Le 17 mars 2000, les observatoires solaires notaient un indice de 95. Huit jours plus tard, il avait doublé. C'est pourquoi les astronomes solaires préfèrent travailler sur un indice mensuel. Pour calculer celui d'un mois donné, ils moyennent toutes les valeurs observées pendant un an centré autour de l'indice recherché. Celui de janvier dernier ne sera ainsi connu qu'en août prochain.

La prédiction à court terme n'en est que plus difficile. Et ce n'est pas la théorie du cycle d'activité solaire qui résoudra le problème. Elle est encore trop mal comprise pour que des modèles physiques puissent être prédictifs. Ne restent en lice que des méthodes fondées sur l'observation de signes précurseurs ou la recherche de différentes périodicités. Avec les incertitudes que les statistiques engendrent.

Une règle bien vérifiée sur les cycles observés est le lien entre la vitesse de croissance d'un nouveau cycle et le maximum qu'il atteindra. Cette régularité relative du profil des cycles justifie l'application de méthodes statistiques d'extrapolation. La plus fréquemment employée est celle de McNish et Lincoln, proposée dès la fin des années 19401.

Dans cette méthode, l'écart entre le dernier mois observé et la courbe du cycle moyen au même mois du cycle permet, par une statistique sur les cycles antérieurs, de déterminer les valeurs à attribuer aux mois suivants. Une autre méthode, beaucoup plus récente, puisqu'elle ne date que d'une dizaine d'années, utilise des réseaux neuronaux2. C'est celle que nous avons choisi à l'observatoire de Paris-Meudon. Il s'agit de logiciels d'intelligence artificielle auxquels on impose un apprentissage en leur présentant des données passées et le résultat observé, et qui peuvent ensuite appliquer les coefficients qu'ils ont ainsi déterminés pour prévoir le cycle suivant3.

La comparaison fig. 1 de deux résultats de prédiction de deux réseaux neuronaux et du résultat de la méthode statistique plus classique de McNish et Lincoln pour déterminer le maximum du cycle actuel, rend à première vue optimiste. Françoise Fessant et Xavier Lamming CNET-Lannion prédisent un maximum de 122 atteint en septembre prochain courbe 1. Avec Yann Landrot, notre groupe de l'observatoire de Meudon penche pour un maximum de 112 dépassé depuis avril dernier courbe 2. La méthode de McNish utilisée par le centre de prévision de Boulder Colorado donne un maximum de 133 qui sera atteint en juillet-août courbe 3. L'écart entre les prévisions des deux réseaux de neurones provient de leurs différentes organisations internes. Leur écart avec celle obtenue par la méthode de McNish et Lincoln est lié à l'approche foncièrement différente, non linéaire, utilisée par les réseaux de neurones. Quoi qu'il en soit, toutes ces méthodes montrent que ce cycle n° 23 devrait être d'amplitude moyenne avec un indice maximal de 120 environ, proche de la moyenne 114 des cycles observés depuis 1750. On remarquera qu'en raison de la forme même de la courbe lors du maximum solaire la date exacte de ce maximum est plus difficile à prévoir que son amplitude.

Si ces méthodes donnent grossièrement satisfaction pour les prévisions à quelques mois, il est souvent utile d'estimer l'importance d'un cycle plus longtemps à l'avance. Une méthode, permettant en principe la prévision à très long terme, consiste à rechercher de longues périodes temporelles présentes dans les cycles passés. Peu précise car on connaît mal ces périodes, elle n'est pas utilisée aujourd'hui à des fins opérationnelles. Par contre, il est extrêmement simple de comparer statistiquement, pour les cycles passés, la pente maximale du profil de montée au point d'inflexion de la courbe et le maximum de l'indice des taches, et d'appliquer la loi trouvée au cycle actuel4. Sur la figure 1, le point d'inflexion, qui a eu lieu en 1998, est indiqué. Dès cette année-là, grâce à cette méthode, nous avons pu prévoir un indice maximum de 103 ± 20 point indiqué A.

Cependant, la plus intéressante des prévisions à long terme a été trouvée par un chercheur russe, Aleksandr Ohl, de l'observatoire de Pulkovo près de Saint-Petersbourg. Elle permet de connaître cette amplitude avant même que le cycle ne commence. En effet, dans deux articles de 1968 et 19715, il a montré que l'activité géomagnétique en période de décroissance du cycle et durant le minimum était un précurseur de l'activité des taches du cycle suivant. Au cours des trente années qui ont suivi cette découverte, la méthode a été améliorée par de nombreux auteurs.

Elle a permis de mettre en évidence un concept fondamental, celui du cycle étendu, liant le champ magnétique à grande échelle d'un cycle et le champ magnétique émergeant dans les taches du cycle suivant. Un test systématique sur les cycles passés a montré que cette méthode était généralement très fiable6. Pourtant force est de constater que pour ce cycle-ci elle aura donné, comparée aux résultats de la figure 1, une valeur trop forte maximum de 140 à 170 suivant l'indice géomagnétique et l'époque utilisés. La valeur la plus faible trouvée par ces méthodes est indiquée, avec sa barre d'erreur, par B sur la figure 1. Cette prévision était possible dès la fin de l'année 1996. L'écart trouvé pose un problème scientifique particulièrement intéressant et offrira certainement une possibilité de mieux comprendre ce concept de cycle étendu. Dans le cas de méthodes statistiques comme celle-ci, fondée sur des liens complexes entre le Soleil, le vent solaire et l'environnement magnétique de la Terre, il n'est pas très étonnant que la prévision puisse être quelquefois prise en défaut.
1 A.G. McNish et J.V. Lincoln, Trans. Am. Geophys. Union, 30, 673, 1949.

2 A.J. Conway, New Astron. Reviews, 42, 343, 1998.

3 K. Macpherson, « Proceedings of the International Workshop on Artificial Intelligence Applications in Solar-Terrestrial Physics », Lund University, 1993.

4 P. Lantos, soumis à Solar Physics .

5 A.I. Ohl, Problemy Arktiki i Antarktiki, 28, 137, 1968 et Geomagn. Aeron. 11, 549, 1971.

6 P. Lantos et O. Richard, Solar Physics, 182, 231, 1998.
UNE HISTOIRE DE TACHES
Lorsque Samuel Heinrich Schwabe 1789-1875, astronome amateur et pharmacien à Dessau, ville proche de Leipzig, commence ses observations, en 1825, il se met à la recherche d'une planète située entre Mercure et le Soleil. Il ne la trouvera pas, mais découvrira le cycle solaire, qui le rendra célèbre. Grâce à ses observations régulières des taches solaires sur dix-sept ans, il montre en effet en 1843 l'existence d'un cycle long d'une dizaine d'années. En 1851, la suite de ses observations a confirmé le phénomène et un illustre naturaliste, Alexander von Humboldt, inclut dans son livre, Kosmos, les tables de Schwabe permettant de fixer à onze ans la période du cycle solaire. Prenant le relais, Johann Rudolph Wolf 1816-1896, directeur de l'observatoire de Zurich, définit un indice des taches, compile les observations passées et reconstruit la variation de cet indice depuis 1700, laissant à ses successeurs de l'observatoire de Zurich, puis de l'observatoire de Bruxelles Centre international des indices solaires, le soin de continuer sa collecte d'observations.
SAVOIR
A lire :

-P. Lantos, Le Soleil en face : le Soleil et les relations Soleil-Terre, collection « Culture scientifique », Masson, Paris, 1997.

-D.G. Wentzel, The Restless Sun, Smithsonian Institution Press, Washington DC, 1984.

-P.R. Wilson, Solar and Stellar Activity Cycles, Cambridge University Press, Cambridge, 1994.

-Sur les réseaux neuronaux :

J.-F. Jodouin, Les réseaux neuromimétiques, Editions Hermès, Paris, 1994.


    DOCUMENT       la recherche.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google