ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

GÉNOMIQUE

 


Le vivant à l'heure de la génomique


histoire des sciences - par Jean-Paul Gaudillière dans mensuel n°329 daté mars 2000 à la page 54 (4029 mots) | Gratuit
Si la recherche biologique, l'industrie, l'agriculture et la médecine sont liées depuis un siècle, leurs rapports ont changé d'échelle après 1945. Aujourd'hui, les biologistes moléculaires affirment être à l'origine d'une autre révolution, illustrée par le séquençage du génome humain. Quarante ans après le décryptage du code génétique, s'agit-il d'un nouveau bouleversement des savoirs ou d'une explosion des savoir-faire ?

Au milieu des années 1980, aux Etats-Unis, le monde des sciences biologiques était en pleine ébullition. Des rumeurs annonçaient la mise sur pied d'un vaste projet de recherche sur le génome humain. Celui-ci vit officiellement le jour en 19871. Pour ses promoteurs, l'initiative « Génome humain » était l'équivalent de ce qu'avait été la construction des grands accélérateurs pour la physique des hautes énergies. Il s'agissait de créer une infrastructure permettant de déterminer rapidement l'organisation moléculaire - la séquence - de longs fragments d'ADN et, ainsi, de caractériser la totalité des gènes humains. Le programme génome fournirait les bases de la biologie du XXIe siècle. Dans le cours des discussions, les justifications de l'entreprise glissèrent progressivement des outils chimiques et informatiques de la nouvelle biologie vers les applications des connaissances génétiques, en particulier dans le domaine médical.

Aujourd'hui, alors que l'on s'approche à grands pas du moment où l'objectif le plus direct du projet sera atteint, la génomique est devenue beaucoup plus anodine. Son caractère instrumental s'est estompé. On parle désormais de retour au biologique, d'une recherche moins synonyme de décryptage des séquences d'ADN, d'une nouvelle science du vivant cristallisant dans l'après-génome. Celle-ci serait d'abord marquée par l'acceptation de la complexité du vivant : à l'inverse du réductionnisme initial de la biologie moléculaire, la biologie d'aujourd'hui serait bien une science des systèmes complexes. Au lieu d'une correspondance stricte entre une séquence d'ADN, une protéine et une fonction ou un trait biologique, on observe ainsi des gènes éclatés, remplissant plusieurs fonctions et appartenant à des réseaux de molécules, dont la dynamique rend illusoire toute possibilité de prédiction simple. Dans le même mouvement, la biologie est devenue une science de l'information - une science du virtuel - entretenant des liens de plus en plus étroits avec l'informatique. L'ordinateur est bien entendu l'outil de stockage et d'analyse de grandes quantités de données les banques de séquences de gènes en expansion rapide depuis dix ans ; mais, surtout, la nature des organismes vivants serait de traiter de l'information génétique, constituant ainsi des systèmes que l'on peut modéliser en tant que tels.

La nouveauté de cette biologie fin de siècle tiendrait donc moins à ses dimensions industrielles ou technologiques qu'à l'apparition, à la faveur de la génomique, d'une nouvelle représentation du vivant. Par habitude, les historiens pensent plus facilement aux continuités de l'histoire qu'aux nouveautés radicales. Que nous disent-ils des rapports entre technologies et sciences du vivant ? A lire les travaux qui se sont accumulés sur ce thème, on n'a pas du tout l'impression d'avoir affaire au changement spectaculaire dont nous parlent souvent les gestionnaires de capital-risque et les promoteurs des applications de la génétique moléculaire. La longue durée s'impose davantage : qui niera que les rapports entre recherche biologique, industrie, agriculture et médecine se sont noués lors de la seconde révolution industrielle ?2

Longue durée ne signifie toutefois pas absence de changements. Comme pour les sciences physiques, la Seconde Guerre mondiale est l'un de ces moments où se réorganisent les formes de ces rapports et où ils changent d'échelle. On parle ainsi, pour les Etats-Unis du moins, d'un véritable complexe « bio-médicalo-industriel » caractéristique de la période contemporaine. Le « siècle des biotechnologies » sera peut-être le XXIe siècle, selon la formule de Jeremy Rifkin, mais on peut arguer que la seconde moitié du XXe siècle est, avec la croissance remarquable de l'industrie pharmaceutique, la révolution verte, les manipulations multiformes des enzymes ou des virus, un bon exemple de l'ancienneté relative de cette nouveauté.

Que s'est-il alors passé entre 1970 et 1995 pour justifier la perception d'une révolution biologique ? Notre hypothèse est que le dernier quart du siècle a bien vu des changements importants des sciences biologiques, mais que ceux-ci ont davantage porté sur les pratiques et les modes d'organisation que sur les paradigmes et les visions du vivant. Autrement dit, ce qui justifie que l'on parle d'une « nouvelle biologie », est d'abord une explosion des savoir-faire et des procédés de manipulation de l'ADN. On en trouvera un indice dans le vocabulaire procédural de la génomique et les multiples références aux outils biologiques : clonage, séquençage, hybridation moléculaire, stockage, transgenèse, mutagenèse dirigée, enzymes de restriction, souris knock-out , vecteurs viraux, etc. Cette capacité de manipuler le vivant a des effets techniques, sociaux et cognitifs dont on a encore à peine pris la mesure. Pour discuter de ces combinaisons d'ancien et de nouveau, de leurs rapports au changement des techniques et des façons de faire, attardons-nous sur trois thèmes caractéristiques de la biologie fin de siècle : la métaphore informationnelle, les théories du développement et, parce que les savoirs du pathologique sont au coeur de la génomique, la médecine prédictive. Ceux-ci nous semblent emblématiques des différents niveaux où le vivant se décline comme séquence : les représentations, les pratiques de laboratoire et les applications industrielles.

La littérature génomique, qu'elle soit destinée aux profanes ou aux professionnels, charrie un grand nombre de métaphores et d'images : depuis celle du « livre de l'homme » écrit en langage ADN jusqu'aux références aux théories et à la société de l'information. Une illustration brillante de ces dernières peut être trouvée dans les textes de Richard Dawkins. Avec le succès de son ouvrage Le G ène égoïste , ce dernier a largement contribué à la diffusion d'un corpus dans lequel les organismes sont considérés comme les moyens qu'utilisent les gènes, véritables unités élémentaires de la vie et de la sélection, pour se reproduire et se disséminer3. Dans Le F leuve de la vie , une réécriture de ces thèses plus proche des pratiques de séquençage, Dawkins emploie deux métaphores de l'évolution4. L'une, économique, renvoie à la longue tradition d'échanges entre théories de la sélection naturelle et économie politique. Dawkins cherche l'équivalent de la fonction d'utilité employée par les économistes. Il la trouve : « L a fonction d'utilité de la vie, celle que la nature maximise, est la survie de l'ADN . » La seconde métaphore s'enracine dans les échanges entre biologie moléculaire et électronique. Elle compare l'évolution du vivant à « un fleuve digital », « un fleuve d'ADN ». Celui-ci « ne traverseaucune région géographique ; il coule à travers le temps. C'est un fleuve d'information, non de chair et d'os : un fleuve d'instructions abstraites qui permettent de constituer des corps physiques. L'information passe à travers ces corps et a une incidence sur eux, mais ce passage la laisse intacte . » On aurait tort de traiter ces métaphores par le dédain. Dawkins est loin d'être un scientifique marginal, et il touche à quelque chose d'important, pour le présent et pour le passé récent.

L'idée de l'information biologique écrite en bits d'ADN n'est pas tout à fait neuve. En 1948, le mathématicien Norbert Wiener, qui à l'époque travaillait au Massachusetts Institute of Technology, publiait un petit ouvrage dans lequel il développait cette idée : la cybernétique est une théorie générale de la communication, une théorie des processus de contrôle applicable à la fois aux machines, aux animaux et aux hommes5. On était alors à un moment charnière, à la fois pour le développement des industries électroniques, celui des pratiques industrielles d'automation, et aussi, Seconde Guerre mondiale oblige, pour l'évolution des rapports entre savants et militaires6. Pendant la guerre, Wiener s'était, par exemple, occupé de problèmes de contrôle de tir et avait commencé à modéliser ces questions sous la forme de mécanismes de rétroaction. Ce fut le point de départ de sa réflexion sur l'importance et la généralité des processus de feed-back . Dans Cybernetics , Wiener insiste alors longuement sur la distinction entre l'information au sens des théories de l'information, c'est-à-dire une quantité mesurable en termes de statistique probabiliste, et l'information du sens commun.

Pendant près d'une décennie, la généralisation de ces réflexions fut portée par un groupe dit des cybernéticiens, dans lequel on retrouvait une grande variété de disciplines. Pour ces chercheurs, l'enjeu était moins de formuler une théorie totalement cohérente que d'étendre la validité du concept d'information en le confrontant à des problèmes relevant d'autres champs du savoir : la biologie, sous la forme de la physiologie et de la neurobiologie, mais aussi les sciences sociales. Pour des raisons qui tiennent en partie à la plasticité et à la généralité de ses concepts, cette cybernétique a eu un succès considérable7. A la fin des années 1950, tout un ensemble de biologistes se disant « moléculaires » se mirent par exemple à parler de transferts d'information du gène à la protéine, de feed-back moléculaire, de transcription ou de traduction. Un vocabulaire combinant linguistique, biochimie et théorie de l'information sédimenta alors à partir d'une utilisation sauvage des concepts des cybernéticiens. Pour leurs collègues physiciens, les nouveaux biologistes confondaient allégrement information au sens commun et information au sens statistique. Leur information, celle contenue dans la molécule d'ADN, « codait » pour la protéine mais aussi pour l'organisme. Il y avait donc sans cesse, à la manière de Dawkins aujourd'hui, glissement entre le message quantifié, ce qui se joue autour de la structure de l'ADN et la signification biologique du message, c'est-à-dire la fabrication d'une molécule fonctionnelle pour un organisme donné dans un environnement donné. Du coup, on pouvait penser qu'il ne s'agissait que d'un jeu gratuit avec les images.

La découverte du code génétique, au début des années 1960, est pourtant un bon indice des effets de ces métaphores. Le problème du code avait été mis en forme par des biophysiciens habitués au maniement de l'information quantifiée. Des chercheurs, comme G. Gamow ou A. Kastler, avaient ainsi posé le problème de la synthèse des protéines en termes de transfert d'information : comment assurer la correspondance entre une information génétique stockée dans une séquence formée de la combinaison de quatre lettres les quatre bases de l'ADN d'un gène donné et ce qu'elle code, c'est-à-dire la séquence d'une protéine formée de l'agencement de vingt types différents d'acides aminés ? Durant la première moitié des années 1950, toutes les approches quantifiées et formelles du problème avaient échoué. La solution émergea des manipulations de macromolécules réalisées par des biochimistes comme Marshall Nirenberg et Heinrich Matthaei qui, aux National Institutes of Health, travaillaient sur la synthèse des protéines sans trop se préoccuper des théories du signal. Ils mobilisèrent cependant la rhétorique de l'information pour lire et planifier des expériences par lesquelles ils firent produire des protéines à des ARN de composition connue parce que synthétisés en tubes à essai.

Le vivant comme information est donc aussi ancien que la biologie moléculaire. En plus de cinquante ans, l'image a certes changé de sens et d'usages, mais on peut filer la comparaison entre le présent et le passé récent, c'est-à-dire entre le décryptage du code et celui du génome. On peut en effet se demander si la version présente - digitale - de l'information génétique ne procède pas d'une infrastructure pratique où ne domine plus la biochimie des protéines et des acides nucléiques mais où s'impose la conjonction du génie génétique et de la micro-informatique. Ou encore si la métaphore informationnelle ne continue pas, malgré les proclamations antiréductionnistes et les renvois à la complexité, à canaliser les questions sur les propriétés du vivant au niveau d'une grammaire des agencements de séquences.

De ce point de vue, l'évolution de la biologie du développement constitue un bon terrain d'observation. La biologie moléculaire des années 1960 et 1970 avait rêvé d'écrire une nouvelle théorie du développement centrée sur les gènes, leurs changements d'activité dans le temps et la notion de programme inscrit dans la structure des chromosomes. François Jacob écrivait ainsi dans La Logiquedu vivant : « Au coursdu développement embryonnaire sont progressivement traduites et exécutées les instructions qui, contenues dans les chromosomes de l'oeuf, déterminent quand et où se forment les milliers d'espèces moléculaires constituant le corps de l'adulte. Tout le plan de croissance, toute la série des opérations à effectuer, l'ordre et le lieu des synthèses, leur coordination, tout cela est inscrit dans le message nucléique .8 » Certains considèrent aujourd'hui que le rêve est en train de devenir réalité : toute une série de gènes impliqués dans telle ou telle étape de la différenciation cellulaire n'ont-ils pas été décrits ? Et, surtout, de nouvelles catégories de gènes - des gènes « maîtres » comme les gènes homéotiques de la mouche ou de la souris - contrôlant la formation d'organes entiers n'ont-ils pas été identifiés9 ? Leurs effets sont décrits en termes de réseaux de macromolécules, de gènes régulant l'activité d'autres gènes, d'interactions entre de multiples protéines circulant au sein et entre les cellules de l'embryon.

Observées avec le regard de l'historien, ces théories du développement appellent deux remarques. La première est que l'identification et le séquençage des « gènes du développement » sont le produit de l'extension de procédures caractéristiques de la cartographie génétique, désormais relayées ou soutenues par la capacité à synthétiser et à transférer l'ADN. La seconde remarque est que ces réseaux qualifiés d'épigénétiques révèlent un conflit classique entre perception de la complexité et réductionnisme des outils d'intervention.

Une image emblématique de cette nouvelle biologie du développement consiste en la mise en correspondance des noms de séquences de gènes, des positions sur un segment de droite symbolisant le chromosome et d'un dessin d'organisme sur lequel sont indiqués les zones et les organes dérivant de cellules où ces séquences sont activées voir figure ci-dessus. On trouve dans les textes de génétique classique des ancêtres de ce type de représentation où les facteurs héréditaires associés à telle ou telle modification morphologique couleur des yeux, forme des pattes, etc. sont alignés sur une carte chromosomique.

En écrivant l'histoire du groupe de Thomas Hunt Morgan au California Institute of Technology, l'historien Robert Kohler a montré en quoi cette représentation trouve ses racines dans un système original d'expérimentation centré sur l'obtention, la conservation, et le croisement de mutants de la mouche du vinaigre la drosophile10. Cette idée serait une banalité revenant à dire que toute expérience nécessite des moyens si Kohler n'analysait pas dans son livre toute la gamme des technologies constitutives de ce qu'il appelle un « système de production » : des technologies sociales le réseau d'échanges et les valeurs de la communauté des drosophilistes, matérielles les nouvelles souches sélectionnées pour faire de la cartographie et littéraires les tableaux visualisant bons et mauvais mutants.

On souhaiterait une analyse similaire des pratiques contemporaines. Pour décrire le « système de production » dans lequel s'inscrit l'image des gènes homéotiques et de leurs effets, il faudrait alors parler des sondes moléculaires servant à repérer les produits de l'activité des séquences, des photographies d'embryons obtenues à partir de l'utilisation de ces sondes, des souris knock-out élaborées à partir de l'injection de macromolécules susceptibles de modifier un gène de développement, des machines à séquencer et des ordinateurs qui ont permis de construire les équivalences entre un gène de souris et un gène de drosophile. Il faudrait aussi intégrer les banques de données permettant de partir « à la pêche » de séquences qui, présentant des similitudes avec celles des gènes du développement, sont décrites dans d'autres organismes ou en relation avec des phénomènes physiologiques n'ayant rien à voir avec l'embryogenèse.

La contrepartie théorique de ce système de production n'est évidemment pas tout à fait la même que le dogme des années 1960, même si le présent n'est pas loin du programme tracé par F. Jacob. Ici comme dans de nombreux domaines, y compris certaines sciences sociales, le concept de réseau a cependant pris le dessus. On en trouvera l'illustration dans les résultats de l'enquête réalisée en 1994 par la revue Science auprès de cent éminents biologistes du développement. Ces chercheurs étaient interrogés sur leur perception du domaine et les voies par lesquelles ils pensaient arriver à une explication du développement. La revue les avait laissés libres de classer d'une part les problèmes les plus importants et d'autre part ceux pour lesquels ils prévoyaient des avancées décisives dans les cinq prochaines années. Dans les deux catégories, les communications moléculaires entre cellules, le contrôle de la différenciation par des protéines contrôlant l'activité des gènes et les systèmes d'interactions entre ces macromolécules comptaient parmi les premières priorités11.

Cette biologie des réseaux, ainsi que les modélisations qui la soutiennent, suscite de nombreuses interrogations12. Pour certains, la dynamique globale des réseaux serait un leurre antiréductionniste : les seules interactions qui comptent résultent de contacts directs et il peut difficilement y avoir plus de trois ou quatre molécules impliquées. La prégnance de la notion de gène maître et des manipulations visant, en pratique, à établir une correspondance directe entre un gène et la formation d'un organe serait simplement le reflet de cette réalité. Dans ce cas, les biologistes du développement seraient dans une situation analogue à ce qu'ont vécu les biochimistes il y a quarante ans, lorsqu'on commençait à détailler les régulations métaboliques, ou les microbiologistes il y a près d'un siècle, lorsqu'on bataillait avec la variabilité des « espèces » bactériennes : ils rêvent de complexité tout en étant soumis aux impératifs réductionnistes de la manipulation efficace. D'autres considèrent, à l'inverse, que le raffinement des pratiques de modélisation permettra à court terme des ruptures qualitatives. On s'acheminerait ainsi vers une biologie « virtuelle » où la construction des organismes, le criblage des banques de séquences, les expériences où l'on laisse « tourner » un logiciel prendront une place croissante. Autrement dit, les nouvelles technologies de traitement de l'information sauveront les réseaux et, avec eux, l'innovation radicale. Quel que soit le scénario final, la dimension instrumentale apparaîtra sans doute comme cruciale. C'est déjà le cas pour d'autres domaines d'usage des séquences, en médecine notamment.

Lorsque l'on parle des conséquences des programmes génomes, de leur impact sur la vie humaine et l'industrie, la question de « l'ADN médicament » et les recherches sur la thérapie génique viennent au premier plan. Tout le problème de cette dernière est toutefois, comme l'ont récemment souligné de multiples rapports et avis, d'être encore loin de permettre d'agir sur les corps pour améliorer l'état de patients. Pourtant, force est de constater que la génomique a déjà transformé la nature des rapports entre génétique et médecine avec l'irruption de nouvelles pratiques de dépistage, centrées sur la notion de prédispositions génétiques à telle ou telle maladie. Le cancer du sein est un domaine emblématique de ces évolutions.

L'idée d'une transmission intrafamiliale de facteurs jouant un rôle dans l'apparition des cancers du sein est ancienne13. Elle était classiquement associée à la présentation d'arbres généalogiques de familles marquées par une accumulation de ce type de maladie. Après la guerre, la question était toutefois tombée dans l'oubli : les facteurs mendéliens responsables de ces concentrations familiales se révélaient trop difficiles à identifier, et, de plus, les modèles animaux suggéraient que des virus étaient responsables de cette forme de cancérogenèse. Les « gènes du cancer du sein » resurgirent donc lentement, non pas dans le cadre de la pathologie expérimentale mais dans celui de l'épidémiologie statistique.

Les programmes génome ont ensuite changé la nature des enquêtes sur les facteurs de risque du cancer du sein en faisant de cette pathologie un problème de molécules. A partir du milieu des années 1980, quelques généticiens ont ainsi commencé à collecter de l'ADN de familles « prédisposées » et à utiliser les outils de la cartographie moléculaire pour rechercher des gènes « du » cancer du sein. En 1989, un groupe californien dirigé par Mary Clair King annonçait avoir localisé sur le chromosome 17 un gène associé à une très forte probabilité de l'ordre de 90 % d'apparition d'un cancer du sein avant l'âge de 50 ans. En 1994, ce gène BRCA 1 était cloné et séquencé par un consortium de recherche associant la firme pharmaceutique Eli Lily, l'université d'Utah et Myriad Genetics, une petite compagnie de biotechnologie créée par Mark Skolnick, un chercheur de cette dernière université. Deux ans plus tard, un second gène BRCA 2 était cloné par un autre consortium, international celui-là, dominé par des laboratoires britanniques.

L'histoire et les activités de Myriad Genetics sont caractéristiques d'un cadre de développement de la médecine prédictive que l'on peut prendre pour exemple des liens entre génomique fin de siècle et réorganisation du système de recherche14. L'identification des deux gènes a rendu possible une pratique de dépistage génétique fondée sur la recherche de mutations dans BRCA1 et BRCA2. Initialement menée dans le contexte de la recherche, en lien avec la collecte des familles, cette activité de médecine prédictive a pris de l'ampleur avec Myriad, aujourd'hui en position dominante. Pourquoi ?

Myriad Genetics doit son avance dans la course au clonage de BRCA1 à une base de connaissances à l'université d'Utah, et à un accès privilégié aux généalogies des familles de Mormons et au registre du cancer de l'Utah. Cela a permis à la firme d'obtenir un brevet sur la séquence de BRCA1 couvrant tous les usages industriels imaginables de ce gène. Par la suite, Myriad réussit à racheter une licence exclusive du brevet qui protégeait les usages de BRCA2 et était détenue par une start-up concurrente Oncormed. Cette appropriation des gènes de prédisposition au cancer de sein serait toutefois de peu d'utilité sans l'infrastructure technique pour en tirer profit. Les accords passés avec l'industrie pharmaceutique ont réparti les innovations potentielles en deux catégories : Myriad vendait celles portant sur l'invention de thérapies, c'est-à-dire nécessitant des processus longs et coûteux, et se réservait la propriété de celles touchant au diagnostic génétique. Le marché du test a en effet l'avantage de permettre des retours sur investissements rapides et plus sûrs que ceux du médicament.

A partir de 1996, les dirigeants de Myriad entreprirent de profiter de leurs succès en construisant une plate-forme de séquençage faisant largement appel à l'informatique et à l'automation : ils se proposaient ainsi de réaliser dans cette « usine à tests » la recherche de mutations dans les gènes BRCA pour toutes les patientes qui en feraient la demande. Celles-ci devaient seulement envoyer à Salt Lake City, après avis médical, un prélèvement sanguin permettant l'extraction d'ADN et payer - ou faire prendre en charge - quelque deux mille dollars. Cette offre d'accès direct, contournant les centres anticancéreux, était complétée par la signature d'accords avec les organismes appelés Health Management Organization, qui jouent un rôle croissant dans la fourniture de soins aux Etats-Unis et sont, pour des raisons de gestion prévisionnelle, évidemment intéressés à connaître la population et/ou les personnes prédisposées.

Chemin faisant, l'image de la maladie a sensiblement évolué. Dans la classification présente des cancers du sein, les formes familiales ne représentent que 5 % des cas environ. Cependant la manipulation des séquences BRCA et le développement d'un marché spécifique du test ont considérablement renforcé la culture du risque génétique et la notion de prédisposition, y compris pour les formes non familiales. Les questions de normes d'accès aux tests, de l'organisation des consultations, des modalités de gestion du risque génétique, en particulier des possibilités d'une prévention au-delà de la seule pratique des examens radiographiques réguliers, sont désormais au coeur des discussions publiques sur cette pathologie. Aux Etats-Unis, on assiste ainsi à la juxtaposition de phénomènes contradictoires. Tandis qu'un nombre important de mastectomies préventives sont pratiquées après dépistage de mutations dans BRCA1 ou BRCA2, certains oncologues affichent publiquement leurs craintes quant aux effets de l'autonomisation du marché de la prédiction et s'adressent à l'Etat fédéral pour qu'il régule plus strictement l'introduction des tests génétiques.

En résumé, parler d'une nouvelle biologie pour décrire les changements récents des sciences du vivant et les effets de la recherche génomique est certainement excessif. La longue durée des biotechnologies ou de la génétique est facilement visible à l'arrière-plan de la montée en puissance de la biologie de l'information. Plutôt que des ruptures fondamentales dans les façons de voir le vivant qui sont celles de la biologie moléculaire depuis trente ou quarante ans, la génomique fin de siècle met en lumière deux types d'évolutions. D'une part celle des savoir-faire et des outils avec le développement des technologies de l'ADN et leur couplage à l'informatique. D'autre part, celle des modes d'organisation de la recherche avec une biologie souvent produite au plus près des usages et, parfois, au coeur même des marchés.

Par Jean-Paul Gaudillière

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
 

UN ORGANISME UNICELLULAIRE CAPABLE D'APPRENDRE

 

Paris, 27 avril 2016
Un organisme unicellulaire capable d'apprendre

Pour la première fois, des chercheurs viennent de démontrer qu'un organisme dépourvu de système nerveux est capable d'apprentissage. Une équipe du Centre de recherches sur la cognition animale (CNRS/Université Toulouse III – Paul Sabatier) a réussi à démontrer qu'un organisme unicellulaire, le protiste Physarum polycephalum, est capable d'une forme d'apprentissage nommée habituation. Cette découverte permet d'éclairer l'origine de la capacité d'apprentissage durant l'évolution, avant même l'apparition du système nerveux et du cerveau. Elle pourrait également amener à s'interroger sur la capacité d'apprentissage d'autres organismes extrêmement simples comme les virus et les bactéries. Ces résultats sont publiés dans la revue Proceedings of the Royal Society B le 27 avril 2016.
La capacité d'apprentissage et la mémoire sont des éléments clés dans le monde animal. Tirer des leçons de ses expériences et adapter son comportement en conséquence est vital pour un animal qui vit dans un environnement fluctuant et potentiellement dangereux. Cette faculté est généralement considérée comme l'apanage d'organismes dotés d'un cerveau et d'un système nerveux. Pourtant les organismes unicellulaires doivent eux aussi s'adapter au changement. Manifestent-ils des capacités d'apprentissage ? Des bactéries ont certes une faculté d'adaptation, mais elle se produit sur plusieurs générations et relève donc plutôt de l'évolution. Une équipe de biologistes a donc cherché à apporter la preuve qu'un organisme unicellulaire pouvait apprendre. Ils ont choisi d'étudier le protiste Physarum polycephalum, une cellule géante qui vit dans les sous-bois1 et fait preuve d'étonnantes aptitudes, telles résoudre un labyrinthe, éviter des pièges ou optimiser sa nutrition2. Mais on savait très peu de choses jusqu'à présent sur sa capacité d'apprentissage.

Lors d'une expérience de neuf jours, les scientifiques ont donc confronté différents groupes de ce protiste à des substances amères mais inoffensives, qu'ils devaient traverser afin d'atteindre une source de nourriture. Un groupe était ainsi confronté à un « pont » imprégné de quinine, un autre à un pont de caféine tandis qu'un groupe témoin devait simplement passer sur un pont non imprégné. Au tout début réticents à franchir les substances amères, les protistes ont appris au fur et à mesure des jours qu'elles étaient inoffensives et les ont traversées de plus en plus rapidement, se comportant au bout de six jours de la même façon que le groupe témoin. La cellule a donc appris à ne plus craindre une substance inoffensive après y avoir été confrontée à plusieurs reprises, un phénomène que les scientifiques nomment habituation. Au bout de deux jours sans contact avec la substance amère, le protiste retrouve son comportement initial de méfiance. Par ailleurs, un protiste habitué à la caféine manifeste un comportement de défiance vis-à-vis de la quinine, et inversement. L'habituation est donc bien spécifique à une substance donnée.

L'habituation est une forme d'apprentissage rudimentaire qui a été caractérisée chez l'aplysie (un invertébré aussi appelé lièvre de mer)3. Cette forme d'apprentissage existe chez tous les animaux, mais n'avait encore jamais été trouvée chez un organisme dépourvu de système nerveux. Cette découverte chez un protiste, lointain cousin des plantes, champignons et animaux, apparu sur Terre environ 500 millions d'années avant l'homme, permet de mieux comprendre les origines de l'apprentissage, qui précède de loin celles des systèmes nerveux. Elle ouvre également la possibilité de rechercher des types d'apprentissage chez d'autres organismes très simples comme les virus ou les bactéries.

 

 DOCUMENT         cnrs        LIEN 

 
 
 
 

MÉMOIRE ET ÉMOTION

 


Privée d'émotions, la mémoire flanche


la mémoire et l'oubli - par Martine Meunier dans mensuel n°344 daté juillet 2001 à la page 82 (1969 mots)
Emotions et souvenirs se forment dans la même partie du cerveau. Mais l'impact de cette découverte a été négligé durant le XXe siècle. Leurs relations commencent seulement à être étudiées grâce à l'émergence des neurosciences affectives.

Nos émotions jouent un rôle essentiel dans notre mémoire autobiographique. Mais l'étude des mécanismes cérébraux qui les gouvernent a longtemps été négligée par les neurosciences. Toute émotion affecte simultanément notre corps, notre comportement, nos sentiments et notre mémoire. Autant d'aspects difficiles à mesurer objectivement et à évaluer simultanément. Face à une même situation, les réponses émotionnelles varient en fonction de l'individu, de son tempérament et de son environnement physique et social. Une versatilité qui complique encore leur évaluation.

A la fin du XIXe siècle, Sigmund Freud attribuait pourtant aux émotions une influence déterminante dans le développement des individus. Le psychologue William James soulignait déjà leur importance pour le bon fonctionnement de la mémoire . « Se souvenir de tout serait aussi fâcheux que ne se souvenir de rien », insistait-il. Le cerveau doit effectuer une sélection. Il le fait en fonction de la valeur affective qu'un événement revêt pour nous. Tout au long du XXe siècle, les émotions ont conservé une place centrale au sein de la psychologie. En revanche, la compréhension de leur organisation cérébrale ne s'est imposée comme un enjeu majeur pour les neurosciences qu'au cours de ces dernières années. Cette lente évolution est bien illustrée par l'histoire de nos connaissances de deux régions présentes dans chaque hémisphère du cerveau, les lobes frontal* et temporal*. Découverte vers le milieu du XIXe siècle, leur importance pour les émotions n'a longtemps suscité qu'un intérêt marginal. A l'opposé, leur implication dans la mémoire, identifiée plus tard, a immédiatement suscité un nombre considérable de travaux.

Dès 1848, John Harlow, médecin d'une petite ville de l'Est américain, décrivait le cas spectaculaire de Phineas Gage voir l'encadré : « Comment la barre de Phineas Gage révéla le rôle du lobe frontal » et remarquait le rôle des lobes frontaux dans le contrôle des émotions. Mais la localisation cérébrale des fonctions mentales, idée largement acceptée aujourd'hui, suscitait alors de vives controverses. Elle ne s'imposera lentement qu'après la démonstration, dans les années 1860-1870, du rôle de certaines aires de l'hémisphère gauche dans le langage. En 1848, le cas de Phineas Gage fut donc plutôt perçu comme un encouragement pour la neurochirurgie balbutiante du moment. Il s'avérait en effet possible d'ôter une grosse portion du cerveau en cas de tumeur par exemple sans provoquer la mort, ni altérer aucune des fonctions psychologiques « majeures », perception, motricité, langage, intelligence, ou mémoire. Dans les décennies qui suivirent, la neurochirurgie fit d'énormes progrès, aidée, paradoxalement, par la Première Guerre mondiale et ses nombreux blessés. Le cas de Phineas Gage ne fut plus guère évoqué dans la littérature médicale. Le lobe frontal fascinait les chercheurs de la première moitié du XXe siècle, mais en tant que siège des fonctions intellectuelles « supérieures » spécifiques aux primates. Cette région du cerveau est en effet si développée chez l'homme qu'elle occupe à elle seule un tiers du cortex.

Lobotomies frontales. Lors du 2e Congrès international de neurologie, à Londres, en 1935, le neuropsychologue Carlyle Jacobsen et le neurochirurgien John Fulton présentèrent leurs travaux sur les effets d'une ablation des lobes frontaux chez des chimpanzés. Placées face à deux coupelles identiques, les deux femelles opérées, Becky et Lucy, étaient incapables de retrouver laquelle dissimulait une friandise, bien que la récompense ait été cachée sous leurs yeux quelques secondes auparavant seulement. Cette étude pionnière ouvrit la voie vers la compréhension des relations entre lobe frontal et mémoire. Jacobsen et Fulton mentionnèrent également des changements surprenants de comportement chez les animaux opérés. Lucy, à l'origine calme et tempérée, devint plus coléreuse et violente. A l'inverse, Becky, irascible avant l'opération, semblait d'une indéfectible bonne humeur après. Bien qu'apportant une nouvelle preuve du lien entre lobe frontal et émotions, ces anecdotes eurent peu de répercussions sur la recherche fondamentale. Le cas de Becky eut, en revanche, une conséquence inattendue en psychiatrie. Le neurologue portugais Egas Moniz allait, dès son retour du congrès de Londres, pratiquer des lobotomies frontales chez des patients psychotiques. Ainsi naquit la psychochirurgie, thérapeutique audacieuse consistant à ôter une partie du cerveau pour traiter les maladies mentales.

En dépit de ses effets secondaires, ce traitement radical allait rapidement être appliqué à des milliers de patients dans le monde entier. Et même valoir un prix Nobel à Moniz en 1949, avant que son usage abusif ne lui fasse une sinistre réputation, et que l'arrivée des neuroleptiques dans les années 1950 ne le rende obsolète1. Le cortex préfrontal ou partie avant du lobe frontal, celle qui fut touchée chez Gage, cible des lobotomies, allait cependant rester la structure la moins bien connue du cerveau jusque dans les années 1970 ! Les nombreux travaux suscités par les déficits d'apprentissage rapportés par Jacobsen et Fulton établiront seulement après cette date le rôle de la partie latérale du cortex préfrontal dans la mémoire de travail, celle qui nous permet de garder en tête une information, un numéro de téléphone par exemple, juste le temps de l'utiliser.

Inadaptation émotionnelle. En ce qui concerne les lobes temporaux, les premiers indices de leur implication dans les émotions remontent à des observations faites en 1888. Mais ils tombèrent dans l'oubli jusqu'à la découverte du psychologue Heinrich Klüver et du neurologue Paul Bucy de l'université de Chicago en 1938. Etudiant des singes porteurs de lésions des lobes temporaux, ces auteurs furent surpris par les comportements émotionnels inadaptés de ces animaux. Ils approchaient, manipulaient ou portaient à la bouche, de façon compulsive, tout ce qu'on leur présentait. Ils paraissaient également ne plus ressentir aucune peur, même face à un serpent. Une attitude qui leur aurait été fatale dans leur milieu naturel. En 1956, on établit que ce syndrome, dit de Klüver et Bucy, est principalement dû à l'atteinte de la région antérieure de la partie médiane du lobe temporal, celle qui contient l'amygdale2, une petite structure en amande. On ne s'interrogera plus guère ensuite sur les fonctions exactes des lobes temporaux pour les émotions. Car commence alors la saga, toujours d'actualité, de leurs relations avec la mémoire.

En 1957 et 1958, la psychologue Brenda Milner de l'institut neurologique de Montréal décrit les cas dramatiques de patients devenus amnésiques à la suite d'une ablation chirurgicale de l'un ou des deux lobes temporaux. Elle a observé cet effet inattendu chez quatre patients, deux parmi les trente opérés par William Scoville aux Etats-Unis, et à nouveau deux parmi plus de quatre-vingt-dix patients opérés par Wilder Penfield au Canada. La postérité retiendra l'un d'entre eux, qui deviendra célèbre sous les initiales H.M. Une large partie de nos connaissances actuelles sur l'organisation cérébrale de la mémoire repose sur lui. En 1953, ce jeune homme de 27 ans subit une ablation des deux lobes temporaux pour ôter le foyer d'une épilepsie très invalidante et rebelle à tout traitement médicamenteux. L'opération soulagea l'épilepsie. Mais elle provoqua une amnésie profonde qui perdure aujourd'hui.

Hippocampe. Depuis près de cinquante ans maintenant, H.M. oublie au fur et à mesure tous les événements de sa vie quotidienne. Or sa lésion, contrairement à celle de la plupart des patients opérés en même temps que lui, s'étendait au point d'inclure non seulement l'amygdale, mais aussi une large portion de l'hippocampe. Ainsi découvrait-on que l'hippocampe, dont la fonction était jusqu'alors inconnue, était en fait nécessaire pour la formation des souvenirs nouveaux. Cette découverte allait motiver un nombre considérable de travaux expérimentaux. Un intense effort qui a abouti aujourd'hui à une remarquable connaissance des bases cérébrales de la mémoire épisodique et sémantique, celles, respectivement, des événements personnellement vécus et des connaissances générales sur le monde.

En revanche, H.M. n'a jamais été l'objet d'une évaluation approfondie sur le plan émotionnel. Seules quelques anecdotes ont été rapportées à son sujet qui suggèrent un appauvrissement émotionnel, différent mais néanmoins proche de celui des singes de Klüver et Bucy, après le même type de lésion. En dehors de quelques accès d'irritabilité, H.M. a en effet été décrit d'une humeur étonnamment placide, parlant sur un ton monotone, et témoignant d'une résistance inhabituelle à la douleur, la faim ou la fatigue.

Les émotions sont aujourd'hui l'objet d'un intérêt grandissant en neurosciences, comme en témoigne la croissance exponentielle des publications dans ce domaine depuis la fin des années 1990. Ce rebondissement s'explique par la convergence d'au moins trois facteurs. En premier lieu, l'essor des neurosciences cognitives, tout au long du XXe siècle, a considérablement accru notre savoir sur le cerveau, fournissant ainsi les bases indispensables pour aborder la complexité des phénomènes affectifs. En second lieu, des perspectives entièrement nouvelles ont émergé grâce à de récents progrès techniques. Notamment, l'imagerie fonctionnelle nous donne aujourd'hui la possibilité de voir le cerveau humain normal en action, alors qu'autrefois nous devions nous contenter des indices fournis par le cerveau lésé. Enfin, plusieurs chercheurs contemporains, ouvrant la voie des neurosciences affectives, ont su réactualiser l'idée ancienne selon laquelle les émotions sont en réalité la cheville ouvrière du bon fonctionnement de nombre de nos facultés, adaptation sociale, raisonnement, prise de décision, ou mémoire. Les neurosciences affectives offrent déjà un aperçu des mécanismes cérébraux qui gouvernent l'influence des émotions sur la mémoire.

Les travaux actuels concernent principalement les deux amygdales situées chacune à l'avant de la partie médiane du lobe temporal. Chez le rat, différentes équipes dont celles de Michael Davis à Yale et de Joseph LeDoux à New York, ont réussi à démonter la machinerie complexe qui contrôle les peurs conditionnées3. Il s'agit de ce phénomène, commun à nombre d'espèces, de l'escargot de mer à l'homme, par lequel un stimulus neutre associé à un événement désagréable acquiert ensuite le pouvoir de déclencher à lui seul une réaction de peur. Parmi les différents noyaux composant l'amygdale, le noyau latéral reçoit des informations des régions sensorielles comme le cortex visuel. Il les transmet au noyau central relié aux centres cérébraux qui déclenchent les réactions dites autonomes, comme l'accélération du rythme cardiaque. Ce circuit assure l'apprentissage des peurs conditionnées. Il influence des structures voisines comme l'hippocampe qui restituent les souvenirs liés à ces peurs.

Imagerie fonctionnelle. Les expériences chez le rongeur ont ouvert la voie à l'exploration du comportement plus riche des primates. Chez le singe, la destruction sélective des seules cellules des amygdales suffit à perturber l'utilisation de l'ensemble du savoir émotionnel et social des animaux4. Chez l'homme, leur importance pour la mémoire émotionnelle a été particulièrement bien démontrée par une étude utilisant l'imagerie fonctionnelle par TEP5 Tomographie par émission de positons, voir l'article de Francis Eustache. Le neuropsychologue Larry Cahill et ses collègues de l'université de Californie ont mesuré l'activité du cerveau de huit volontaires pendant qu'ils regardaient des documentaires relatant soit des événements neutres, soit des images très négatives de crimes violents, par exemple. Trois semaines plus tard, les sujets se souvenaient beaucoup mieux des films négatifs que des films neutres, reflétant l'amélioration de la mémoire par les émotions. Mais le résultat important était le suivant : plus l'amygdale située du côté droit du cerveau avait été active pendant la présentation des films, meilleurs étaient les souvenirs des films négatifs. A l'inverse, l'activité de cette amygdale ne prédisait en rien la qualité des souvenirs pour les films neutres. Cette étude fournit donc la preuve d'un lien entre l'activité de l'amygdale droite pendant l'encodage d'informations riches en émotions et leur rétention ultérieure.

En accord avec cette conclusion, les patients dont l'amygdale a été endommagée présentent une mémoire correcte mais insensible à l'effet accélérateur des émotions. A l'inverse, cet effet reste présent chez les amnésiques dont l'amygdale est intacte, ainsi que chez les personnes atteintes de la maladie d'Alzheimer. Ces patients oublient moins les événements à forte connotation émotionnelle que les autres. Une découverte qui pourrait se révéler utile pour améliorer le soutien quotidien apporté à ces malades.

Par Martine Meunier

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

NAISSANCE DES NEURONES ...

 


Naissance des neurones et mort d'un dogme


neurones à volonté - par Heather Cameron dans mensuel n°329 daté mars 2000 à la page 29 (4155 mots) | Gratuit
En quelques années, plusieurs découvertes se sont succédé qui confirment ce qui était autrefois une hérésie : des neurones continuent à naître dans le cerveau adulte des mammifères, y compris l'homme, et ce tout au long de la vie. Des perspectives thérapeutiques révolutionnaires s'ouvrent à nous. Mais de nombreux points restent à éclaircir, et notamment la relation qu'entretient cette neurogenèse avec la mémoire.

On estime généralement que tous les neurones de notre cerveau sont présents dès la naissance. Ce fait est considéré comme une caractéristique essentielle du cerveau des mammifères, et il a plusieurs conséquences importantes ; ainsi, tous les processus d'apprentissage à l'âge adulte s'organisent dans le cadre d'un cerveau anatomiquement stable, et toute mort de neurones à la suite d'une lésion ou d'une maladie entraîne un déficit permanent. Mais nous savons maintenant que ce dogme n'est pas parfaitement exact. Certains types de neurones continuent à être produits tout au long de la vie chez toutes les espèces de mammifères étudiées, y compris l'homme. L'existence de cette neurogenèse la production de nouveaux neurones pourrait modifier les théories du fonctionnement cérébral. Sa compréhension et sa maîtrise permettraient le développement d'outils thérapeutiques exceptionnels pour le traitement des lésions cérébrales ou des maladies neurodégénératives, entre autres.

La vision du cerveau adulte comme un organe anatomiquement stable trouve probablement son origine dans la différence de plasticité entre les cerveaux d'enfant et d'adulte, c'est-à-dire leurs capacités différentes à se modifier en réponse à des perturbations de l'environnement. Cliniquement, on sait depuis longtemps que le cerveau humain en développement, pendant l'enfance, se révèle beaucoup plus capable que le cerveau adulte de récupérer après une lésion. Expérimentalement, on avait constaté que les hormones ont sur le cerveau et sur le comportement des effets anatomiques permanents - des effets dits d'organisation - lorsque l'exposition a lieu pendant le développement, alors qu'elles n'exercent à l'âge adulte qu'une action réversible. Un phénomène similaire avait été observé dans le système visuel : si les signaux visuels reçus pendant la période de développement sont anormaux, le système visuel cérébral est altéré de manière définitive, alors que ces anomalies des stimuli visuels n'ont pas d'effet durable à l'âge adulte. Cette phase du développement caractérisée par une grande plasticité anatomique et comportementale est appelée période critique. Les études sur la prolifération cellulaire confortèrent cette idée d'une différence radicale entre le cerveau en développement et le cerveau adulte : il était facile d'observer des neurones en division dans le cerveau embryonnaire ou à la période postnatale précoce, mais il était extrêmement difficile d'en trouver à l'âge adulte. De plus, on pensait, sur la base de critères morphologiques, que les cellules en division que l'on parvenait à découvrir étaient des précurseurs de cellules gliales* et non de neurones.

Cette différence - qualitative en apparence - de plasticité entre le cerveau en développement et le cerveau adulte a été introduite dans les théories sur le fonctionnement du cerveau. Alors que la capacité à réparer les lésions par la régénération des cellules perdues semble comporter d'énormes avantages et que le phénomène s'observe dans de nombreux tissus, il devait exister une raison extrêmement importante pour que les neurones cérébraux ne se renouvellent pas. Les théories sur la nécessité de la stabilité du cerveau pour que les pensées et les souvenirs puissent se conserver sur toute la durée de vie se fondent sur cette idée que les neurones du cerveau adulte ne se renouvellent pas ; à l'inverse, ces théories ont renforcé la conviction selon laquelle le cerveau adulte est structurellement stable1.

C'est dans les années 1960 que l'on s'aperçut pour la première fois que de nouveaux neurones apparaissent dans le cerveau des mammifères adultes. Cette découverte est due à Joseph Altman, qui s'intéressait alors à la prolifération cellulaire induite par des lésions, dans le cerveau du rat. A l'époque, on pensait que, dans le système nerveux, seules les cellules gliales pouvaient se régénérer. Ainsi, après une lésion du cerveau, on peut observer « une cicatrice gliale ». Comme une cicatrice sur la peau, elle est due à la régénération de cellules, en l'occurrence des astrocytes*. Cependant, outre ce renouvellement glial, Altman observa d'autres cellules nouvelles qui ressemblaient davantage à des neurones. Cette observation était très surprenante car elle contredisait la théorie en vigueur depuis des dizaines d'années et selon laquelle les neurones ne sont produits que pendant une période limitée du développement.

C'est par une caractérisation morphologique que les nouvelles cellules furent identifiées comme neurones. Ceux-ci sont en effet plutôt plus volumineux que les cellules gliales, et apparaissent plus clairs qu'elles avec les colorants classiques. Ce type d'argument, bien qu'évocateur, n'est pas considéré comme concluant, surtout lorsqu'il s'agit d'une question aussi controversée que la neurogenèse chez l'adulte. Pourtant, il y avait effectivement naissance de nouveaux neurones dans le cerveau des mammifères adultes. C'était seulement difficile à prouver. Vers la fin des années 1970 et dans les années 1980, les chercheurs purent montrer que des cellules nées dans le cerveau du rat adulte possédaient des synapses, ces connexions spécialisées qui n'existent qu'entre neurones. C'était la preuve de la naissance de nouveaux neurones, mais la technique de recherche des synapses sur les cellules nouvellement apparues prenait un temps considérable, et le nombre de nouveaux neurones identifiés était extrêmement faible, à peine deux ou trois cellules par cerveau. Du coup, il était facile de considérer la neurogenèse chez l'adulte comme un phénomène négligeable, peut-être un processus ancestral hérité du cerveau des lézards ou des oiseaux, chez lesquels la neurogenèse à l'âge adulte est relativement abondante. Ces dernières années, néanmoins, les techniques immunohistochimiques ont révolutionné de nombreux domaines de la biologie. Elles permettent l'identification de centaines de types cellulaires, y compris les neurones et les cellules gliales, en fonction des protéines particulières qu'ils expriment, au moyen d'anticorps auxquels sont fixés un marqueur visible, par exemple une molécule fluorescente. Avec des marqueurs spécifiques, on a pu observer au début des années 1990 de très nombreux neurones nouveau-nés dans le cerveau adulte. Cette technique a permis une analyse quantitative du nombre de ces nouveaux neurones, et on a ainsi pu étudier les modifications de la production neuronale en réponse à divers traitements expérimentaux.

Nier la neurogenèse devenait impossible. Depuis, elle a été décrite chez toutes les espèces de mammifères étudiées, et notamment chez le rat, la souris, la musaraigne, les primates du Nouveau Monde et ceux de l'Ancien Monde, dont l'homme2, 3. Il apparaît également que cette neurogenèse concerne des zones cérébrales plus étendues qu'on ne le pensait encore très récemment. En effet, on crut tout d'abord que les seuls neurones dotés de cette capacité de renouvellement étaient les cellules granulaires ou simplement « grains » du bulbe olfactif et de la région du g yrus dentatus ou corps godronné de l'hippocampe p. 33. Mais Elizabeth Gould, de l'université de Princeton, a mis en évidence dans un article publié en octobre dernier une production de nouveaux neurones dans certaines régions précises du cortex des primates4. Cette découverte est extrêmement intéressante, non seulement parce que le cortex intervient dans les processus cognitifs dits de haut niveau, bien développés chez l'homme et les autres primates, mais aussi parce qu'elle donne à penser que de nouveaux neurones pourraient apparaître dans d'autres régions du cerveau des mammifères qui n'ont pas encore été examinées d'assez près.

Malgré tout, le vieux dogme n'est pas entièrement faux. Il semble bien que, dans leur grande majorité, les neurones du cerveau adulte aient été produits aux alentours de la naissance. Et, s'il n'est pas actuellement possible d'exclure une poursuite de la neurogenèse dans d'autres régions cérébrales, il ne semble pas que ce renouvellement tout au long de la vie puisse concerner tous les types de neurones. Dans l'hippocampe, qui a été étudié de manière très approfondie, il paraît clair que si les cellules granulaires se reproduisent à l'âge adulte, ce n'est pas le cas des autres populations neuronales de la région. Il en va de même du bulbe olfactif. D'après les connaissances actuelles, il semble donc que seuls certains sous-types de neurones se régénèrent à l'âge adulte, même dans les régions dites neurogènes. Aujourd'hui encore, on ne sait pratiquement rien de l'identité des nouveaux neurones corticaux, on ignore notamment s'ils appartiennent ou non à un seul sous-type neuronal.

Il semble également probable qu'on ne découvrira pas de neurogenèse dans toutes les régions cérébrales. La récente étude sur le néocortex des primates a mis en évidence des neurones nouveaux dans trois régions du cortex associatif les zones préfrontale, temporale inférieure et pariétale postérieure ; en revanche, malgré un examen attentif, il n'a été observé aucun renouvellement dans le cortex strié. Ce résultat est particulièrement intéressant, car le cortex associatif joue un rôle important dans les fonctions cognitives de haut niveau, alors que le cortex strié intervient dans le traitement des informations d'origine visuelle. Cette différence donne à penser que la neurogenèse pourrait jouer un rôle clé dans des fonctions plastiques par essence, alors qu'elle serait sans objet pour des fonctions de bas niveau comme le traitement des données sensorielles, qui sont en général stables tout au long de la vie. Cette idée cadre bien avec ce que l'on sait de la neurogenèse dans le reste du cerveau. Ainsi, il a récemment été démontré que l'apprentissage olfactif a lieu au sein du bulbe olfactif et fait intervenir les neurones granulaires, et on sait par ailleurs depuis longtemps que l'hippocampe est une région importante pour l'apprentissage et la mémoire. On notera néanmoins que si leur localisation incite à penser que les neurones apparus à l'âge adulte peuvent jouer un rôle dans les processus d'apprentissage et de mémoire, rien n'indique qu'ils aient effectivement une fonction. Cela ne veut pas dire qu'ils ne soient pas fonctionnels ; cela traduit seulement les difficultés techniques qui empêchent de recueillir les informations nécessaires. En effet, il est difficile de caractériser les neurones nouveau-nés par l'électrophysiologie, car celle-ci ne permet absolument pas de déterminer l'âge d'une cellule vivante. Les études comportementales sur la neurogenèse à l'âge adulte sont également délicates parce que les manipulations utilisées pour inhiber la neurogenèse perturbent aussi le fonctionnement des autres neurones et des cellules gliales, et qu'il est donc impossible d'établir le lien direct qu'elle pourrait avoir avec une modification comportementale. Surmonter ces obstacles techniques est un enjeu essentiel, car la fonction de la neurogenèse à l'âge adulte est certainement la question qui suscite le plus d'intérêt.

Bien qu'on ne sache pas grand-chose de la fonction des neurones apparus à l'âge adulte, de nombreux travaux ont permis d'élucider plusieurs aspects de leur prolifération, de leur différenciation et de leur survie. C'est dans le gyrus dentatus que la neurogenèse à l'âge adulte est la mieux connue ; jusqu'à présent, cette région est aussi la seule où une neurogenèse ait été observée chez l'homme adulte. Le nombre des neurones qui y apparaissent est loin d'être négligeable, puisqu'il suffit à renouveler plusieurs fois toute la population des neurones granulaires au cours de la vie d'un rongeur. Cependant, cette production de nouveaux neurones ne paraît pas répondre à un modèle de simple renouvellement, dans lequel des cellules neuves viendraient remplacer les neurones qui meurent. Ainsi, certains neurones granulaires persistent pendant toute la vie de l'animal, alors que d'autres n'ont qu'une brève durée de vie. Les nouveaux neurones pourraient augmenter l'effectif de la population totale, ou bien remplacer les cellules qui meurent sans modifier l'effectif total, et la neurogenèse pourrait donc avoir pour objet de modifier soit l'effectif de cette population, soit l'âge moyen des neurones qui la constituent. Par ailleurs, le rythme de production des neurones n'est pas constant, mais modulé en permanence par des signaux provenant des milieux interne et externe. Peut-être sera-t-il possible de se faire une idée de la fonction des nouveaux neurones à partir de la compréhension des facteurs qui contrôlent la neurogenèse. En ce qui nous concerne, nous avons découvert que deux facteurs contrôlant la neurogenèse dans le gyrus dentatus chez l'adulte jouent tous deux un rôle important dans les processus hippocampiques d'apprentissage et de mémoire, une relation que nous allons détailler maintenant.

Le premier de ces facteurs est le stress, qui réduit la production de nouveaux neurones granulaires5. Le fait a été démontré par deux tests classiques, chez des primates installés dans la cage d'un mâle qui ne leur était pas familier et chez des rats exposés à l'odeur d'un prédateur. Ces effets du stress sur la prolifération cellulaire sont dus à la modification de la concentration d'hormones : les corticoïdes6. Cette observation a été confirmée par l'ablation des glandes surrénales situées au-dessus des reins, comme leur nom l'indique, elles produisent la principale de ces hormones. Elle entraîne une augmentation de la production de nouveaux neurones. Comme les concentrations d'hormones corticoïdes évoluent selon un cycle diurne, la production de nouveaux neurones varie sans doute au cours de la journée, passant par un minimum au réveil et par un maximum douze heures plus tard. Il est probable que des facteurs de stress mineurs et de courte durée ralentissent la neurogenèse pendant plusieurs heures, alors que le stress chronique pourrait la bloquer pendant plusieurs semaines ou plusieurs mois. Quel sens donner à ces résultats ? On considère souvent le stress comme quelque chose de négatif. Cependant, toute expérience nouvelle s'accompagne d'une élévation des concentrations d'hormones corticoïdes et d'autres signes de stress léger, phénomènes qui sont en fait importants pour l'apprentissage qu'impliquent ces situations nouvelles. Pourquoi ralentir la production de nouveaux neurones dans l'hippocampe pendant ce genre de situations ? Il semble que la survie des nouveaux neurones soit meilleure pendant les phases d'apprentissage. Il est donc possible qu'un ralentissement de leur production soit nécessaire pour éviter toute surpopulation.

Dans les processus hippocampiques d'apprentissage, un autre signal important est la liaison d'un neurotransmetteur, le glutamate, à un récepteur appelé NMDA7. Si les récepteurs NMDA sont bloqués, les rats sont incapables d'améliorer leurs performances aux tests de mémoire spatiale faisant intervenir l'hippocampe, comme la classique localisation d'une plate-forme immergée dans une piscine. Le blocage des récepteurs NMDA accroît la production de neurones granulaires et, à l'inverse, une activation de ces récepteurs réduit la production de ces neurones. Paradoxalement, les cellules en cours de division ne portent pas de récepteurs NMDA. Comment le glutamate exerce-t-il son action ? Il pourrait contrôler indirectement la prolifération par l'intermédiaire de signaux provenant des neurones granulaires matures. Ceux-ci émettraient en fait des signaux différents commandant aux cellules précurseurs de se diviser, lorsque leurs récepteurs NMDA sont inactifs. Par ailleurs, de nouvelles données montrent que d'autres neurotransmetteurs, comme la sérotonine et les opiacés, contrôlent eux aussi la prolifération des précurseurs des neurones granulaires ; on est donc conduit à penser que le niveau global d'activité des neurones granulaires matures pourrait contrôler la production des nouvelles cellules. Il existe un autre argument allant dans ce sens : la destruction d'un petit nombre de neurones granulaires matures active aussi la prolifération de leurs précurseurs8. Or les neurones granulaires morts sont inactifs, extrêmement, ce qui cadre avec l'idée selon laquelle une baisse d'activité de ces neurones serait le signal d'une augmentation de la production de nouveaux neurones. On aboutit à un modèle dans lequel les neurones granulaires actifs, dont on peut supposer qu'ils fonctionnent correctement, s'opposent à la production de nouveaux neurones, alors que les neurones silencieux parce qu'ils sont malades ou parce qu'ils ne participent pas à des circuits utiles ou importants déclenchent la production de nouveaux neurones destinés à prendre leur place.

La mise en évidence de la neurogenèse chez l'être humain adulte a suscité des espoirs considérables. La perspective de réparer le cerveau, ou de lui offrir des cures de rajeunissement a été évoquée à de multiples reprises. Qu'en est-il aujourd'hui ?

On a trouvé des neurones nouveau-nés dans l'hippocampe chez les plus âgés des rats et des singes étudiés, et chez des êtres humains jusqu'à l'âge de 72 ans. Mais le nombre de ces nouveaux neurones chute jusqu'à 10 % à peine de la production qu'on observe chez l'adulte jeune. Cette baisse liée à l'âge pourrait s'expliquer par le fait que les précurseurs immatures dotés de la capacité de division et de production de nouveaux neurones persisteraient plus longtemps dans cette région que dans la plupart des autres, mais finiraient malgré tout par mourir. Toutefois, nous avons récemment découvert que, si l'on supprime les corticoïdes surrénaliens chez des rats âgés, la prolifération retrouve le même niveau que chez les adultes jeunes9. Or, les concentrations de corticoïdes sont élevées chez les rats âgés. Ces hormones paraissent donc être responsables de la baisse de la neurogenèse avec l'âge. Fait intéressant, on observe chez certains êtres humains âgés un niveau élevé ou croissant d'hormones corticoïdes, et ce groupe de personnes est beaucoup plus affecté par ce qu'on appelle les pertes de mémoire bénignes de la sénescence liées au vieillissement normal qui diffèrent de celles liées, par exemple, à la maladie d'Alzheimer10. On pense que les pertes de mémoire en question sont liées à la formation hippocampique, où justement la production de neurones granulaires diminue11. Il est donc possible qu'elles soient liées à la diminution de la neurogenèse. A l'heure actuelle, cette relation n'est qu'une corrélation, mais la possibilité - fascinante - existe qu'un abaissement des taux de corticoïdes chez les personnes âgées puisse relancer la neurogenèse et corriger leurs troubles de la mémoire.

Des modifications de la neurogenèse interviennent peut-être aussi dans d'autres troubles hippocampiques comme la maladie d'Alzheimer, les pertes de mémoire consécutives aux accidents vasculaires cérébraux, ou l'épilepsie12 . Si ces hypothèses se vérifiaient, une normalisation de la prolifération des neurones granulaires pourrait contribuer à guérir ces différentes maladies cérébrales. Mais il y a plus encore : on saura peut-être un jour provoquer une régénération dans des populations neuronales qui ne se renouvellent pas normalement, ce qui permettrait de remplacer dans l'ensemble du cerveau les cellules perdues à la suite de lésions ou de maladies. Cependant, rien n'indique encore qu'il soit possible de forcer à se renouveler des neurones qui ne le font pas normalement chez l'adulte. A cette fin, il faudrait tout d'abord comprendre pourquoi la plupart des neurones ne se reproduisent pas à l'âge adulte. On pourrait ainsi se demander quelles sont les caractéristiques communes à ceux qui conservent au contraire cette capacité. A plusieurs égards, ces sous-types de neurones sont très différents les uns des autres. Les neurones granulaires du bulbe olfactif sont inhibiteurs, alors que ceux de l'hippocampe sont excitateurs. Dans le bulbe olfactif, ce sont des interneurones, renvoyant des signaux aux cellules qui leur ont adressé des messages, alors que les grains du gyrus dentatus sont des neurones projectifs, qui envoient des axones véhiculant le principal signal d'entrée des neurones pyramidaux de l'hippocampe. Les neurones corticaux nouveau-nés ont un axone, mais on ne sait pas encore s'ils sont excitateurs ou inhibiteurs, ou s'il en existe des deux types. Néanmoins, ces deux populations possèdent des points communs, le plus manifeste étant bien entendu leur dénomination : cellules granulaires, ou grains. Dans les deux cas, ils furent baptisés par les anciens anatomistes en raison de leur corps cellulaire arrondi et très petit. En outre, ces deux types cellulaires ont tous les deux un arbre dendritique relativement simple, peu ramifié, c'est-à-dire une structure probablement plus facile à produire dans le cerveau mature où l'espace libre est bien moins abondant que dans le cerveau en développement.

Il est possible que les précurseurs neuronaux persistant dans le cerveau adulte n'aient que des possibilités limitées et ne puissent se différencier que pour donner des neurones dotés seulement de ces structures élémentaires. Pourtant, même des cellules immatures transplantées à partir d'un cerveau embryonnaire se révèlent incapables de produire des neurones dans des régions du cerveau adulte où il n'y a pas normalement de neurogenèse. Il existerait donc, dans ces régions particulières, des signaux contrôlant quels types de neurones pourront, ou non, se régénérer à l'âge adulte. De tels signaux existent pendant le développement. Produits au moment voulu et provenant de diverses localisations, ils sont essentiels au développement morphologique des neurones et à l'établissement de leurs connexions, mais ils sont presque certainement absents dans la plus grande part du cerveau adulte. En effet, avec la maturation du système nerveux, les neurotransmetteurs de l'embryogenèse et de l'enfance sont remplacés par ceux de l'âge adulte. Point intéressant, le développement des deux populations de neurones qui se régénèrent à l'âge adulte commence très tard ; les premiers neurones granulaires des deux types apparaissent deux jours avant la naissance chez le rat, à un moment où cesse la production de la plupart des autres neurones. Ce détail est peut-être important, parce que cela signifie que les signaux nécessaires au développement de ces cellules proviennent probablement de neurones relativement matures, qui pourraient persister à l'âge adulte.

Malheureusement, on sait actuellement très peu de chose sur les signaux qui commandent normalement la différenciation et l'intégration en réseaux de la plupart des neurones. Dans le gyrus dentatus adulte, les nouveaux neurones granulaires envoient leur axone en direction des bonnes cellules cibles les cellules pyramidales CA3, et les connexions s'établissent assez rapidement - dans les quatre à dix jours après la fin de la division cellulaire13. Il ressort par ailleurs que cette intégration en circuits est essentielle à la survie des nouveaux neurones ; chez le rat de laboratoire normal, la moitié environ des neurones granulaires nouveau-nés meurent entre une et deux semaines après leur apparition, mais le taux de survie est beaucoup plus élevé si on soumet les rats à des tâches d'apprentissage. Cet effet ne s'observe que si les tâches en question font intervenir l'hippocampe, et s'il y a apprentissage véritable, et non pas seulement activation hippocampique. Peu après la connexion des nouvelles cellules à d'autres neurones, une activation spécifique des circuits ainsi établis est donc probablement nécessaire pour que les nouveaux neurones survivent. Comme l'activation des récepteurs NMDA est un élément essentiel de l'apprentissage hippocampique, il est probable que ces récepteurs sont importants pour la survie et pour la production de nouveaux neurones granulaires dans le gyrus dentatus . Serait-ce l'un des signaux recherchés ? Quoi qu'il en soit, pour remplacer les neurones disparus partout dans le cerveau, il faudra résoudre le problème complexe consistant à fournir tous les signaux nécessaires à leur bonne maturation morphologique et à leur intégration spatiale et temporelle.

Outre le fait qu'elle ouvre des perspectives en matière de réparation du cerveau, la neurogenèse à l'âge adulte modifie la manière dont il faut envisager le fonctionnement normal du cerveau. Depuis quelques années, on observe de plus en plus de signes de plasticité anatomique du cerveau adulte, à plusieurs niveaux, et notamment en ce qui concerne la forme et le nombre des synapses. Cependant, certains scientifiques tiennent encore pour une forme très rigoureuse d'hypothèse du cerveau stable, selon laquelle il n'y aurait aucune plasticité anatomique du cerveau adulte, et notamment du cortex ; ils estiment que la plasticité fonctionnelle qui sous-tend les mécanismes d'apprentissage suppose des modifications de la force des synapses, produites par une modification des récepteurs ou de l'environnement intracellulaire des neurones, au niveau moléculaire. Mais on sait désormais que certains neurones de régions importantes dans les processus d'apprentissage se renouvellent continuellement - ce qui constitue une modification anatomique relativement importante. Les populations de neurones où persiste une neurogenèse échangent toutes des informations avec d'autres populations considérées comme stables pendant toute la vie. Le remplacement de ces sous-populations disséminées signifie que des populations neuronales stables interagissent continuellement avec des populations qui ne cessent de changer, et que les neurones à longue durée de vie doivent établir de nouvelles synapses, ce qui modifie probablement la forme de leur arborescence dendritique. On a observé une formation et une disparition rapide des synapses au niveau des cellules pyramidales de l'hippocampe, mais il est probable que le même phénomène se produise aussi dans d'autres régions cérébrales. Même les populations non neurogènes pourraient donc être moins fixes morphologiquement qu'on ne le pensait auparavant. On est donc conduit à imaginer un modèle complexe de la plasticité cérébrale, dans lequel différentes sous-populations neuronales interagissent et font intervenir des types de plasticité différents, concernant l'expression des protéines, la morphologie cellulaire ou le renouvellement des neurones.

Ce modèle s'oppose à l'hypothèse d'un cerveau anatomiquement stable, mais il n'entre pas forcément en contradiction avec l'idée selon laquelle une population stable de neurones serait nécessaire à la conservation des souvenirs à long terme. Après tout, l'expérience nous apprend que le cerveau est performant pour garder des souvenirs sur des dizaines d'années, mais qu'il sait aussi bien oublier. Notre cerveau reçoit chaque jour tant d'informations nouvelles qu'il est absolument essentiel de les trier et d'éliminer des données sans importance ou dont nous n'avons plus besoin. On ne sait pratiquement rien de la manière dont s'effectuent ces processus, mais il est intéressant de rappeler que l'une des fonctions attribuées à l'hippocampe serait celle de transformer les souvenirs à court terme en souvenirs durables. Il est possible que les neurones à longue durée de vie, peu plastiques, soient essentiels pour la mémoire à long terme, ainsi que pour des fonctions sensitives et motrices qui n'ont pas besoin de changer beaucoup à l'âge adulte, alors que les neurones qui régénèrent interviendraient dans les processus rapides d'apprentissage et de mémoire à court terme.

Par Heather Cameron


DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google