|
|
|
|
 |
|
LES CELLULES ADULTES REPROGRAMMÉES |
|
|
|
|
|
Les cellules adultes reprogrammées
Cécile Klingler dans mensuel 448
Fabriquera-t-on un jour du sang directement à partir de cellules de peau ? Ou de la peau à partir de sang ? C'est ce que laisse espérer la conversion directe de cellules adultes d'un type à un autre.
Neurone, cellule cardiaque contractile, cellule pancréatique sécrétrice d'insuline, cellule du derme : il y a quelques années, il aurait été impensable de seulement songer à transformer l'une de ces cellules en une autre. Car un même génome s'exprime différemment selon le type cellulaire considéré, et cela, pensait-on, de façon irréversible. Mais le destin des cellules se révèle beaucoup plus malléable qu'on ne le pensait : en 2010, plusieurs équipes ont réussi à changer le destin de cellules adultes en les convertissant en cellules adultes d'un type très différent. « Cet essor tous azimuts de la reprogrammation cellulaire par transdifférenciation est la grande nouveauté de l'année », déclare John De Vos, responsable de l'unité de thérapie génique et cellulaire du CHU de Montpellier.
Différenciées
L'inventaire 2010 de ces conversions cellulaires ressemble à un inventaire à la Prévert avec pour point de départ, des fibroblastes de peau. Il s'agit des cellules qui, dans le derme, synthétisent les fibres de collagènes caractéristiques de ce tissu. À l'arrivée, ont été obtenus : en février des neurones, grâce aux travaux menés par l'équipe de Marius Wernig, de l'université Stanford [1] ; en août des cellules cardiaques contractiles, dans le laboratoire de Deepak Srivastava, de l'université de Californie, à San Franscisco [2] ; et en novembre des cellules sanguines, cette fois grâce aux efforts de l'équipe de Mickie Bhatia, de l'université canadienne McMaster, dans l'Ontario [3] . Les deux premiers ont travaillé avec des cellules de souris, et le dernier, avec des fibroblastes issus d'échantillons de peau prélevés chez plusieurs personnes volontaires.
Comment expliquer cet afflux de résultats ? Pour le comprendre, un rapide retour en arrière s'impose. En novembre 2007, les biologistes japonais Shinya Yamanaka et Kazutoshi Takahashi, de l'université de Kyoto, publient un article qui fait l'effet d'un séisme dans la communauté scientifique. Ils annoncent avoir ramené, in vitro, des fibroblastes de peau humaine adulte à un stade de cellules souches embryonnaires. Autrement dit, ils ont transformé des cellules au destin, pensait-on, intangible en cellules « pluripotentes » capables de se différencier en n'importe quel type de cellule.
Le principe de leur démarche est simple. D'abord insérer, dans les cellules adultes de leur choix, la forme active de gènes qui s'expriment spécifiquement dans les cellules souches embryonnaires et qui sont réduits au silence lorsque les cellules se différencient. Puis voir si les cellules adultes ainsi traitées deviennent pluripotentes. À l'époque, les deux biologistes testent pas moins de 24 gènes candidats, seuls ou en combinaison les uns avec les autres. Et ils se rendent compte qu'une combinaison de 4 gènes, nommés Oct4, Sox2, c-Myc et Klf4, permet d'obtenir des cellules douées de pluripotence : les premières cellules iPS acronyme anglais de « cellules souches pluripotentes induites » sont nées. Réalisés chez la souris, ces premiers travaux sont transposés à des cellules humaines en 2007 - avec comme point de départ, des fibroblastes de peau.
Indifférenciées
La méthode fait aussitôt florès dans les laboratoires du monde entier, mais pas uniquement pour obtenir des cellules iPS. La démarche de Yamanaka, en tant que telle, sert de déclic : ce que le Japonais a fait pour obtenir des cellules souches embryonnaires, il doit être possible de le faire pour obtenir n'importe quel type cellulaire. La stratégie suivie consiste alors à injecter, dans les cellules de départ, des gènes qui ne sont normalement actifs que dans les cellules souhaitées à l'arrivée, et qui confèrent à ces dernières leur spécificité.
En 2008, l'équipe de Douglas Melton, de l'université Harvard, obtient un premier résultat très remarqué : la reprogrammation des cellules exocrines du pancréas celles qui sécrètent le suc pancréatique en cellules productrices d'insuline. Reste qu'en termes de biologie du développement, il s'agit là de types cellulaires extrêmement proches.
Ce n'est pas le cas, en revanche, des résultats présentés en février 2010 par l'équipe de Marius Wernig : un fibroblaste de peau et un neurone n'ont en effet rien à voir sur le plan du développement ! Or il a pourtant suffi de trois gènes, repérés parmi 19 autres spécifiques des cellules neuronales, pour déclencher la transformation. Et trois autres gènes, identifiés cette fois parmi 14 spécifiques des cellules cardiaques contractiles, ont suffi à Deepak Srivastava pour obtenir de telles cellules. Avec un « plus » notable par rapport aux travaux de Marius Wernig : une analyse génétique poussée, démontrant sans aucun doute possible que la transformation avait eu lieu sans passage par une forme indifférenciée.
Tout type de cellules
Quant aux récents travaux de Mickie Bhatia, ils présentent quant à eux la particularité d'avoir été réalisés avec des cellules humaines. « L'un des objectifs de mon équipe, explique Mickie Bhatia, est d'arriver à produire à volonté des cellules sanguines. Et nous avons décidé de nous tourner vers la transdifférenciation, poursuit-il, car comme tous les laboratoires travaillant dans ce domaine, nous avions des difficultés à atteindre notre but en partant de cellules souches embryonnaires ou de cellules iPS. » En effet, les globules rouges obtenus à partir de ces cellules renferment non pas la forme mature de l'hémoglobine la molécule qui transporte l'oxygène, mais la forme foetale.
Ironie de l'histoire : c'est en observant des cellules censées se reprogrammer en cellules iPS, mais ne le faisant pas, qu'ils ont repéré des colonies de cellules ressemblant à des cellules hématopoïétiques - les cellules qui, dans la moelle osseuse, produisent les différentes cellules sanguines. Des vérifications approfondies leur ont prouvé que tel était bien le cas. Et leur ont révélé que le gène Oct4 l'un des quatre utilisés pour la reprogrammation en iPS suffisait à obtenir ces cellules hématopoïétiques capables de donner, in vitro, des globules rouges produisant de l'hémoglobine mature.
La démarche permettra-t-elle d'aboutir à la production de cellules sanguines en grande quantité ? Mickie Bhatia en est persuadé, John De Vos beaucoup moins. Pour lui, l'intérêt de ces travaux est ailleurs : parvenir un jour à transformer des cellules sanguines - faciles à prélever - en tous types de cellules différenciées. Rejoignant là l'opinion de Ian Wilmut, le « père » de la brebis Dolly, aujourd'hui directeur du Centre de médecine régénérative d'Edimbourg, selon lequel on devrait un jour, en matière de reprogrammation cellulaire, parvenir à « obtenir presque tout à partir de presque tout ».
[1] T. Vierbuchen et al., Nature, 463, 1035, 2010.
[2] M. Ieda et al., Cell, 142, 375, 2010.
[3] E. Szabo et al., Nature, 468, 521, 2010.
L'ESSENTIEL
TROIS ÉQUIPES ont directement transformé in vitro des cellules de peau adultes de souris et d'homme en cellules d'autres tissus.
L'APPROCHE s'inspire de celle adoptée en 2007 par Shinya Yamanaka, qui avait ramené des cellules adultes à un stade embryonnaire.
RESTE À TROUVER des modalités de reprogrammation directe pour d'autres cellules que celles de peau.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
HÉRÉDITÉ |
|
|
|
|
|
1 - ANDRÀS PÀLDI : « L'hérédité ne passe pas seulement par l'ADN »
dossier - par Propos recueillis par Cécile Klingler dans mensuel n°463 daté avril 2012 à la page 40 (1827 mots)
Entretien. Les caractéristiques des organismes sont codées dans leurs gènes. Mais l'expression de ceux-ci dépend d'autres mécanismes héritables.
LA RECHERCHE : En janvier 2012, une équipe de l'INRA a montré que des mécanismes non génétiques pourraient favoriser l'émergence de nouvelles espèces. Comment est-ce possible ?
ANDRÀS PÀLDI : Cette équipe a croisé deux souches d'Arabidopsis thaliana. Il s'agit de cette petite plante qui sert de « souris » de laboratoire aux spécialistes de génétique végétale, mais qui est aussi très répandue dans la nature. En l'occurrence, les biologistes de l'INRA ont utilisé deux souches sauvages, appelées Columbia et Shahdara. Leur croisement a produit des descendants, ce qui est normal puisque Columbia et Shahdara appartiennent à la même espèce. Mais parmi ces descendants, certains étaient infertiles : ils produisaient trop peu de pollen et de graines pour se reproduire. On observe donc ici un début d'incompatibilité reproductive entre deux souches d'une même espèce, ce qui constitue une première étape vers l'émergence de deux espèces. Or, le mécanisme à l'origine de cette incompatibilité est très particulier. Les biologistes de l'INRA ont découvert que l'infertilité était imputable à la déficience d'un gène intervenant dans le métabolisme des folates, des molécules indispensables à la formation des gamètes. Et lorsqu'ils ont cherché à comprendre d'où venait le problème, ils ont mis en évidence un phénomène extrêmement intéressant : le gène déficient n'est atteint d'aucune mutation, sa séquence est intacte. Mais il est inactivé, par un mécanisme dit épigénétique [1].
En quoi ce mécanisme consiste-t-il ?
A.P. L'une des quatre bases de l'ADN de ce gène, la cytosine, est modifiée : elle porte un groupement chimique appelé « méthyle ». La méthylation des cytosines inactive le gène : elle empêche sa transcription en ARN messager, puis la traduction de cet ARN en protéine.
Cette inactivation épigénétique était-elle présente chez l'un des parents ?
A.P. Oui, le gène inactivé est présent dans la souche Shahdara. On savait déjà que des gènes inactivés par des mécanismes épigénétiques pouvaient être transmis de génération en génération : c'est ce qu'on appelle l'hérédité épigénétique. Ici, on voit pour la première fois qu'une telle transmission pourrait intervenir dans l'émergence de nouvelles espèces (lire « Un autre mécanisme d'apparition des espèces ? », p. 46).
Quelles sont les différences de fond entre l'épigénétique et la génétique ?
A.P. Au collège, nous apprenons qu'un gène est un segment d'ADN qui code une protéine, et que les protéines contribuent à déterminer le phénotype d'un individu, c'est-à-dire l'ensemble de ses caractéristiques physiques, visibles ou non. Nous apprenons également que si l'on change la séquence d'un gène, on change la structure de la protéine qu'il code et, au final, le phénotype. Enfin, nous apprenons que c'est la transmission des gènes qui explique l'hérédité des caractères qui définissent un phénotype. L'ADN est central dans cette conception. Par exemple, si un gène est inactif, c'est forcément parce qu'il est muté. Avec l'épigénétique, nous découvrons que c'est faux, doublement faux. D'abord, un gène peut être inactivé sans pour autant être muté, c'est-à-dire sans que l'enchaînement des bases adénine, thymine, guanine et cytosine soit modifié. Seul son état d'activité change, sous l'effet de modifications comme la méthylation des cytosines. De plus, cet état d'activité (ou d'inactivité) peut être transmis, ce qui a des conséquences sur le phénotype. Autrement dit, la transmission d'une séquence d'ADN n'est pas le seul mécanisme qui permette la transmission d'un caractère.
Avec l'épigénétique, l'ADN n'est plus au coeur de l'hérédité ?
A.P. Il ne faut pas exagérer. Disons que l'on redonne leur juste place à toutes les molécules avec lesquelles l'ADN interagit. En effet, l'ADN n'est pas libre dans le noyau des cellules. Il est enroulé autour de protéines appelées « histones », la combinaison des deux formant ce qu'on appelle la chromatine. Il se trouve que le degré de compaction de la chromatine est un facteur décisif dans le fonctionnement cellulaire. Lorsqu'elle est très compacte, les gènes ne s'expriment pas, car les molécules qui permettent la transcription des gènes ne peuvent accéder à l'ADN. Pour qu'ils s'expriment, il faut que les histones se détachent temporairement de l'ADN. Or, la force de l'interaction entre les histones et l'ADN dépend de la nature de groupements chimiques fixés aux histones par différentes enzymes. Ce sont ces groupements qui constituent les « marques » épigénétiques. En caricaturant, on peut dire que, lorsque les histones portent essentiellement des groupements méthyles, les gènes sont peu transcrits. En revanche, lorsque les histones portent plutôt des groupements acétyles, la chromatine est moins dense, et les gènes sont transcrits. En parallèle, il y a également un marquage épigénétique de l'ADN, évoqué au début de cet entretien : la méthylation de l'ADN, au niveau des cytosines. Cette méthylation favorise la compaction de la chromatine. Enfin, on sait que de petits ARN dits « non codants », car ils ne codent pas de protéines, interviennent aussi dans l'état d'activation des gènes (voir « Les marqueurs de l'épigénétique », p. 44).
Quand on parle d'hérédité épigénétique, s'agit-il de la transmission des marques épigénétiques entre cellules, entre organismes, ou les deux ?
A.P. Les deux. Mais avant d'évoquer la question de la transmission, il faut avoir conscience du rôle essentiel de l'épigénétique lors du développement, chez les organismes multicellulaires. Imaginez un embryon. Toutes ses cellules ont le même génome. Pourtant, elles se différencient en des types cellulaires différents : neuronal, hépatique, musculaire, intestinal... Pourquoi ? Parce que les mécanismes épigénétiques contribuent à ce que certains gènes soient exprimés dans certaines cellules, mais pas dans d'autres. C'est un premier point extrêmement important. Puis on constate qu'une cellule ayant un phénotype donné se divise en deux cellules ayant ce même phénotype. C'est un premier type d'hérédité épigénétique. Les cellules filles héritent non seulement des gènes de la cellule mère, mais aussi de l'état d'activité des gènes de cette cellule, car les marques épigénétiques sont transmises lors de la division cellulaire. Enfin, il peut aussi y avoir transmission entre un organisme et sa descendance, si des modifications épigénétiques stables se produisent dans les cellules sexuelles. Cela ouvre tout un champ d'investigation proscrit par la génétique classique : celui de la transmission de caractères acquis.
Cette transmission à la descendance existe-t-elle aussi bien chez les plantes que chez les animaux ?
A.P. Rétrospectivement, les phénomènes épigénétiques ont souvent été mis en évidence d'abord chez les plantes, avant d'être retrouvés chez les animaux. Concernant l'héritabilité, l'exemple emblématique est celui de la linaire Linaria vulgaris, une plante vivace commune en France. Il en existe deux variants, dont les fleurs ont une forme si différente que le botaniste suédois Carl Linné, il y a 250 ans, a cru qu'il s'agissait de deux espèces distinctes (photographies ci-dessous). Depuis les travaux publiés en 1999 par l'équipe d'Enrico Coen, du John Innes Centre, au Royaume-Uni, on sait que cette différence provient d'une modification épigénétique : la méthylation d'un gène nommé Lcyc, qui l'inactive [2]. Cette méthylation - et donc l'inactivation du gène - perdure au fil des générations, indépendamment de l'événement qui l'a provoquée initialement et dont, au demeurant, on ignore tout. C'est d'ailleurs là une autre caractéristique importante de l'hérédité épigénétique : une « épimutation » peut perdurer en absence de la cause initiale.
Une épimutation « peut » perdurer. Cela veut dire qu'elle peut aussi disparaître ?
A.P. Les mécanismes épigénétiques sont à la fois stables et instables, sur une échelle de temps courte. Car pour chaque enzyme qui met en place une marque épigénétique, il existe une enzyme qui catalyse la réaction opposée. On le voit très bien au cours du développement embryonnaire : certains gènes sont inactifs à un moment donné, puis ils sont activés, puis éventuellement inactivés à nouveau. Cette réversibilité fait que la transmission intergénérationnelle est réversible aussi. Une modification épigénétique peut perdurer pendant une, deux ou trois générations, cela ne signifie pas qu'elle va forcément perdurer plus longtemps, du moins en l'absence de la cause qui l'a déclenchée.
Qu'est-ce qui peut déclencher une épimu-tation ?
A.P. Souvent, des changements environnementaux. Chez l'homme et l'animal, la nutrition semble jouer un rôle particulièrement important. Plusieurs études indiquent que la nature du régime alimentaire peut influencer le phénotype des descendants sur deux ou trois générations. Par exemple, une étude épidémiologique suédoise a montré que le régime alimentaire des grands-parents était fortement corrélé avec l'incidence, chez leurs petits-enfants, de maladies dites « métaboliques », comme le diabète et les maladies cardio-vasculaires (lire « Le diabète de type 2 programmé avant la naissance », p. 48). Et récemment, en 2010, une étude menée chez des rats de laboratoire a montré que, lorsque le père est nourri avec des aliments riches en graisse, sa progéniture femelle souffre d'un dysfonctionnement des cellules b du pancréas, celles qui sécrètent l'insuline [3]. Or, lorsqu'on étudie la nutrition au niveau cellulaire, on prend conscience qu'il y a un lien direct entre nutrition et mécanismes épigénétiques. En effet, les enzymes qui mettent en place les marques épigénétiques utilisent pour fonctionner de petites molécules produites par le métabolisme cellulaire, à partir de nutriments puisés dans l'environnement [4].
L'épigénétique met donc l'environnement à l'honneur, à tous les niveaux : cellule, organisme, espèce ?
A.P. Tout à fait. On redécouvre aujourd'hui, via l'épigénétique, le rôle des interactions entre gènes et environnement. Or, c'était une évidence. Deux clones d'une même plante, plantés dans deux endroits très différents, ne se développent pas de la même façon, alors qu'ils ont exactement les mêmes gènes. D'autres situations où l'on observe une très grande variabilité entre individus, alors qu'on ne s'y attendrait pas, auraient pu éveiller l'attention. Ainsi, il arrive souvent que des personnes souffrant d'une maladie monogénique donnée, c'est-à-dire une maladie causée par une mutation d'un seul gène, ne soient pas atteintes de la même façon. Plutôt que d'envisager l'implication de mécanismes non génétiques, on s'obstinait à penser que d'autres gènes étaient peut-être impliqués. À présent, l'hypothèse épigénétique est de plus en plus souvent envisagée.
Comment expliquer que l'épigénétique ait été reconnue si tardivement comme un phénomène essentiel au fonctionnement cellulaire ?
A.P. L'essor de l'épigénétique a coïncidé avec la fin du séquençage du génome humain, au début des années 2000. À ce moment-là, on a vu que le génome ne comprenait qu'environ 20 000 gènes, alors qu'on s'attendait à en trouver des centaines de milliers. Il a alors bien fallu se résoudre à l'évidence : la complexité génétique était insuffisante pour expliquer la complexité phénotypique.
Aujourd'hui, certains programmes de recherche ambitionnent de trouver un code épigénétique. Cette notion de code épigénétique a-t-elle un sens, selon vous ?
A.P. Pour ceux qui envisagent son existence, ce code serait l'ensemble des combinaisons possibles des modifications épigénétiques, sur l'ensemble du génome. Le problème, c'est qu'un code est par définition censé pouvoir être lu sans ambiguïté. Or, les marques épigénétiques sont fonction de l'environnement, elles sont donc très variables. De mon point de vue, nous sommes ici confrontés à un intéressant phénomène épistémologique : le paradigme dominant, celui de la génétique, incluait un système de codage. Du coup, on cherche à toute force à plaquer le même type de raisonnement sur le paradigme émergent, même si c'est fondamentalement contradictoire !
Par Propos recueillis par Cécile Klingler
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
GÉNOMIQUE |
|
|
|
|
|
Le vivant à l'heure de la génomique
histoire des sciences - par Jean-Paul Gaudillière dans mensuel n°329 daté mars 2000 à la page 54 (4029 mots) | Gratuit
Si la recherche biologique, l'industrie, l'agriculture et la médecine sont liées depuis un siècle, leurs rapports ont changé d'échelle après 1945. Aujourd'hui, les biologistes moléculaires affirment être à l'origine d'une autre révolution, illustrée par le séquençage du génome humain. Quarante ans après le décryptage du code génétique, s'agit-il d'un nouveau bouleversement des savoirs ou d'une explosion des savoir-faire ?
Au milieu des années 1980, aux Etats-Unis, le monde des sciences biologiques était en pleine ébullition. Des rumeurs annonçaient la mise sur pied d'un vaste projet de recherche sur le génome humain. Celui-ci vit officiellement le jour en 19871. Pour ses promoteurs, l'initiative « Génome humain » était l'équivalent de ce qu'avait été la construction des grands accélérateurs pour la physique des hautes énergies. Il s'agissait de créer une infrastructure permettant de déterminer rapidement l'organisation moléculaire - la séquence - de longs fragments d'ADN et, ainsi, de caractériser la totalité des gènes humains. Le programme génome fournirait les bases de la biologie du XXIe siècle. Dans le cours des discussions, les justifications de l'entreprise glissèrent progressivement des outils chimiques et informatiques de la nouvelle biologie vers les applications des connaissances génétiques, en particulier dans le domaine médical.
Aujourd'hui, alors que l'on s'approche à grands pas du moment où l'objectif le plus direct du projet sera atteint, la génomique est devenue beaucoup plus anodine. Son caractère instrumental s'est estompé. On parle désormais de retour au biologique, d'une recherche moins synonyme de décryptage des séquences d'ADN, d'une nouvelle science du vivant cristallisant dans l'après-génome. Celle-ci serait d'abord marquée par l'acceptation de la complexité du vivant : à l'inverse du réductionnisme initial de la biologie moléculaire, la biologie d'aujourd'hui serait bien une science des systèmes complexes. Au lieu d'une correspondance stricte entre une séquence d'ADN, une protéine et une fonction ou un trait biologique, on observe ainsi des gènes éclatés, remplissant plusieurs fonctions et appartenant à des réseaux de molécules, dont la dynamique rend illusoire toute possibilité de prédiction simple. Dans le même mouvement, la biologie est devenue une science de l'information - une science du virtuel - entretenant des liens de plus en plus étroits avec l'informatique. L'ordinateur est bien entendu l'outil de stockage et d'analyse de grandes quantités de données les banques de séquences de gènes en expansion rapide depuis dix ans ; mais, surtout, la nature des organismes vivants serait de traiter de l'information génétique, constituant ainsi des systèmes que l'on peut modéliser en tant que tels.
La nouveauté de cette biologie fin de siècle tiendrait donc moins à ses dimensions industrielles ou technologiques qu'à l'apparition, à la faveur de la génomique, d'une nouvelle représentation du vivant. Par habitude, les historiens pensent plus facilement aux continuités de l'histoire qu'aux nouveautés radicales. Que nous disent-ils des rapports entre technologies et sciences du vivant ? A lire les travaux qui se sont accumulés sur ce thème, on n'a pas du tout l'impression d'avoir affaire au changement spectaculaire dont nous parlent souvent les gestionnaires de capital-risque et les promoteurs des applications de la génétique moléculaire. La longue durée s'impose davantage : qui niera que les rapports entre recherche biologique, industrie, agriculture et médecine se sont noués lors de la seconde révolution industrielle ?2
Longue durée ne signifie toutefois pas absence de changements. Comme pour les sciences physiques, la Seconde Guerre mondiale est l'un de ces moments où se réorganisent les formes de ces rapports et où ils changent d'échelle. On parle ainsi, pour les Etats-Unis du moins, d'un véritable complexe « bio-médicalo-industriel » caractéristique de la période contemporaine. Le « siècle des biotechnologies » sera peut-être le XXIe siècle, selon la formule de Jeremy Rifkin, mais on peut arguer que la seconde moitié du XXe siècle est, avec la croissance remarquable de l'industrie pharmaceutique, la révolution verte, les manipulations multiformes des enzymes ou des virus, un bon exemple de l'ancienneté relative de cette nouveauté.
Que s'est-il alors passé entre 1970 et 1995 pour justifier la perception d'une révolution biologique ? Notre hypothèse est que le dernier quart du siècle a bien vu des changements importants des sciences biologiques, mais que ceux-ci ont davantage porté sur les pratiques et les modes d'organisation que sur les paradigmes et les visions du vivant. Autrement dit, ce qui justifie que l'on parle d'une « nouvelle biologie », est d'abord une explosion des savoir-faire et des procédés de manipulation de l'ADN. On en trouvera un indice dans le vocabulaire procédural de la génomique et les multiples références aux outils biologiques : clonage, séquençage, hybridation moléculaire, stockage, transgenèse, mutagenèse dirigée, enzymes de restriction, souris knock-out , vecteurs viraux, etc. Cette capacité de manipuler le vivant a des effets techniques, sociaux et cognitifs dont on a encore à peine pris la mesure. Pour discuter de ces combinaisons d'ancien et de nouveau, de leurs rapports au changement des techniques et des façons de faire, attardons-nous sur trois thèmes caractéristiques de la biologie fin de siècle : la métaphore informationnelle, les théories du développement et, parce que les savoirs du pathologique sont au coeur de la génomique, la médecine prédictive. Ceux-ci nous semblent emblématiques des différents niveaux où le vivant se décline comme séquence : les représentations, les pratiques de laboratoire et les applications industrielles.
La littérature génomique, qu'elle soit destinée aux profanes ou aux professionnels, charrie un grand nombre de métaphores et d'images : depuis celle du « livre de l'homme » écrit en langage ADN jusqu'aux références aux théories et à la société de l'information. Une illustration brillante de ces dernières peut être trouvée dans les textes de Richard Dawkins. Avec le succès de son ouvrage Le G ène égoïste , ce dernier a largement contribué à la diffusion d'un corpus dans lequel les organismes sont considérés comme les moyens qu'utilisent les gènes, véritables unités élémentaires de la vie et de la sélection, pour se reproduire et se disséminer3. Dans Le F leuve de la vie , une réécriture de ces thèses plus proche des pratiques de séquençage, Dawkins emploie deux métaphores de l'évolution4. L'une, économique, renvoie à la longue tradition d'échanges entre théories de la sélection naturelle et économie politique. Dawkins cherche l'équivalent de la fonction d'utilité employée par les économistes. Il la trouve : « L a fonction d'utilité de la vie, celle que la nature maximise, est la survie de l'ADN . » La seconde métaphore s'enracine dans les échanges entre biologie moléculaire et électronique. Elle compare l'évolution du vivant à « un fleuve digital », « un fleuve d'ADN ». Celui-ci « ne traverseaucune région géographique ; il coule à travers le temps. C'est un fleuve d'information, non de chair et d'os : un fleuve d'instructions abstraites qui permettent de constituer des corps physiques. L'information passe à travers ces corps et a une incidence sur eux, mais ce passage la laisse intacte . » On aurait tort de traiter ces métaphores par le dédain. Dawkins est loin d'être un scientifique marginal, et il touche à quelque chose d'important, pour le présent et pour le passé récent.
L'idée de l'information biologique écrite en bits d'ADN n'est pas tout à fait neuve. En 1948, le mathématicien Norbert Wiener, qui à l'époque travaillait au Massachusetts Institute of Technology, publiait un petit ouvrage dans lequel il développait cette idée : la cybernétique est une théorie générale de la communication, une théorie des processus de contrôle applicable à la fois aux machines, aux animaux et aux hommes5. On était alors à un moment charnière, à la fois pour le développement des industries électroniques, celui des pratiques industrielles d'automation, et aussi, Seconde Guerre mondiale oblige, pour l'évolution des rapports entre savants et militaires6. Pendant la guerre, Wiener s'était, par exemple, occupé de problèmes de contrôle de tir et avait commencé à modéliser ces questions sous la forme de mécanismes de rétroaction. Ce fut le point de départ de sa réflexion sur l'importance et la généralité des processus de feed-back . Dans Cybernetics , Wiener insiste alors longuement sur la distinction entre l'information au sens des théories de l'information, c'est-à-dire une quantité mesurable en termes de statistique probabiliste, et l'information du sens commun.
Pendant près d'une décennie, la généralisation de ces réflexions fut portée par un groupe dit des cybernéticiens, dans lequel on retrouvait une grande variété de disciplines. Pour ces chercheurs, l'enjeu était moins de formuler une théorie totalement cohérente que d'étendre la validité du concept d'information en le confrontant à des problèmes relevant d'autres champs du savoir : la biologie, sous la forme de la physiologie et de la neurobiologie, mais aussi les sciences sociales. Pour des raisons qui tiennent en partie à la plasticité et à la généralité de ses concepts, cette cybernétique a eu un succès considérable7. A la fin des années 1950, tout un ensemble de biologistes se disant « moléculaires » se mirent par exemple à parler de transferts d'information du gène à la protéine, de feed-back moléculaire, de transcription ou de traduction. Un vocabulaire combinant linguistique, biochimie et théorie de l'information sédimenta alors à partir d'une utilisation sauvage des concepts des cybernéticiens. Pour leurs collègues physiciens, les nouveaux biologistes confondaient allégrement information au sens commun et information au sens statistique. Leur information, celle contenue dans la molécule d'ADN, « codait » pour la protéine mais aussi pour l'organisme. Il y avait donc sans cesse, à la manière de Dawkins aujourd'hui, glissement entre le message quantifié, ce qui se joue autour de la structure de l'ADN et la signification biologique du message, c'est-à-dire la fabrication d'une molécule fonctionnelle pour un organisme donné dans un environnement donné. Du coup, on pouvait penser qu'il ne s'agissait que d'un jeu gratuit avec les images.
La découverte du code génétique, au début des années 1960, est pourtant un bon indice des effets de ces métaphores. Le problème du code avait été mis en forme par des biophysiciens habitués au maniement de l'information quantifiée. Des chercheurs, comme G. Gamow ou A. Kastler, avaient ainsi posé le problème de la synthèse des protéines en termes de transfert d'information : comment assurer la correspondance entre une information génétique stockée dans une séquence formée de la combinaison de quatre lettres les quatre bases de l'ADN d'un gène donné et ce qu'elle code, c'est-à-dire la séquence d'une protéine formée de l'agencement de vingt types différents d'acides aminés ? Durant la première moitié des années 1950, toutes les approches quantifiées et formelles du problème avaient échoué. La solution émergea des manipulations de macromolécules réalisées par des biochimistes comme Marshall Nirenberg et Heinrich Matthaei qui, aux National Institutes of Health, travaillaient sur la synthèse des protéines sans trop se préoccuper des théories du signal. Ils mobilisèrent cependant la rhétorique de l'information pour lire et planifier des expériences par lesquelles ils firent produire des protéines à des ARN de composition connue parce que synthétisés en tubes à essai.
Le vivant comme information est donc aussi ancien que la biologie moléculaire. En plus de cinquante ans, l'image a certes changé de sens et d'usages, mais on peut filer la comparaison entre le présent et le passé récent, c'est-à-dire entre le décryptage du code et celui du génome. On peut en effet se demander si la version présente - digitale - de l'information génétique ne procède pas d'une infrastructure pratique où ne domine plus la biochimie des protéines et des acides nucléiques mais où s'impose la conjonction du génie génétique et de la micro-informatique. Ou encore si la métaphore informationnelle ne continue pas, malgré les proclamations antiréductionnistes et les renvois à la complexité, à canaliser les questions sur les propriétés du vivant au niveau d'une grammaire des agencements de séquences.
De ce point de vue, l'évolution de la biologie du développement constitue un bon terrain d'observation. La biologie moléculaire des années 1960 et 1970 avait rêvé d'écrire une nouvelle théorie du développement centrée sur les gènes, leurs changements d'activité dans le temps et la notion de programme inscrit dans la structure des chromosomes. François Jacob écrivait ainsi dans La Logiquedu vivant : « Au coursdu développement embryonnaire sont progressivement traduites et exécutées les instructions qui, contenues dans les chromosomes de l'oeuf, déterminent quand et où se forment les milliers d'espèces moléculaires constituant le corps de l'adulte. Tout le plan de croissance, toute la série des opérations à effectuer, l'ordre et le lieu des synthèses, leur coordination, tout cela est inscrit dans le message nucléique .8 » Certains considèrent aujourd'hui que le rêve est en train de devenir réalité : toute une série de gènes impliqués dans telle ou telle étape de la différenciation cellulaire n'ont-ils pas été décrits ? Et, surtout, de nouvelles catégories de gènes - des gènes « maîtres » comme les gènes homéotiques de la mouche ou de la souris - contrôlant la formation d'organes entiers n'ont-ils pas été identifiés9 ? Leurs effets sont décrits en termes de réseaux de macromolécules, de gènes régulant l'activité d'autres gènes, d'interactions entre de multiples protéines circulant au sein et entre les cellules de l'embryon.
Observées avec le regard de l'historien, ces théories du développement appellent deux remarques. La première est que l'identification et le séquençage des « gènes du développement » sont le produit de l'extension de procédures caractéristiques de la cartographie génétique, désormais relayées ou soutenues par la capacité à synthétiser et à transférer l'ADN. La seconde remarque est que ces réseaux qualifiés d'épigénétiques révèlent un conflit classique entre perception de la complexité et réductionnisme des outils d'intervention.
Une image emblématique de cette nouvelle biologie du développement consiste en la mise en correspondance des noms de séquences de gènes, des positions sur un segment de droite symbolisant le chromosome et d'un dessin d'organisme sur lequel sont indiqués les zones et les organes dérivant de cellules où ces séquences sont activées voir figure ci-dessus. On trouve dans les textes de génétique classique des ancêtres de ce type de représentation où les facteurs héréditaires associés à telle ou telle modification morphologique couleur des yeux, forme des pattes, etc. sont alignés sur une carte chromosomique.
En écrivant l'histoire du groupe de Thomas Hunt Morgan au California Institute of Technology, l'historien Robert Kohler a montré en quoi cette représentation trouve ses racines dans un système original d'expérimentation centré sur l'obtention, la conservation, et le croisement de mutants de la mouche du vinaigre la drosophile10. Cette idée serait une banalité revenant à dire que toute expérience nécessite des moyens si Kohler n'analysait pas dans son livre toute la gamme des technologies constitutives de ce qu'il appelle un « système de production » : des technologies sociales le réseau d'échanges et les valeurs de la communauté des drosophilistes, matérielles les nouvelles souches sélectionnées pour faire de la cartographie et littéraires les tableaux visualisant bons et mauvais mutants.
On souhaiterait une analyse similaire des pratiques contemporaines. Pour décrire le « système de production » dans lequel s'inscrit l'image des gènes homéotiques et de leurs effets, il faudrait alors parler des sondes moléculaires servant à repérer les produits de l'activité des séquences, des photographies d'embryons obtenues à partir de l'utilisation de ces sondes, des souris knock-out élaborées à partir de l'injection de macromolécules susceptibles de modifier un gène de développement, des machines à séquencer et des ordinateurs qui ont permis de construire les équivalences entre un gène de souris et un gène de drosophile. Il faudrait aussi intégrer les banques de données permettant de partir « à la pêche » de séquences qui, présentant des similitudes avec celles des gènes du développement, sont décrites dans d'autres organismes ou en relation avec des phénomènes physiologiques n'ayant rien à voir avec l'embryogenèse.
La contrepartie théorique de ce système de production n'est évidemment pas tout à fait la même que le dogme des années 1960, même si le présent n'est pas loin du programme tracé par F. Jacob. Ici comme dans de nombreux domaines, y compris certaines sciences sociales, le concept de réseau a cependant pris le dessus. On en trouvera l'illustration dans les résultats de l'enquête réalisée en 1994 par la revue Science auprès de cent éminents biologistes du développement. Ces chercheurs étaient interrogés sur leur perception du domaine et les voies par lesquelles ils pensaient arriver à une explication du développement. La revue les avait laissés libres de classer d'une part les problèmes les plus importants et d'autre part ceux pour lesquels ils prévoyaient des avancées décisives dans les cinq prochaines années. Dans les deux catégories, les communications moléculaires entre cellules, le contrôle de la différenciation par des protéines contrôlant l'activité des gènes et les systèmes d'interactions entre ces macromolécules comptaient parmi les premières priorités11.
Cette biologie des réseaux, ainsi que les modélisations qui la soutiennent, suscite de nombreuses interrogations12. Pour certains, la dynamique globale des réseaux serait un leurre antiréductionniste : les seules interactions qui comptent résultent de contacts directs et il peut difficilement y avoir plus de trois ou quatre molécules impliquées. La prégnance de la notion de gène maître et des manipulations visant, en pratique, à établir une correspondance directe entre un gène et la formation d'un organe serait simplement le reflet de cette réalité. Dans ce cas, les biologistes du développement seraient dans une situation analogue à ce qu'ont vécu les biochimistes il y a quarante ans, lorsqu'on commençait à détailler les régulations métaboliques, ou les microbiologistes il y a près d'un siècle, lorsqu'on bataillait avec la variabilité des « espèces » bactériennes : ils rêvent de complexité tout en étant soumis aux impératifs réductionnistes de la manipulation efficace. D'autres considèrent, à l'inverse, que le raffinement des pratiques de modélisation permettra à court terme des ruptures qualitatives. On s'acheminerait ainsi vers une biologie « virtuelle » où la construction des organismes, le criblage des banques de séquences, les expériences où l'on laisse « tourner » un logiciel prendront une place croissante. Autrement dit, les nouvelles technologies de traitement de l'information sauveront les réseaux et, avec eux, l'innovation radicale. Quel que soit le scénario final, la dimension instrumentale apparaîtra sans doute comme cruciale. C'est déjà le cas pour d'autres domaines d'usage des séquences, en médecine notamment.
Lorsque l'on parle des conséquences des programmes génomes, de leur impact sur la vie humaine et l'industrie, la question de « l'ADN médicament » et les recherches sur la thérapie génique viennent au premier plan. Tout le problème de cette dernière est toutefois, comme l'ont récemment souligné de multiples rapports et avis, d'être encore loin de permettre d'agir sur les corps pour améliorer l'état de patients. Pourtant, force est de constater que la génomique a déjà transformé la nature des rapports entre génétique et médecine avec l'irruption de nouvelles pratiques de dépistage, centrées sur la notion de prédispositions génétiques à telle ou telle maladie. Le cancer du sein est un domaine emblématique de ces évolutions.
L'idée d'une transmission intrafamiliale de facteurs jouant un rôle dans l'apparition des cancers du sein est ancienne13. Elle était classiquement associée à la présentation d'arbres généalogiques de familles marquées par une accumulation de ce type de maladie. Après la guerre, la question était toutefois tombée dans l'oubli : les facteurs mendéliens responsables de ces concentrations familiales se révélaient trop difficiles à identifier, et, de plus, les modèles animaux suggéraient que des virus étaient responsables de cette forme de cancérogenèse. Les « gènes du cancer du sein » resurgirent donc lentement, non pas dans le cadre de la pathologie expérimentale mais dans celui de l'épidémiologie statistique.
Les programmes génome ont ensuite changé la nature des enquêtes sur les facteurs de risque du cancer du sein en faisant de cette pathologie un problème de molécules. A partir du milieu des années 1980, quelques généticiens ont ainsi commencé à collecter de l'ADN de familles « prédisposées » et à utiliser les outils de la cartographie moléculaire pour rechercher des gènes « du » cancer du sein. En 1989, un groupe californien dirigé par Mary Clair King annonçait avoir localisé sur le chromosome 17 un gène associé à une très forte probabilité de l'ordre de 90 % d'apparition d'un cancer du sein avant l'âge de 50 ans. En 1994, ce gène BRCA 1 était cloné et séquencé par un consortium de recherche associant la firme pharmaceutique Eli Lily, l'université d'Utah et Myriad Genetics, une petite compagnie de biotechnologie créée par Mark Skolnick, un chercheur de cette dernière université. Deux ans plus tard, un second gène BRCA 2 était cloné par un autre consortium, international celui-là, dominé par des laboratoires britanniques.
L'histoire et les activités de Myriad Genetics sont caractéristiques d'un cadre de développement de la médecine prédictive que l'on peut prendre pour exemple des liens entre génomique fin de siècle et réorganisation du système de recherche14. L'identification des deux gènes a rendu possible une pratique de dépistage génétique fondée sur la recherche de mutations dans BRCA1 et BRCA2. Initialement menée dans le contexte de la recherche, en lien avec la collecte des familles, cette activité de médecine prédictive a pris de l'ampleur avec Myriad, aujourd'hui en position dominante. Pourquoi ?
Myriad Genetics doit son avance dans la course au clonage de BRCA1 à une base de connaissances à l'université d'Utah, et à un accès privilégié aux généalogies des familles de Mormons et au registre du cancer de l'Utah. Cela a permis à la firme d'obtenir un brevet sur la séquence de BRCA1 couvrant tous les usages industriels imaginables de ce gène. Par la suite, Myriad réussit à racheter une licence exclusive du brevet qui protégeait les usages de BRCA2 et était détenue par une start-up concurrente Oncormed. Cette appropriation des gènes de prédisposition au cancer de sein serait toutefois de peu d'utilité sans l'infrastructure technique pour en tirer profit. Les accords passés avec l'industrie pharmaceutique ont réparti les innovations potentielles en deux catégories : Myriad vendait celles portant sur l'invention de thérapies, c'est-à-dire nécessitant des processus longs et coûteux, et se réservait la propriété de celles touchant au diagnostic génétique. Le marché du test a en effet l'avantage de permettre des retours sur investissements rapides et plus sûrs que ceux du médicament.
A partir de 1996, les dirigeants de Myriad entreprirent de profiter de leurs succès en construisant une plate-forme de séquençage faisant largement appel à l'informatique et à l'automation : ils se proposaient ainsi de réaliser dans cette « usine à tests » la recherche de mutations dans les gènes BRCA pour toutes les patientes qui en feraient la demande. Celles-ci devaient seulement envoyer à Salt Lake City, après avis médical, un prélèvement sanguin permettant l'extraction d'ADN et payer - ou faire prendre en charge - quelque deux mille dollars. Cette offre d'accès direct, contournant les centres anticancéreux, était complétée par la signature d'accords avec les organismes appelés Health Management Organization, qui jouent un rôle croissant dans la fourniture de soins aux Etats-Unis et sont, pour des raisons de gestion prévisionnelle, évidemment intéressés à connaître la population et/ou les personnes prédisposées.
Chemin faisant, l'image de la maladie a sensiblement évolué. Dans la classification présente des cancers du sein, les formes familiales ne représentent que 5 % des cas environ. Cependant la manipulation des séquences BRCA et le développement d'un marché spécifique du test ont considérablement renforcé la culture du risque génétique et la notion de prédisposition, y compris pour les formes non familiales. Les questions de normes d'accès aux tests, de l'organisation des consultations, des modalités de gestion du risque génétique, en particulier des possibilités d'une prévention au-delà de la seule pratique des examens radiographiques réguliers, sont désormais au coeur des discussions publiques sur cette pathologie. Aux Etats-Unis, on assiste ainsi à la juxtaposition de phénomènes contradictoires. Tandis qu'un nombre important de mastectomies préventives sont pratiquées après dépistage de mutations dans BRCA1 ou BRCA2, certains oncologues affichent publiquement leurs craintes quant aux effets de l'autonomisation du marché de la prédiction et s'adressent à l'Etat fédéral pour qu'il régule plus strictement l'introduction des tests génétiques.
En résumé, parler d'une nouvelle biologie pour décrire les changements récents des sciences du vivant et les effets de la recherche génomique est certainement excessif. La longue durée des biotechnologies ou de la génétique est facilement visible à l'arrière-plan de la montée en puissance de la biologie de l'information. Plutôt que des ruptures fondamentales dans les façons de voir le vivant qui sont celles de la biologie moléculaire depuis trente ou quarante ans, la génomique fin de siècle met en lumière deux types d'évolutions. D'une part celle des savoir-faire et des outils avec le développement des technologies de l'ADN et leur couplage à l'informatique. D'autre part, celle des modes d'organisation de la recherche avec une biologie souvent produite au plus près des usages et, parfois, au coeur même des marchés.
Par Jean-Paul Gaudillière
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
UN ORGANISME UNICELLULAIRE CAPABLE D'APPRENDRE |
|
|
|
|
|
Paris, 27 avril 2016
Un organisme unicellulaire capable d'apprendre
Pour la première fois, des chercheurs viennent de démontrer qu'un organisme dépourvu de système nerveux est capable d'apprentissage. Une équipe du Centre de recherches sur la cognition animale (CNRS/Université Toulouse III – Paul Sabatier) a réussi à démontrer qu'un organisme unicellulaire, le protiste Physarum polycephalum, est capable d'une forme d'apprentissage nommée habituation. Cette découverte permet d'éclairer l'origine de la capacité d'apprentissage durant l'évolution, avant même l'apparition du système nerveux et du cerveau. Elle pourrait également amener à s'interroger sur la capacité d'apprentissage d'autres organismes extrêmement simples comme les virus et les bactéries. Ces résultats sont publiés dans la revue Proceedings of the Royal Society B le 27 avril 2016.
La capacité d'apprentissage et la mémoire sont des éléments clés dans le monde animal. Tirer des leçons de ses expériences et adapter son comportement en conséquence est vital pour un animal qui vit dans un environnement fluctuant et potentiellement dangereux. Cette faculté est généralement considérée comme l'apanage d'organismes dotés d'un cerveau et d'un système nerveux. Pourtant les organismes unicellulaires doivent eux aussi s'adapter au changement. Manifestent-ils des capacités d'apprentissage ? Des bactéries ont certes une faculté d'adaptation, mais elle se produit sur plusieurs générations et relève donc plutôt de l'évolution. Une équipe de biologistes a donc cherché à apporter la preuve qu'un organisme unicellulaire pouvait apprendre. Ils ont choisi d'étudier le protiste Physarum polycephalum, une cellule géante qui vit dans les sous-bois1 et fait preuve d'étonnantes aptitudes, telles résoudre un labyrinthe, éviter des pièges ou optimiser sa nutrition2. Mais on savait très peu de choses jusqu'à présent sur sa capacité d'apprentissage.
Lors d'une expérience de neuf jours, les scientifiques ont donc confronté différents groupes de ce protiste à des substances amères mais inoffensives, qu'ils devaient traverser afin d'atteindre une source de nourriture. Un groupe était ainsi confronté à un « pont » imprégné de quinine, un autre à un pont de caféine tandis qu'un groupe témoin devait simplement passer sur un pont non imprégné. Au tout début réticents à franchir les substances amères, les protistes ont appris au fur et à mesure des jours qu'elles étaient inoffensives et les ont traversées de plus en plus rapidement, se comportant au bout de six jours de la même façon que le groupe témoin. La cellule a donc appris à ne plus craindre une substance inoffensive après y avoir été confrontée à plusieurs reprises, un phénomène que les scientifiques nomment habituation. Au bout de deux jours sans contact avec la substance amère, le protiste retrouve son comportement initial de méfiance. Par ailleurs, un protiste habitué à la caféine manifeste un comportement de défiance vis-à-vis de la quinine, et inversement. L'habituation est donc bien spécifique à une substance donnée.
L'habituation est une forme d'apprentissage rudimentaire qui a été caractérisée chez l'aplysie (un invertébré aussi appelé lièvre de mer)3. Cette forme d'apprentissage existe chez tous les animaux, mais n'avait encore jamais été trouvée chez un organisme dépourvu de système nerveux. Cette découverte chez un protiste, lointain cousin des plantes, champignons et animaux, apparu sur Terre environ 500 millions d'années avant l'homme, permet de mieux comprendre les origines de l'apprentissage, qui précède de loin celles des systèmes nerveux. Elle ouvre également la possibilité de rechercher des types d'apprentissage chez d'autres organismes très simples comme les virus ou les bactéries.
DOCUMENT cnrs LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|