|
|
|
|
|
|
EPIGÉNÉTIQUE |
|
|
|
|
|
Epigénétique
Dossier réalisé en collaboration avec Déborah Bourc'his, unité Inserm 934/CNRS UMR 3215/Université Pierre et Marie Curie, Institut Curie, Paris – février 2015
Chacune de nos cellules contient l’ensemble de notre patrimoine génétique : 46 chromosomes hérités de nos parents sur lesquels on compte environ 25 000 gènes. Mais si toutes nos cellules contiennent la même information, elles n’en font visiblement pas toutes le même usage : une cellule de la peau ne ressemble en rien à un neurone, une cellule du foie n’a pas les mêmes fonctions qu’une cellule du cœur. De même, deux jumeaux qui partagent le même génome ne sont jamais parfaitement identiques ! Dans ces exemples et dans bien d’autres, la clé du mystère se nomme "épigénétique".
Alors que la génétique correspond à l’étude des gènes, l’épigénétique s’intéresse à une "couche" d’informations complémentaires qui définit comment ces gènes vont être utilisés par une cellule… ou ne pas l’être. En d’autres termes, l’épigénétique correspond à l’étude des changements dans l’activité des gènes, n’impliquant pas de modification de la séquence d’ADN et pouvant être transmis lors des divisions cellulaires. Contrairement aux mutations qui affectent la séquence d’ADN, les modifications épigénétiques sont réversibles.
Les gènes dans tous leurs états
Actif ou inactif, allumé ou éteint, exprimé ou réprimé : différents champs sémantiques sont couramment utilisés pour définir l’état d’un gène. Ils font tous référence au même phénomène : un gène est un segment d’ADN qui contient l’information nécessaire à la synthèse d’une ou de plusieurs molécule(s) qui constitue(nt) l’organisme. Le gène est dit actif/allumé/exprimé lorsque cette synthèse a lieu. Sinon, il est inactif/éteint/réprimé. Mais évidemment, l’expression génétique n’est pas un processus fait de noir et blanc : il existe plein de niveau gris, avec par exemple des gènes très actifs, surexprimés (synthèse importante) ou encore partiellement réprimés (synthèse très faible)…
Des changements liés à l’environnement
Les modifications épigénétiques sont induites par l’environnement au sens large : la cellule reçoit en permanence toutes sortes de signaux l’informant sur son environnement, de manière à ce qu’elle se spécialise au cours du développement, ou ajuste son activité à la situation. Ces signaux, y compris ceux liés à nos comportements (alimentation, tabagisme, stress…), peuvent conduire à des modifications dans l’expression de nos gènes, sans affecter leur séquence. Le phénomène peut être transitoire, mais il existe des modifications épigénétiques pérennes, qui persistent lorsque le signal qui les a induites disparaît.
Concrètement, ces modifications sont matérialisées par des marques biochimiques, apposées par des enzymes spécialisées sur l’ADN ou sur des protéines qui le structurent, les histones (voir encadré ci-dessous). Les marques les mieux caractérisées sont les groupements méthyle (CH3 : un atome de carbone et trois d’hydrogène) apposés sur l’ADN, ainsi que diverses modifications chimiques des histones (méthylation, acétylation…).
Pour qu’un gène conduise à la synthèse d’une molécule, il doit être lisible, c’est-à-dire accessible à différents complexes protéiques qui interviennent dans ce processus. Les marques de méthylation localisées sur l’ADN vont le plus souvent obstruer les aires d’arrivée de ces complexes protéiques, conduisant ainsi à l’inactivation des gènes concernés. Les marques apposées sur les histones modifient quant à elles l’état de compactage de la molécule d’ADN, favorisant ou au contraire limitant l’accessibilité aux gènes.
Des gènes en bobine
Nos 46 chromosomes représentent 2 mètres d’ADN ! Comment les faire tenir dans le noyau d’une cellule qui mesure 10 à 100 µm de diamètre ? La solution est le compactage: la molécule d’ADN s’enroule d’abord régulièrement autour de complexes formés par des protéines nommées histones. Les structures ainsi constituées, les nucléosomes, s’enroulent ensuite sur elles-mêmes de manière plus ou moins "serrée", formant ainsi des fibres de chromatine plus ou moins denses.
Lorsque la chromatine est très dense (hétérochromatine, compactage élevé de l’ADN), les gènes ne sont pas accessibles et donc pas exprimés. Les zones de la chromatine peu condensée (euchromatine) sont en revanche accessibles aux complexes enzymatiques qui permettent l’expression des gènes. Des modifications épigénétiques qui affectent les histones permettent à la chromatine de passer de l’un à l’autre de ces états.
D’autres systèmes de régulation épigénétique existent, en particulier des systèmes mettant en jeu des petites molécules d’ARN. Sans parler de tous les mécanismes que l’on ne connait pas encore !
En résumé, si le chromosome est la bande magnétique d’une cassette et que chaque gène correspond à une piste enregistrée sur la bande, les modifications épigénétiques sont des morceaux de ruban adhésif repositionnables qui vont masquer ou démasquer certaines pistes, les rendant illisibles ou lisibles.
Des marques transmissibles
Les marques épigénétiques, bien que réversibles, sont transmissibles au cours des divisions cellulaires. Ce phénomène est particulièrement important au cours dudéveloppement embryonnaire. Au sein de l’embryon, les cellules sont au départ toutes identiques. Elles vont rapidement recevoir des signaux très orchestrés les conduisant à activer ou inactiver certains de leurs gènes pour se différencier en telle ou telle lignée cellulaire et construire l’organisme. Les marques épigénétiques alors mises en place doivent se transmettre au cours des divisions cellulaires, pour qu’une cellule de foie reste une cellule de foie et une cellule osseuse une cellule osseuse.
Certaines marques épigénétiques pourraient même passer à la descendance. La transmission intergénérationnelle de marques matérialisées par la méthylation de l’ADN est très documentée chez les plantes. Chez les mammifères, l’étude du phénomène est beaucoup plus complexe et fait encore l’objet de controverses. La formation des gamètes (ovules et spermatozoïdes) puis celle de l’embryon impliquent en effet chacune un effacement des marques épigénétiques : cette "remise à zéro" est nécessaire à la spécialisation des gamètes puis à la pluripotence (capacité à se différencier en n’importe quel type cellulaire) des toutes premières cellules de l’embryon. Toutefois, des gènes semblent y échapper.
Un exemple est celui du gène agouti, impliqué dans la détermination de la couleur du pelage chez la souris : dans un groupe d’animaux portant tous la même version de ce gène, certains ont un pelage brun chiné et d’autre un pelage jaune. Ces derniers ont en outre une susceptibilité accrue à l’obésité, au diabète et à certains cancers. Qu’est-ce qui les différencie ? Il ne s’agit pas d’une mutation affectant la séquence de leur ADN, mais bien d’une marque épigénétique portée par les souris brunes, qui éteint le gène agouti. Or on observe que la proportion de souriceaux bruns est plus importante dans la descendance des mères brunes que dans celle des mères au pelage jaune : ceci suggère que les mères brunes peuvent transmettre à leur descendance la marque épigénétique qui éteint le gène agouti.
Autre exemple, celui des gènes soumis à "l’empreinte parentale". Nous possédons chacun de nos gènes en deux copies, l’une transmise par notre mère, l’autre par notre père. Mais pour une poignée d’entre eux, une seule des copies est utilisée : la méthylation de l’ADN a éteint l’autre copie de manière indélébile, soit dans le spermatozoïde du père, soit dans l’ovule de la mère. Cette mémoire parentale épigénétique est transmise à la descendance au moment de la fécondation et elle est maintenue tout au long de la vie. Toutefois, elle s’efface dans les gamètes de l’individu, de manière à des marques de méthylation soit ré-établies en fonction de son sexe, dans ses spermatozoïdes ou ses ovules.
De la nécessité de faire taire un X
Un autre phénomène épigénétique bien décrit concerne l’inactivation du chromosome X chez les mammifères femelles. Alors que les cellules des mâles compte un seul chromosome X (accompagné d’un chromosome Y), les cellules des femelles en portent deux. Si les gènes des deux exemplaires du chromosome X s’expriment au cours du développement, l’embryon meurt très vite, "intoxiqué" par une double dose des protéines. C’est pourquoi un mécanisme épigénétique conduit à la mise sous silence d’un des deux chromosomes X dans les cellules femelles.
Ce mécanisme intervient tôt dans le développement embryonnaire et reste stable tout au long des divisions cellulaires. Toutefois, ce n’est pas toujours le même chromosome X qui sera éteint dans les cellules de l’embryon précoce. Ainsi, dans l’organisme femelle, une partie des cellules expriment les gènes du chromosome X d’origine maternelle, l’autre ceux du chromosome X d’origine paternelle.
Epigénétique et maladies
Il est désormais largement admis que des anomalies épigénétiques contribuent au développement et à la progression de maladies humaines, en particulier de cancers. Les processus épigénétiques interviennent en effet dans la régulation de nombreux évènements tels que la division cellulaire, la différenciation (spécialisation des cellules dans un rôle particulier), la survie, la mobilité… L’altération de ces mécanismes favorisant la transformation des cellules saines en cellules cancéreuses, toute aberration épigénétique peut être impliquée dans la cancérogenèse.
Des anomalies épigénétiques activant des oncogènes (gènes dont la surexpression favorise la cancérogenèse) ou inhibant des gènes suppresseurs de tumeurs ont pu être mises en évidence. De même, des mutations affectant des gènes codant pour les enzymes responsables des marquages épigénétiques ont été identifiées dans des cellules tumorales. Reste à savoir si ces phénomènes sont la cause ou la conséquence du développement de cancer. Il semble néanmoins qu’ils participent à la progression tumorale (évolution du cancer).
Certains syndromes héréditaires résulteraient eux-aussi de mutations dans les gènes codant pour la machinerie épigénétique. C’est le cas du syndrome ICF (pour Immuno-déficience combinée, instabilité de l'hétérochromatine paraCentromérique et dysmorphie Faciale), qui est lié à des mutations dans une enzyme de méthylation de l’ADN (l’ADN méthyltransférase).
Par ailleurs, le rôle de l’épigénétique est soupçonné et très étudié dans le développement et la progression de maladies complexes et multifactorielles, comme les maladies neurodégénératives (Alzheimer, Parkinson, sclérose latérale amyotrophique, Huntington…) ou métaboliques (obésité, diabète de type 2…). De nombreuses études épidémiologiques suggèrent en outre l’existence de liens entre diverses expositions au cours de la vie intra-utérine (voire dès la fécondation) et la survenue de maladies chroniques à l’âge adulte. L’épigénétique pourrait expliquer ces liens : des erreurs épigénétiques intervenant au cours du développement embryonnaire peuvent par exemple conduire à la formation d’un nombre insuffisant de néphrons (unité tissulaire du rein) ou de cellules bêta du pancréas, conférant un risque accru d’hypertension ou de diabète à l’âge adulte. Une hypothèse qu’il reste à confirmer en mettant en évidence les changements épigénétiques associés.
De la même manière que l’on sait aujourd’hui obtenir la séquence d’un génome complet, il est aussi possible de connaître l’ensemble des modifications épigénétiques qui le caractérise : on parle d’épigénome. C’est ce type d’approche globale et non biaisée qui permettra de mieux appréhender l’implication de l’épigénétique dans les maladies humaines.
Epigénétique et thérapie : l’arrivée des "épimédicaments"
Si les marques épigénétiques sont réversibles, il doit être possible de corriger celles qui posent problème, en particulier celles associées à des maladies. Cette idée a conduit au développement de médicaments qui agissent sur les mécanismes épigénétiques pour éliminer les marquages anormaux. On parle d’"épidrogues" ou d’"épimédicaments". Deux principales familles de molécules ont été développées jusqu’ici :
* celle des agents qui inhibent la méthylation de l’ADN (inhibiteurs des ADN méthyltransférases ou DNMTi),
* celle des agents qui ciblent la modification des histones (inhibiteurs des déacétylases d’histone ou HDACi).
Les molécules qui existent aujourd’hui manquent encore de spécificité d’action, ce qui les rend rapidement toxiques pour l’organisme des patients. Mais de nombreux autres épimédicaments sont en cours de développement. De plus, en associant un épimédicament à d’autres approches thérapeutiques, il sera peut-être possible d’en retirer un bénéfice clinique tout en limitant les doses administrées, et donc les effets secondaires.
DOCUMENT inserm LIEN |
|
|
|
|
|
|
CERVEAU VIRTUEL |
|
|
|
|
|
Human Brain Project : la course au cerveau virtuel est lancée
Par Elena Sender le 07.10.2013 à 17h12, mis à jour le 07.10.2013 à 17h15
Top départ pour le Human Brain Project demain à Lausanne. Retrouvez le reportage de Sciences et Avenir à Neuropolis où les chercheurs veulent créer une version numérique du cerveau humain.
Sciences et Avenir vous propose de retrouver le reportage d'Elena Sender, envoyée spéciale à Lausanne, qui était paru dans le numéro 790 de décembre 2012.
FUTURISTE. Pour l'instant, ce n'est qu'un pré sur le campus de l'École polytechnique fédérale de Lausanne (EPFL), face au lac Léman, avec vue imprenable sur les Alpes suisses. Dans quatre ans, s'élèvera un bâtiment futuriste de 30.000 m2 d'une valeur de 100 millions de francs suisses (83 millions d'euros) qui abritera un projet exceptionnel baptisé Neuropolis, voulu conjointement par l'EPFL, les universités de Lausanne et de Genève ainsi que les autorités politiques suisses : le futur " Cern " du cerveau, à l'image du grand centre de recherche consacré à la physique des particules, à la frontière franco-suisse.
Il faut en effet imaginer un complexe de simulation faisant " mouliner " jour et nuit un supercalculateur effectuant 1018 opérations à la seconde, avec l'ambition de faire " vivre " un cerveau virtuel ! Nourri par toutes les données disponibles de la neurophysiologie, mais aussi de l'imagerie médicale de pointe, cet encéphale – lorsqu'il sera achevé – réagira (presque) comme un vrai.
JOYSTICK. Imaginons le chercheur dans la salle des commandes telle qu'elle se présentera en 2016 lorsque Neuropolis sera opérationnel : il siégera face à des écrans géants projetant des images cérébrales exceptionnelles. D'un mouvement de joystick, il naviguera dans le tissu virtuel, se promènera entre les neurones, zoomera sur une connexion, pointera un canal ioniqueou une synpase pour y observer les échanges de neuromédiateurs. Selon les besoins de son étude, il enverra un influx électrique ici ou là et regardera le système nerveux réagir en temps réel. Dans un bureau attenant, une équipe de recherche s'apprêtera, quant à elle, à tester un " candidat médicament " modélisé en 3D sur un modèle de cerveau malade d'Alzheimer tandis qu'une autre équipe étudiera, par exemple, le câblage neuronal dans la schizophrénie. Venus du monde entier, des chercheurs disposeront de la plateforme de simulation pour éprouver leurs hypothèses, leurs molécules, leurs traceurs… Le rêve d'un cerveau in silico (voir l'encadré "Repères"), ouvert à tous, est en passe de devenir réalité.
"Être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine ?"
L'idée de ce projet hors normes a germé sur le campus, à une centaine de mètres de là, au
deuxième étage d'un bâtiment métallique aux modules rouge, orange et gris, dans le bureau de Patrick Aebischer, président de l'EPFL depuis 2000. Avant son arrivée, l'École polytechnique n'avait jamais vu le museau d'une souris dans ses laboratoires. C'est ce neurobiologiste qui y a imposé la recherche et l'enseignement en sciences de la vie.
" En dix ans, nous avons embauché 55 professeurs de biologie parmi les meilleurs ", raconte fièrement l'homme fort de l'école. Ce qui, il ne s'en cache pas, " a suscité énormément de débats ". Cet entrepreneur, manager " à l'américaine " – il a travaillé pendant huit ans à l'université Brown aux États-Unis – voit grand. Bras croisés, ponctuant ses phrases d'expressions anglaises, il souhaite créer " a big science " pour la biologie.
« Comme les astronomes ont leur grand télescope, les physiciens leur accélérateur de particules, les biologistes doivent avoir leur plateforme de simulation du vivant » - Patrick Aebischer.
Le patron de l'EPFL se penche sur une table basse dont le plateau n'est autre qu'une photo aérienne du campus, et pointe du doigt un carré inoccupé : " Ce sera ici, à
Neuropolis. "
"PATCH-CLAMP". Tout a commencé en 2001, lorsque Patrick Aebischer a rencontré Henry Markram, neurophysiologiste sud-africain, passé maître dans l'art du patch-clamp (la mesure des paramètres électrophysiologiques) des neurones. " Henry a deux cerveaux, rapporte Patrick Aebischer. Celui de l'expérimentateur et celui de l'informaticien, persuadé que le futur des neurosciences passe par la simulation. " Après avoir travaillé à l'Institut Weizmann, à Rehovot (Israël), et aux National Institutes of Health, à Bethesda (États-Unis), puis à l'Institut Max-Planck pour la recherche médicale à Heidelberg (Allemagne), Henry Markram est alors sur le point de signer un contrat en or au Massachusetts Institute of Technology (États-Unis). " Je lui ai posé la question de savoir s'il préférait être un petit poisson dans une grande piscine ou un gros poisson dans une petite piscine ", se souvient Patrick Aebischer, l'œil malin. Et le tout nouveau patron de l'EPFL a attrapé Markram dans ses filets, lui donnant carte blanche et un gros budget. Celui-ci lance alors son projet Blue Brain, la simulation numérique du fonctionnement cérébral, l'EPFL lui apportant la pièce maîtresse sur un plateau : " Nous avons acheté Blue Gene, puissant supercalculateur ", raconte Patrick Aebischer.
Pour se faire une idée des capacités de Blue Gene. Damien Hypolite pour Sciences et Avenir.
Installé en 2005, l'ordinateur fait depuis tourner l'ensemble du programme. En 2011, nouveau bond en avant. L'équipe s'associe à 120 autres laboratoires de 22 pays et devient le consortium Human Brain Project (HBP). Le HBP décide alors de concourir dans un appel à projets du programme Future and Emerging Technologies Flagship Initiatives, lancé par l'Union européenne pour aider le projet scientifique le plus prometteur pour les dix ans à venir. Avec, à la clé, une subvention colossale d'un milliard d'euros ! Fin 2012, HBP figure parmi les six derniers projets en lice, le gagnant devant être désigné au cours de 2013 (le HBP a effectivement été désigné en janvier de cette année co-lauréat de la bourse de l'Union Européenne).
Le calculateur Blue Gene a simulé la première colonne corticale de souris dès 2008
Pour rencontrer le créateur de Blue Brain, il faut marcher dix minutes, sous la pluie, à
travers le campus en chantier. On croise sur le chemin deux énormes grues qui réduisent à néant un building, celui-ci devant être remplacé d'ici à deux ans par le nouveau Centre de neuroprothèses. Viendront s'y installer le laboratoire du Français Grégoire Courtine, dont les équipes ont fait remarcher des souris paraplégiques ; celui de l'Espagnol José Milan, spécialiste des interfaces homme-machine ; ou encore celui de l'Allemand Olaf Blanke, qui travaille sur les illusions produites par le cerveau.
PUIT DE LUMIÈRE. Le QG de Henry Markram apparaît enfin. Un cube blanc, percé d'un puits de lumière. Chemise claire à petits motifs, yeux bleus perçants, le chercheur est habité par son sujet. De sa voix monocorde, il raconte comment la compréhension du cerveau l'a toujours obsédé : " Mon désir est de partir du cerveau entier puis de descendre jusqu'au niveau des neurones, à celui des cellules uniques, puis des canaux ioniques, des protéines et des gènes. " Pour cela, une seule méthode : l'agrégation de toutes les connaissances disponibles dans un seul et même modèle. " 60.000 articles de neurosciences sont publiés chaque année, note-t-il. Il y a trop d'informations pour qu'elles puissent être digérées. La seule façon de progresser est d'intégrer systématiquement toutes ces données sous forme numérique pour créer un modèle le plus complet possible. Cela aidera aussi les chercheurs à repérer les manques et les contradictions dans leurs connaissances et identifier les expérimentations nécessaires pour les combler. " Intégrer la complexité, telle est l'idée maîtresse du projet.
Ci-dessous, une interview d'Henry Markram, de juin 2012.
Vers un cerveau artificiel à Neuropolis... par sciencesetavenir
En 2008, le calculateur Blue Gene a fait ainsi " tourner " la première colonne corticale (voir Repères) de souris, un réseau vertical de 10.000 neurones. Cette année, 60 colonnes corticales interconnectées ont été modélisées grâce à la version la plus avancée du supercalculateur, d'une puissance de 54 téraflops (54 x 1012 opérations/s). Il s'agit maintenant de construire 10 000 autres colonnes jusqu'à simuler un cerveau de souris entier, et ses 100 millions de neurones. Ce qui demandera une puissance de calcul de un pétaflop (1015), à l'horizon 2014. Puis, l'équipe s'attellera à l'ultime tâche. Faire de même avec le cerveau humain, vers 2023, ce qui exigera un exaflop (1018).
"SALLES DES MACHINES". Pour comprendre concrètement comment ça marche, il faut pousser la porte de la " salle des machines ", le laboratoire. Ici, une quinzaine de jeunes chercheurs de 12 pays sont à l'œuvre. Le Danois Jesper Ryge place un échantillon de cerveau de souris sous un étrange microscope, encerclé par une couronne de seringues, le fameux patch-clamp, cher à Henry Markram.
" On stimule l'échantillon avec une électrode, explique-t-il, puis on enregistre les réponses électriques de chaque neurone. " À côté, sur un écran, on peut voir les neurones " répondre " à la stimulation électrique par des tracés rouges réguliers qui s'affichent en temps réel. Une fois des milliers d'enregistrement réalisés, les chercheurs sont en mesure de passer à la modélisation. Là, les biologistes cèdent la place aux physiciens et aux mathématiciens.
" Nous simulons la biophysique des cellules nerveuses, expose l'Allemand Felix Schürmann, physicien, auparavant à l'université de Heidelberg, et désormais bras droit de Henry Markram. Cela signifie que nous décrivons la physique des propriétés électriques des neurones, comme la propagation des courants et du voltage à travers l'arbre dendritique (voir Repères) des neurones, avec différentes équations. Les paramètres de ces équations ayant été extraits de données expérimentales décrites dans de multiples publications. "
CORTEX. Tandis que l'activité intime du neurone est simulée artificiellement, d'autres chercheurs reproduisent sa morphologie. Il existe, en effet, quelque 200 types différents de neurones dans le cortex. C'est ainsi, en agrégeant les données issues de près de 20.000 expérimentations sur vingt ans, que l'équipe a réussi à reconstituer en 3D la cartographie précise d'une petite portion de cortex de souris avec ses caractéristiques physiologiques, géométriques et ses connexions.
" Il faudrait des décennies, voire un siècle, pour cartographier un cerveau entier avec les connexions précises. Il y a en effet 3000 routes différentes possibles pour chaque neurone. On ne peut les explorer toutes ! " reconnaît Henry Markram qui, heureusement, a trouvé le moyen d'accélérer son travail de bénédictin grâce à une découverte publiée dans les Pnas en août 2012. L'équipe a tenté une expérience en positionnant 298 neurones virtuels de différents types selon la disposition et la répartition observées dans un échantillon de cortex vivant. Puis elle a " lancé la machine " et laissé les neurones se connecter comme bon leur semblait ! Résultat ? En comparant l'organisation virtuelle obtenue et le circuit cortical réel de la souris, les chercheurs ont observé une chose extraordinaire : de 75 % à 95 % des points de connexions étaient similaires. " Ça a été un choc, assure Henry Markram. Cela signifie que l'on peut prédire les schémas de connexions synaptiques [le connectome, voir Repères] à partir du moment où la composition et la répartition des neurones du cortex sont connues. "
"BAT LAB". Mais pour construire le futur modèle de cerveau, il n'y a pas que les observations tirées du patch-clamp qui comptent. En cela, une autre branche de Neuropolis va être d'une grande aide. Pour la découvrir, il faut se rendre cette fois aux hôpitaux universitaires de Genève, à trois quarts d'heure de train du campus. Là aussi les grues s'activent. Un nouveau bâtiment, le Bat Lab, va bientôt sortir de terre, au sixième étage duquel s'installera le nouvel Institut d'imagerie moléculaire translationnelle.
Cette unité, placée sous l'égide du professeur Osman Ratib, spécialiste d'imagerie moléculaire, sera un satellite de Neuropolis. Objectif ? " Nous développons des nouveaux outils diagnostiques mais aussi thérapeutiques pour voir les molécules agir dans le cerveau animal, explique Osman Ratib. Nous cherchons par exemple des biomarqueurs spécifiques à certaines sous-catégories de tumeurs cérébrales pour mettre au point des thérapies personnalisées et prédire la réponse au traitement. " Tous ces résultats sont déjà – et seront encore davantage – injectés dans le cerveau virtuel du campus de Lausanne. Dans le cadre de Neuropolis, l'équipe d'Osman Ratib va d'ailleurs se focaliser sur la modélisation d'un cerveau vieillissant et sur les effets des maladies neurodégénératives. Ici aussi, on mise sur la bourse européenne du HBP.
Trop complexe pour certains, le HBP a suscité la polémique
Un autre médecin-chercheur britannique attend beaucoup de Neuropolis. C'est le professeur Richard Frackowiak, spécialiste de l'imagerie clinique au Centre hospitalier universitaire vaudois de Lausanne, autre satellite du projet. Lui, travaille sur le cerveau humain malade. Il est sûr que la méthode de neuro-sciences intégrée " à la Markram " est la solution pour avancer dans la compréhension de maladies comme Alzheimer. " Pour l'instant, on est dans l'impasse car on se focalise sur des petites parties du problème comme les plaques amyloïdes. Grâce au modèle global, nous allons prendre la maladie dans son ensemble. Il en émergera une véritable théorie du cerveau sain mais aussi du cerveau malade. "
"TROP COMPLEXE". Même si cette approche n'est pas partagée par toute la communauté scientifique, des voix s'élevant en Suisse comme ailleurs contre cette démarche jugée " trop complexe ". De fait, dans un article paru dans Nature en février 2012, le HBP a suscité la polémique. Rodney Douglas codirecteur de l'Institut de neuro-informatique de Zurich (Suisse), y exprime son inquiétude : " Nous avons besoin de variance en neurosciences, nous avons besoin de personnes qui expriment des idées différentes, une diversité qui peut être menacée si autant d'argent est consacré à un seul projet. "
Sollicité par courriel, Rodney Douglas n'a cependant pas souhaité répondre à nos questions, préférant jouer l'apaisement. " Clairement, je ne suis pas d'accord avec Henry sur certains problèmes. Néanmoins, il demeure mon collègue et il est regrettable que nos désaccords scientifiques soient polarisés dans la presse. " Il n'empêche : certains scientifiques pensent effectivement que le modèle Blue Brain, trop fourni et détaillé, ne sera pas forcément plus facile à comprendre qu'un cerveau réel. La question qui se pose : que va nous montrer un modèle complexe ? Ou encore, la modélisation du vivant est-elle là pour prédire – comme Blue Brain – ou pour faire comprendre des phénomènes ? Car, s'il s'agit de comprendre, ne vaut-il pas mieux avoir un système simplifié avec un minimum de données à faire varier ?
" Aujourd'hui, nous possédons les mathématiques qui correspondent à cette complexité, il faut cesser d'en avoir peur ", rétorque Richard Frackowiak. Patrick Aebischer, lui, estime que les débats sont sains. " La “grande science” a toujours évolué à travers de grands débats, comme pour le séquençage du génome qu'on estimait impensable. " Quant à Henry Markram, il joue la conciliation, affirmant que " notre plateforme sera ouverte à toutes les propositions ".
REPÈRES. Canal ionique : protéine transmembranaire qui permet le mouvement des ions, créant des courants électriques. Neuromédiateur : molécules chimiques libérées par les neurones et agissant au niveau des synapses. In silico : effectué avec l'outil informatique. La bio-informatique correspond à l'approche in silico de la biologie traditionnelle. Colonne corticale : groupe de 10 000 neurones environ situés dans le cortex cérébral qui forme une unité fonctionnelle. Il en existe environ 100.000 dans le cerveau humain. Arbre dendritique : les dendrites (fibres réceptrices des neurones) peuvent former une arborescence très dense. Connectome : carte complète des connexions dans le cerveau.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
|
|
LES TESTS GÉNÉTIQUES |
|
|
|
|
|
Les tests génétiques
Dossier réalisé en collaboration avec le Pr François Eisinger, onco-généticien et membre du comité d'éthique Inserm – Mai 2015
De nombreux tests génétiques apportent des informations relatives à la santé des individus ou à celle de leur famille. Ces tests consistent à rechercher des anomalies sur la molécule d’ADN elle-même, ou à dépister des anomalies concernant le nombre ou la forme des chromosomes. Il faut distinguer les tests qui apportent des informations sur le patrimoine génétique transmissible, présent dans toutes les cellules de l’organisme (génétique constitutionnelle), et les tests qui informent sur l’état du génome de cellules tumorales (génétique somatique). En outre, d’autres tests permettent d’obtenir des informations sur la réponse à un traitement ou sur les risques d’effets secondaires (pharmacogénomique).
Les tests de génétique constitutionnelle
Les tests de génétique constitutionnelle (ou héréditaire) reposent sur l’étude du patrimoine génétique d’une personne, le plus souvent à partir d’une prise de sang. Ils peuvent être réalisés avant la naissance (test prénatal) ou après, à n’importe quel âge (test postnatal).
En 2013, des tests concernant plus de 1 500 maladies génétiques étaient disponibles et plus de 500 000 tests postnataux de génétique constitutionnelle ont été réalisés (incluant les tests de pharmacogénomique). Toutefois, une part importante des analyses étaient consacrées à deux maladies : l’hémochromatose et la thrombophilie non rare.
Une pratique encadrée par la loi de bioéthique
Des règles de bonne pratique concernant l’utilisation de ces tests et l’information à délivrer aux patients et à leur famille sont prévues par la loi de bioéthique et recommandées par l’Agence de biomédecine et la Haute autorité de santé.
En France, ces tests sont toujours effectués dans un cadre médical, avec une consultation en génétique permettant d’éclairer le patient et sa famille sur l’intérêt du test et sur les conséquences éventuelles de son résultat (risque pour la descendance, pronostic vital menacé, suivi thérapeutique à mettre en place, interruption médicale de grossesse...).
Ces tests sont envisagés dans trois situations :
Le diagnostic de maladies génétiques
Un test génétique diagnostic est effectué en cas de symptôme pouvant évoquer une maladie génétique. Le test est alors associé à des examens complémentaires et permet souvent de mettre fin à l’errance diagnostique. La rapidité et les chances de succès du test varient en fonction du nombre de modifications génétiques, et surtout de gènes associés à la maladie : ces tests sont utilisés pour le diagnostic de maladies monogéniques (liées à des anomalies affectant un seul gène), dont le gène causal est identifié (mucoviscidose, hémochromatose héréditaire ou encore polypose colique familiale).
Les tests génétiques diagnostics peuvent être pratiqués chez des enfants et des adultes, mais également chez des fœtus si l’anomalie recherchée a déjà été identifiée chez un parent ou si une symptomatologie évoquant un trouble génétique a été dépistée au cours du développement fœtal, comme en cas de trisomie 21. En 2012, des tests génétiques prénataux ont été réalisés chez plus de 41 000 fœtus.
Génétique prénatal : l’analyse de l’ADN fœtal circulant dans le sang maternel change la donne
Il est désormais possible d’analyser des fragments d’ADN fœtal présents dans le sang de la mère et récoltés à partir d’une simple prise de sang chez cette dernière. Cette pratique constitue un progrès important car elle évite des prélèvements invasifs et leurs risques.
Deux tests sont déjà proposés en routine avec cette méthode : la détermination du sexe de l’enfant dans le cadre d’un diagnostic prénatal de maladies associées au chromosome X et la détermination du rhésus fœtal lorsque la mère est rhésus négatif. Le dépistage de la trisomie 21 par cette technique commence également à être proposé à certaines femmes et le nombre d’indications devrait rapidement progresser. Toutefois, l’Agence de biomédecine se dit vigilante sur le plan éthique, compte tenu des dérives possibles à venir, liées à la facilité d’analyse de l’ADN fœtal par cette méthode.
Des tests génétiques peuvent également être effectués chez des personnes ne présentant aucun symptôme, mais ayant un risque d’être porteurs d’une mutation associée à une maladie grave et désirant concevoir un enfant. Le résultat du test permet alors d’évaluer le risque de transmettre la maladie à sa descendance.
Le diagnostic préimplantatoire
Un couple susceptible de transmettre une maladie génétique grave à sa descendance peut demander un test génétique préimplantatoire. Ce test consiste à rechercher l’anomalie génétique dans le génome d’embryons conçus par fécondation in vitro, avant implantation dans l’utérus de la mère.
La maladie recherchée doit présenter un risque élevé de transmission (25 à 50% de risque), être grave et incurable. Des dizaines de maladies répondent à ces critères.
L’Agence de biomédecine suit l’activité des laboratoires effectuant des diagnostics préimplantatoires en France, à Paris, Montpellier, Strasbourg ou encore Nantes. En 2012, 464 couples ont été éligibles à un diagnostic préimplantatoire et 91 enfants sont nés après sélection d’embryons sains.
Le diagnostic de maladies pré-symptomatique (tests prédictifs)
Pour les maladies monogéniques :
Les tests génétiques prédictifs sont effectués chez des personnes qui ne présentent aucun symptôme, afin de prédire le risque de développer ultérieurement une maladie. Ces tests peuvent être hautement prédictifs : dans le cas de la maladie de Huntington, par exemple, la mutation cherchée est une condition nécessaire et suffisante pour développer la maladie.
Pour les maladies multifactorielles :
Il existe des tests prédictifs en cancérologie, notamment proposés lorsqu’une mutation a déjà été identifiée dans la famille. Ces tests apportent une indication concernant le risque de développer la maladie, mais en aucun cas une certitude : les facteurs environnementaux et personnels contribuent largement à la survenue d’un cancer, et les mutations génétiques recherchées lors de ces tests ne sont ni nécessaires, ni suffisantes à l’apparition d’un cancer.
Ainsi, lorsqu’une personne est porteuse d’une mutation sur le gène BRCA1 ou le gène BRCA2, son risque de développer un cancer du sein avant 70 ans est de 40 à 85%, alors qu’il est de 10% dans la population générale. Concernant le cancer de l’ovaire, le risque est de 10 à 60%, contre 1% dans le reste de la population. L’identification de cette susceptibilité permet une surveillance plus précoce et plus rigoureuse des sujets à risque (l’ablation des seins est parfois choisie par les patientes et l’ablation des ovaires recommandée en fonction de l’âge et du projet parental). De même, un test de susceptibilité aux cancers colorectaux héréditaires sans polypose(HNPCC ou syndrome de Lynch) est également disponible. Les personnes présentant une mutation de l’un des gènes de la famille MMR ont 40 à 70% de risque de développer un cancer colorectal avant l’âge de 70 ans.
D’autres tests sont disponibles pour des cancers du rein, des cancers plus rares comme le rétinoblastome, ou encore des néoplasies endocriniennes… Le nombre de tests prédictifs en cancérologie devrait progresser dans les années à venir, en raison de la découverte permanente de nouveaux gènes de susceptibilité associés aux différents cancers. A terme, la possibilité d’effectuer ces tests devrait s’ouvrir au plus grand nombre compte tenu des progrès techniques et de la baisse des coûts. Mais ils devront toujours être réalisés dans le cadre d’un conseil médical et d’une information préalable sur les conséquences possibles en fonction des résultats.
Pour d’autres maladies multifactorielles ayant une composante génétique, comme l’asthme, le diabète ou bien d’autres, aucun test génétique prédictif n’est disponible à ce jour. Plusieurs gènes de susceptibilité à ces maladies ont pourtant été découverts au cours des dernières années. Mais la valeur prédictive des variants identifiés est beaucoup trop faible pour avoir une signification clinique sur le risque de développer la maladie. Cette situation pourrait néanmoins évoluer dans le futur, par exemple en associant plusieurs variants génétiques et en intégrant des données biologiques pour augmenter la valeur prédictive du test.
Quand un test prédictif peut-il être considéré pertinent ?
Le centre de contrôle et de prévention des maladies américain (CDC) a proposé des règles, réunies au sein d’un modèle ACCE (validité Analytique, validité Clinique, utilité Clinique et respect de l’Ethique), qui permettent d’évaluer la pertinence de développer un nouveau test génétique.
Les critères fixés assurent que le test est réellement prédictif d’une maladie et que la valeur prédictive est satisfaisante. Le doublement du risque d’apparition de la maladie dans les années qui suivent est souvent considéré comme une valeur acceptable, mais ce seuil peut varier selon la gravité de la maladie et les conséquences pour le patient. En outre, le test doit être utile : un diagnostic positif doit pouvoir déclencher une prise en charge adaptée. En cancérologie, les tests permettent par exemple de renforcer la prévention ou le dépistage. Il existe toutefois des exceptions à cette règle : dans le cas de la maladie de Huntington un test génétique prédictif est disponible alors qu’il n’existe actuellement aucun moyen de prévenir le développement de la maladie ou de la traiter. Mais dans ce cas particulier et quelques autres, les patients évoquent le droit de savoir.
La pertinence d’un test génétique prend également en compte le respect de la dimension éthique, avec par exemple la nécessité d’une fin médicale (et non eugénique).
Les tests de pharmacogénétique
La pharmacogénomique consiste à étudier les caractéristiques génétiques d’un individu pour prédire la réponse de son organisme à un médicament : effets secondaires, risques de surdosages, ou encore inefficacité.
Ces tests permettent de détecter des variants génétiques associés à l’assimilation ou au contraire à la transformation/dégradation du médicament. En 2013, une trentaine de tests étaient disponibles. L’un d’eux permet par exemple de prédire la toxicité au traitement par 5-FU (chimiothérapie) en cas de cancers colorectaux ou du sein. Plus de 3 500 personnes en ont bénéficié en 2013. Autre exemple, un polymorphisme du gène HLA est associé à une hypersensibilité à l’abacavir, un antirétroviral utilisé contre le VIH.
La pharmacogénétique n’en est qu’à ses débuts : grâce à l’analyse des données génétiques des patients inclus dans les essais cliniques, les laboratoires pharmaceutiques développent de plus en plus souvent des tests génétiques associés à la réponse ou à la toxicité d’un traitement.
Comment sont effectuées les analyses génétiques ?
Deux principales approches d’analyses du génome sont utilisées dans le cadre des tests génétiques :
* La génétique moléculaire, qui consiste à analyser la molécule d’ADN pour détecter des mutations ou autres anomalies de façon ciblée sur le génome. Elle fait appel à des techniques de biologie moléculaire.
* La cytogénétique, qui consiste à étudier le nombre et la forme des chromosomes pour détecter des remaniements affectant des fragments chromosomiques ou des chromosomes entiers. Le plus souvent, cette étude s’appuie sur l’observation du caryotype du patient, correspondant à la photographie de l’ensemble de ses chromosomes. C’est l’analyse la plus répandue chez les fœtus, avec près de 41 000 caryotypes réalisés en 2012.
Institut de génétique et de biologie moléculaire et cellulaire, Illkirch
Ces deux approches sont de plus en plus perméables, notamment de part l’utilisation croissante d’outils communs tels que les puces à ADN. Environ 14 000 tests ont été effectués avec puces à ADN en 2013 en France, et l’utilisation de cet outil devrait croître dans les années à venir. Cette technique associe l’aspect global du caryotype et la haute résolution de l’hybridation ciblée de la génétique moléculaire. Les puces à ADN permettent de détecter des remaniements chromosomiques cent fois plus petits que ne le permettait jusque-là le caryotype. Dès lors, le risque devient celui de découvrir une autre maladie que celle recherchée… Le comité d’éthique de l’Inserm se penche actuellement sur cette question : que faire d’une information importante pour la santé découverte de façon fortuite, que l’individu n’a pas demandé à savoir et n’est pas forcément désireux d’entendre ?
Les tests en vente sur internet et leurs dangers
Des tests génétiques sont vendus directement par internet par des sociétés extérieures au système de santé. Les tests proposés ne sont pas forcément validés et ces services sont souvent proposés sans aucune intervention de professionnels de santé. Ce manque constitue un risque de désinformation majeure sur les conséquences possibles des résultats, dans un sens ou dans l’autre. Un conseil en génétique est absolument fondamental pour encadrer toute réalisation de test génétique.
Il existe 229 laboratoires de génétique constitutionnelle postnatale en France. Leur activité est suivie par l’Agence de biomédecine, en collaboration avec Orphanet (portail de référence sur les maladies rares et les médicaments orphelins, coordonné par l’Inserm). Parmi eux, 200 pratiquent des tests de génétique moléculaire et 111 des tests de cytogénétique. Pour 60% des maladies qui bénéficient d’un test génétique (environ 880 sur 1 500), le diagnostic génétique est complexe et nécessite l’expertise d’un laboratoire particulier en France.
Les tests de génétique somatique
Les tests de génétique somatique (non héréditaire) consistent à analyser le génome des cellules cancéreuses pour détecter des mutations survenues spécifiquement dans la tumeur et prédire la réponse à un traitement ciblé. On parle de « test compagnon ». Ils sont réalisés à partir d’une biopsie (ou d’une prise de sang pour les cancers hématopoïétiques), dans l’une des 28 plateformes de génétique moléculaire réparties sur tout le territoire français et rattachées à des établissements hospitaliers.
En 2011, 55 000 patients atteints de cancer ont bénéficié d’un de ces tests en vue d’utiliser l’un des 14 traitements spécifiques d’une anomalie génétique disponibles. Parmi ces patients, 20 000 étaient atteints d’un cancer du poumon et ont bénéficié de la recherche des mutations du gène EGFR, biomarqueurs de la sensibilité au gefitinib.
Détection d'anomalies chromosomiques tumorale
Compte tenu de l’arrivée massive de traitements ciblés en cancérologie, ces tests sont amenés à largement se développer. Plusieurs programmes de recherche clinique sont en cours en France, comme SHIVA à l’Institut Curie, MOSCATO à l’Institut Gustave Roussy, ou encore le programme AcSé coordonné par l’Institut national du cancer pour tester la faisabilité d’un séquençage du génome tumoral en routine, afin de permettre au plus grand nombre de patients possible de bénéficier de traitements ciblés.
DOCUMENT inserm LIEN
|
|
|
|
|
|
|
THÉRAPIE GÉNIQUE |
|
|
|
|
|
Thérapie génique
Dossier réalisé en collaboration avec Anne Galy, directeur de recherche à l’Inserm (unité 951 Inserm / université d'Evry Val d'Essonne / Ecole pratique des hautes études, "Immunologie moléculaire et biothérapies innovantes", Généthon, Evry) - Mars 2014.
La thérapie génique utilise des acides nucléiques (ADN ou ARN) pour soigner ou prévenir des maladies. Selon la pathologie, cet objectif peut être atteint en délivrant aux cellules un gène fonctionnel qui remplace le gène défectueux à l’origine de la maladie (transgène), un gène à action thérapeutique, ou encore de l’ARN capable de réguler ou bloquer partiellement l’expression d’un gène altéré. Ces acides nucléiques sont le plus souvent transportés dans les cellules du patient grâce à un vecteur viral, mais ils peuvent également être injectés directement dans les cellules, sous forme d’ADN nu.
Cellule hématopoïétique corrigée par tranfert de gène.
Le concept de thérapie génique date des années 1950 mais il s’est réellement concrétisé dans les années 90, avec les premiers essais conduits chez l’homme. En 1995, le premier patient traité de façon stable grâce à l’injection de cellules souches et de lymphocytes génétiquement modifiés (par une équipe milanaise) était atteint d’immunodéficience sévère de type ADA DICS. Un premier pas, transformé dans les années 2000 par un succès thérapeutique éclatant, obtenu à l’hôpital Necker chez les patients atteints d’une autre forme de déficit immunitaire (DICS de type X1) (voir plus loin). A l’époque, la thérapie génique était souvent présentée comme un moyen de lutter contre des maladies monogéniques (liée à la dysfonction d’un seul gène), en délivrant un gène "sain" capable de suppléer le gène "malade". En réalité, les indications sont beaucoup plus larges : plus de 1 800 essais cliniques de thérapie génique sont en cours à ce jour, dont 65 % en cancérologie, 10 % dans le domaine cardiovasculaire et 10 % seulement dans celui des maladies monogéniques (en particulier des immunodéficiences et des maladies hématologiques, mais également des pathologies comme la mucoviscidose). D’autres essais concernent des maladies infectieuses (tétanos, sida…), neurologiques (sclérose latérale amyotrophique, la sclérose en plaques ou encore les maladies d’Alzheimer et de Parkinson), ophtalmologiques (rétinite pigmentaire, glaucome, dégénérescence maculaire liée à l’âge) ou encore dans des maladies inflammatoires comme l’arthrose ou la polyarthrite rhumatoïde.
Environ trois quarts de ces essais sont des études de phase I ou II, qui évaluent la sécurité et l’efficacité des traitements testés. Les essais de phase III (qui permettent de statuer sur le rapport bénéfice/risque d’un nouveau traitement par rapport à un traitement de référence ou à un placebo) ne représentent que 4,5 % des études cliniques en cours. Néanmoins, ce chiffre ne cesse de progresser, avec de belles promesses par exemple dans le traitement de maladies monogéniques telles que l’amaurose congénitale de Leber, l’hémophilie B, la bêta-thalassémie ou dans le traitement du cancer, par transfert de lymphocytes T génétiquement modifiés.
Deux médicaments de thérapie génique sur le marché
Deux médicaments ont déjà surmonté tous les obstacles du développement clinique et sont déjà sur le marché. L’un d’eux, Gencidine est commercialisé en Chine depuis 2004. Il est indiqué dans le traitement de carcinomes de la tête et du cou. Il s’agit d’un gène suppresseur de tumeur (p53), véhiculé par un adénovirus. Plus de 10 000 patients ont été traités par ce médicament à ce jour, sans effet indésirable notable. En Europe, le premier médicament de thérapie génique a été approuvé fin 2012. Il s’agit du Glybera, injectable par voie intramusculaire, indiqué en cas de déficit familial en lipoprotéine lipase.
L’arrivée de ce médicament sur le marché européen a marqué un tournant décisif dans ce domaine médical : la thérapie génique n’est plus seulement une stratégie expérimentale étudiée en laboratoire. Elle peut aboutir à la mise au point de médicaments commercialisables, à condition de surmonter les contraintes règlementaires et industrielles (production de vecteurs et de transgènes dans des conditions standardisées et contrôlées, évaluation précise du rapport bénéfice-risque). Ce développement ne peut se faire sans le concours d’experts médicaux et industriels.
Les techniques diffèrent en fonction des indications
Les deux principales stratégies de thérapie génique : La thérapie génique consiste à modifier génétiquement des cellules d’un patient, pour soigner ou prévenir une maladie. Les protocoles utilisés varient en fonctions des indications et des objectifs thérapeutiques. Les cellules peuvent être modifiées in vivo, directement dans l’organisme du patient, ou ex vivo. Dans le second cas, des cellules souches sont prélevées chez le patient, modifiées en laboratoire, puis réinjectées.
Les protocoles de thérapie génique varient en fonction des indications et des objectifs thérapeutiques à atteindre. Cependant, ils consistent toujours à modifier génétiquement les cellules du patients, ex vivo ou in vivo, de façon pérenne ou transitoire.
Ainsi, dans le cas d’une maladie monogénique qui affecte les cellules sanguines, des cellules souches hématopoïétiques (cellules à l’origine de l’ensemble des cellules sanguines) sont prélevées chez le patient lors d’une procédure qui s’apparente à une simple prise de sang. Ces cellules sont ensuite modifiées ex vivo : un vecteur (voir plus loin) est utilisé pour leur délivrer un transgène thérapeutique, puis elles sont placées en culture pendant quelques jours. Lorsque les cellules ainsi traitées commencent à exprimer le gène thérapeutique, elles sont finalement réinjectées au patient par perfusion veineuse. Les cellules modifiées vont alors proliférer dans l’organisme du patient et, à priori, contribuer à le soigner. L’avantage de cette approche est de modifier une population de cellules bien précise, sans risque de voir le vecteur pénétrer dans des organes non ciblés.
Cependant, il n’est pas toujours possible de prélever les cellules à corriger : cette stratégie ne peut être utilisée lorsqu’il s’agit de modifier des cellules cardiaques ou encore des neurones. Des protocoles prévoient alors l’injection du vecteur contenant le transgène directement dans les organes cibles, in vivo. Par exemple, dans le cas de l’amaurose de Leber, une dégénérescence rétinienne responsable de cécité, l’injection du vecteur contenant le transgène se fait directement dans la rétine. Avec cette stratégie, le risque est une dissémination du transgène moins maîtrisée.
Dans 2 % des essais de thérapie génique, la technique utilisée s’apparente à une chirurgie du gène : on parle de "saut d’exon". Cette approche consiste à amener la cellule à produire une version de la protéine déficiente chez le patient plus courte que la protéine normale mais fonctionnelle, en "sautant" la partie du gène qui porte la mutation à l’origine de la maladie. Le saut d’exon a été testé pour traiter la dystrophie de Duchenne chez l’animal (équipe d’Olivier Danos et Luis Garcia, Généthon, Evry), puis chez l’homme. Plusieurs essais cliniques sont en cours, notamment à l’Institut de Myologie à Paris. Cette technique s’applique particulièrement bien à cette maladie car le gène impliqué est trop grand pour être transporté par un vecteur de transfert de gène. Des applications potentielles sont envisagées dans d’autres pathologies génétiques.
Schéma de la technique du saut d'exon
Une autre approche, consistant à réparer le gène altéré directement au cœur de la cellule, est séduisante par sa précision. Elle éviterait certains effets indésirables associés au transfert d’un transgène. En pratique, cette stratégie s’appuie sur l’utilisation d’enzymes appelées "nucléases", capables de repérer des séquences particulières de l’ADN de part et d’autre de la mutation à réparer et de couper le chromosome à cet endroit précis. La machinerie cellulaire se met alors en marche pour réparer son ADN. Si une copie "saine" du gène à restaurer est alors délivrée dans la cellule, elle va servir de matrice de réparation, permettant ainsi la reconstitution d’un gène complet et fonctionnel. Cette technique fonctionne efficacement in vitro et les premiers essais conduits in vivo sont en cours. Une société française, Cellectis, est pionnière dans le domaine.
Le choix de l’acide nucléique thérapeutique dépend de l’indication
Dans le cadre du traitement du cancer, une piste privilégiée consiste à stimuler le système immunitaire du patient contre sa propre tumeur, de manière à faciliter la reconnaissance des cellules cancéreuses et leur élimination. Pour y parvenir, des essais ont par exemple consisté à prélever des lymphocytes T ou des cellules présentatrices d’antigènes de type dendritique chez les patients, à y introduire un gène codant pour une protéine impliquée dans la reconnaissance des cellules tumorales ou dans leur destruction (antigènes tumoraux, cytokines, gènes suppresseurs de tumeur ou encore enzymes suicides) et à réinjecter le tout dans l’organisme des patients. Les résultats sont globalement mitigés. Des améliorations restent à réaliser pour rendre les vecteurs utilisés plus immunogènes ou mieux contrôlables.
Dans le domaine cardiovasculaire, les chercheurs tentent d’utiliser la thérapie génique pour favoriser la régénération des tissus vasculaires en cas d’ischémie artérielle. Pour ce faire, ils utilisent des gènes codants pour des facteurs de croissance vasculaires. Ils essaient également de diminuer la resténose (prolifération cellulaire non souhaitée après la pose d’un stent) en injectant des produits inhibant la croissance cellulaire des parois artérielles.
Thérapie génique de l'adrénoleucodystrophie
Dans le cadre de la prise en charge des maladies monogéniques, de nombreux essais concernent les déficits immunitaires comme l’immunodéficience sévère combinée (SCID), l’immunodéficience par déficit en adénosine désaminase (ADA-SCID), le syndrome de Wiskott Aldrich ou la granulomatose septique chronique, mais également des maladies hématologiques comme l’hémophilie B ou A, l’anémie de Fanconi ou encore la bêta-thalassémie. D’autres travaux concernent les pathologies rétiniennes comme l’amaurose de Leber ou la neuropathie optique de Leber, les maladies lysosomales comme la maladie de Sanfilipo ou la maladie de Gaucher et d’autres maladies neuro-dégénératives comme l’adrénoleucodystrophie ou la leucodystrophie métachromatique. Dernier exemple, les maladies de la peau telles que l’épidermolyse bulleuse. Toutes ces pathologies sont liées au défaut de fonctionnement d’un gène unique.
Dans le cas des maladies hématologiques, plusieurs essais consistant à modifier des cellules souches ex vivo en y injectant une copie saine du gène à l’origine de la maladie, puis à les réinjecter dans le sang du patient ont montré un bénéfice durable pour les patients. Dans le futur, l’utilisation de divers types de cellules souches telles que les cellules souches pluripotentes induites, ou encore de nouvelles modalités d’ingénierie tissulaire, pourront faire partie de l’arsenal thérapeutique associé à la thérapie génique.
Dans le domaine des maladies infectieuses, un traitement curatif par thérapie génique pourrait être envisagé par exemple en cas d’infection par le VIH. Plusieurs approches sont étudiées. La première consiste à modifier les lymphocytes T4 CD4 des patients (cibles du VIH) afin de les rendre résistants au virus. A cette fin, un clinicien prélèverait des cellules souches hématopoïétiques dans le sang du patient et y ferait rentrer un gène qui rendrait ces cellules insensibles au virus (plusieurs gènes pourraient être utilisés comme le démontre des essais réalisés in vitro). Les cellules modifiées seraient ensuite réinjectées dans l’organisme du patient et conduiraient à la production de lymphocytes T4 CD4 résistants au VIH, capables de survivre et de se multiplier. Des essais conduits chez l’animal et, récemment, un essai clinique mené chez l’homme ont été publiés : les résultats sont encourageants. Dans le cadre d’une seconde approche, les chercheurs travaillent au développement de vaccins à partir de vecteurs viraux utilisés pour le transfert de gène. Des résultats encourageants en terme de protection ont été obtenus chez les primates et des essais se préparent chez l’homme.
Les vecteurs, une clé du succès de la thérapie
Pour faire pénétrer l’acide nucléique à visée thérapeutique dans les cellules du patient, on utilise un vecteur chargé d’assurer ce transport. Des virus modifiés (vecteurs viraux) sont utilisés dans plus de deux tiers des essais. Ce type de vecteurs reste la référence à ce jour.
Il existe des vecteurs viraux non réplicatifs (qui ne peuvent se multiplier), intégratifs (l’ADN du vecteur viral s’intègre dans l’ADN de l’hôte), non intégratifs (le transgène demeure dans la cellule sans s’intégrer au génome de l’hôte) et des vecteurs non viraux non intégratifs. Dans tous les cas, les vecteurs utilisés font l’objet d’une ingénierie importante pour annuler leur potentiel toxique et, lorsque cela est nécessaire, pour les rendre les plus silencieux possibles vis-à-vis du système immunitaire de l’hôte afin de permettre une correction thérapeutique à long terme.
Institut du thorax UMR 915
Les débuts de la thérapie génique ont été marqués par des accidents liés à l’utilisation de vecteurs viraux qui ont pénétré dans des organes non cibles, ou qui ont provoqué l’intégration du transgène dans des séquences dites "pro-oncogènes" du génome du patient, déclenchant des cancers voire des décès. Ces accidents ont incité les chercheurs à explorer le fonctionnement précis de ces vecteurs viraux, la façon dont ils intègrent leur ADN dans les chromosomes de l’hôte... Ces connaissances ont beaucoup contribué au développement de la thérapie génique, grâce à la mise au point de vecteurs plus sûrs et plus efficaces. L’avènement des techniques "à haut débit" pour le séquençage des génomes et l’analyse des séquences obtenues a constitué une avancée indispensable dans ce secteur.
Les vecteurs viraux intégratifs insèrent leur ADN (qui contient le transgène thérapeutique) dans le génome de l’hôte. En conséquence, le gène thérapeutique est transmis aux cellules filles en cas de divisions cellulaires. Ces vecteurs sont idéaux en cas de thérapie cellulaire et de thérapie génique utilisant des cellules souches, ainsi que dans les approches où l’effet recherché doit être permanent.
Parmi les vecteurs viraux intégratifs, les rétrovirus ont été beaucoup utilisés dans les années 2000, mais le recours à cette famille de vecteurs viraux déclinent peu à peu : aujourd’hui moins de 20 % des essais en cours les utilisent. Ils ont en effet été impliqués dans la survenue de leucémies lors des essais menés sur les "enfants bulles" dans les années 2000. Ces virus sont désormais mieux connus et maitrisés, de sorte à réduire le risque d’insertion aléatoire dans le génome de l’hôte. Une fonction d’ "auto-inactivation" empêche notamment le virus de déclencher l’expression inopportune d’un gène proche du site où il s’est inséré.
Mais pour palier ce risque d’insertion aléatoire, les chercheurs utilisent de plus en plus souvent des lentivirus. Ceux-ci semblent en effet avoir un profil d’intégration génomique plus sûr que celui des rétrovirus. Par ailleurs, les lentivirus pénètrent bien dans des cellules qui ne se divisent pas comme les neurones ou les cellules hépatiques (alors que les rétrovirus s’y insèrent mal). Ces virus sont dérivés de virus humains comme le VIH, mais ils sont modifiés de manière à être inoffensifs. Des essais ont été menés grâce à ces vecteurs dans le traitement de l'adrénoleucodystrophie (par l’équipe de Nathalie Cartier et Patrick Aubourg, unité Inserm 986, Kremlin-Bicêtre) ou encore dans le traitement d'hémoglobinopathies (par l’équipe de Philippe Leboulch et Yves Beuzard, à Paris), en collaboration avec le Centre d’investigation clinique intégré en biothérapie de l’hôpital Necker (Paris). Par ailleurs, compte tenu du potentiel de ces vecteurs et grâce au travail de l’équipe d’Anne Galy (unité Inserm 951, Evry), le Généthon a mis en place une production industrielle de vecteurs lentiviraux et collabore avec de nombreuses équipes internationales qui les utilisent, notamment pour le traitement du syndrome de Wiskott-Aldrich.
Quand il s’agit de faire pénétrer un transgène dans des cellules qui ne se divisent pas, les vecteurs non intégratifs sont privilégiés car ils sont considérés comme plus sûrs. Avec ces vecteurs, le transgène reste dans la cellule de l’hôte, mais sans s’insérer dans son génome. Il s’exprime pendant la durée de vie de la cellule et disparaît avec la mort de celle-ci. Les adénovirus ont été très utilisés dans le passé mais leur usage tend à diminuer, notamment pour le traitement des maladies monogéniques. Ils restent cependant des vecteurs de choix en immunothérapie contre le cancer. Ils peuvent transporter de plus grandes séquences d’ADN que les virus intégratifs, même si la taille maximale des transgènes transportés reste parfois inférieure à celle de gènes humains. Ce type de vecteurs présente plusieurs avantages : il pénètre bien dans les cellules qui ne sont pas en division et il est associé à un niveau élevé d’expression du gène vectorisé.
Les vecteurs dérivés de virus adéno-associés (ou AAV) permettent le transfert de petites séquences génétiques (seulement 4 kilobases contre 13 kilobases avec les lentivirus). Ils sont intéressants car peu inflammatoires. Ils sont de plus en plus utilisés, par exemple pour le traitement de l’amaurose de Leber. Le seul médicament de thérapie génique autorisé en Europe (Glybera) utilise d’ailleurs ce type de vecteur.
En parallèle, la mise au point de vecteurs non viraux se poursuit afin de répondre à deux problématiques : une meilleure sécurité des vecteurs et le transport de grandes quantités d’ADN. A ce titre, près de 20 % des essais de thérapie génique se fondent sur l’injection directe d’ADN nu modifié et protégé des enzymes cellulaires (nucléases) grâce à des modifications chimiques. Une autre stratégie est la lipofection : le gène thérapeutique est associé à des lipides cationiques qui favorisent son entrée dans la cellule hôte.
Des succès majeurs à retenir
La France est un des leaders mondiaux de la thérapie génique, tant au niveau académique qu’au niveau clinique, en particulier grâce à des équipes attachées à l’Inserm.
En 1999, des équipes françaises (Salima Hacein-Bey Abina, Marina Cavazzana et Alain Fischer, unité Inserm 768, hôpital Necker, Paris), en collaboration avec des équipes anglaises, ont été pionnières dans le traitement par thérapie génique des "bébés bulles" (atteints de SCID X1). Malgré la survenue de plusieurs cas de leucémies chez les 19 patients inclus, les effets thérapeutiques du traitement persistent encore. Sur les 9 enfants traités en France il y a plus de 10 ans, 8 sont vivants, à domicile, et suivent une scolarité normale. Sans ce traitement, leur espérance de vie était très limitée.
Alain Fischer, Unité Inserm 768, "Développement normal et pathologique du système immunitaire", Département de Biothérapies et Unité d’Immunologie et d’Hématologie pédiatrique, Hôpital Necker Enfants Malades AP-HP, Université Paris Descartes, Paris
L’amaurose de Leber a également fait l’objet d’essais aux résultats remarquables. La maladie correspond à une dégénérescence pigmentaire au niveau de la rétine pouvant conduire à la cécité. Elle est causée par une mutation affectant le gène RPE65. L’injection d’un vecteur de type AAV contenant une copie fonctionnelle de ce gène, directement dans la rétine, a permis de stopper l’évolution de la maladie et de préserver la vision qui restait aux patients. Les premiers essais réussis ont eu lieu en Angleterre et aux Etats-Unis en 2007. Un essai est actuellement en cours à Nantes (équipe de Fabienne Rolling et Philippe Moullier, unité Inserm 1089, Nantes). Une société américaine vient d’être créée pour développer cette stratégie (Spark Therapeutics) et une autre existe en France, GenSight, fondée par José-Alain Sahel, directeur de l’Institut de la Vision (unité Inserm 968), à Paris.
L’adrénoleucodystrophie, une maladie génétique neurodégénérative liée à une démyélinisation du système nerveux central, a également fait l’objet de travaux prometteurs. Un essai a été mené chez quatre enfants en 2009, par des équipes françaises (Nathalie Cartier et Patrick Aubourg, unité Inserm 986, Kremelin-Bicêtre), en collaboration avec une société biotechnologique américaine et avec l’hôpital Necker (Paris). La stratégie utilisée consiste à prélever des cellules souches de la moelle osseuse (cellules souches mésenchymateuses), à les corriger génétiquement ex vivo à l’aide d’un lentivirus, puis à les réinjecter dans la circulation sanguine. Le traitement a permis de stopper l’évolution de la maladie chez ces enfants qui mènent aujourd’hui une vie pratiquement normale. Cet essai a ouvert la voie au développement de cette stratégie pour de nombreuses autres maladies neurodégénératives. Un résultat tout à fait spectaculaire vient notamment d’être obtenu par une équipe italienne (Alessandra Biffi et Luigi Naldini, à Milan) chez des enfants atteints de leucodystrophie métachromatique, une autre maladie génétique neurodégénérative. D’autres approches sont également en cours de développement dans le traitement de maladies lysosomales comme la maladie de Sanfilippo, avec par exemple les travaux menés par Jean-Michel Heard à l’Institut Pasteur (unité 1115 Institut Pasteur/Inserm), Marc Tardieu à l’hôpital Bicêtre et Michel Zerah à l’hôpital Necker, à Paris.
Un essai lancé en 2010 a en outre montré l’efficacité de la thérapie génique pour le traitement de l’hémophilie B. Il s’agit cette fois d’un protocole anglo-américain (équipe d’Amit Nathwani, à Londres). Les chercheurs ont utilisé un vecteur AAV contenant un gène FIX, capable de restaurer la coagulation sanguine. Six patients ont été inclus. Le gène s’est exprimé chez tous les participants et a permis aux quatre d’entre eux (qui avaient reçu les doses de vecteur les plus fortes) d’interrompre leur traitement prophylactique contre les hémorragies spontanées. Le suivi à long terme devra confirmer la sécurité du traitement et la persistance de l’effet thérapeutique dans le temps.
Les personnes atteintes de bêta-thalassémie, une forme majeure d’anémie, pourraient également être, à l’avenir, traitées par thérapie génique à en croire les résultats d’un essai français mené en 2010 (équipe de Philippe Leboulch et Marina Cavazzana à Paris). Il s’agissait d’un essai pionner qui a permis de soigner un patient âgé de 18 ans. Une première mondiale. Ce patient a été transplanté avec ses propres cellules hématopoïétiques CD34 corrigées ex vivo grâce à un lentivirus pour qu’elles expriment un transgène bêta-globine. Le jeune homme a retrouvé une vie normale, sans recours à des transfusions sanguines mensuelles.
Dans le domaine du cancer, les résultats sont plus aléatoires mais certains travaux sont encourageants. Une équipe américaine a par exemple prouvé, en 2010, l’efficacité de cellules T modifiées pour le traitement de leucémies (équipe de Carl June et Bruce Levine, à Philadelphie). Les chercheurs ont utilisé un vecteur lentiviral de type HIV-1 car il s’intègre naturellement dans les lymphocytes T. Ce vecteur a permis le transfert de gènes codant pour des protéines qui facilitent la reconnaissance des cellules tumorales à les éliminer. La société Novartis a investi dans le secteur et plusieurs start-up se sont créées, telles que Juno Therapeutics à Seattle.
Le secteur industriel, autour de la thérapie génique et les filières de service associées, se développe dans le monde et en France. Plusieurs personnalités de la recherche française rattachées à l’Inserm ont été pionnières dans ces démarches : Citons par exemple David Klatzmann avec la création de Genopoietic en 1993, mais également Pierre Charneau avec Theravectys, David Sourdive avec Cellectis, Philippe Leboulch avec Bluebird bio ou encore récemment José-Alain Sahel avec la fondation de GenSight Biologics en 2012. L’AFM Téléthon a par ailleurs investi depuis de nombreuses années dans la thérapie génique. Et Généthon BioProd, le premier établissement pharmaceutique à but non-lucratif dédié à la fabrication de médicaments de thérapie cellulaire et génique, a récemment ouvert à Evry.
DOCUMENT inserm LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|