|
|
|
|
|
|
Exposition prénatale aux perturbateurs endocriniens et troubles du comportement des enfants |
|
|
|
|
|
Exposition prénatale aux perturbateurs endocriniens et troubles du comportement des enfants
COMMUNIQUÉ | 29 SEPT. 2017 - 10H22 | PAR INSERM (SALLE DE PRESSE)
SANTÉ PUBLIQUE
Une étude épidémiologique menée par l’Inserm[1] sur les familles de la cohorte EDEN (500 garçons nés entre 2003 et 2006 et leurs mères) montre que l’exposition pendant la grossesse à certains phénols et phtalates est associée à des troubles du comportement des garçons entre 3 et 5 ans. Les composés les plus préoccupants à cet égard sont le bisphénol A, le triclosan et le di-n-butyl phtalate, ou DBP. Les résultats viennent d’être publiés dans la revue Environmental Health Perspectives.
Le bisphénol A a été interdit de tous les contenants alimentaires en France en janvier 2015, une date ultérieure à la réalisation de cette étude. Le triclosan est un agent antibactérien retrouvé dans certains dentifrices et savons ; le DBP est utilisé comme plastifiant dans les plastiques de type PVC, certaines colles, vernis à ongles et laques pour les cheveux. Triclosan et DBP sont réglementés selon la logique d’une valeur limite dans certaines familles de produits, tout en étant interdits dans d’autres (le DBP est par exemple interdit d’usage dans les cosmétiques et le triclosan dans les habits dans l’UE). Des études toxicologiques in vitro et chez l’animal ont mis en évidence que ces composés étaient des perturbateurs endocriniens et pouvaient interagir avec des systèmes hormonaux impliqués dans le développement normal du système nerveux central. Les mécanismes précis qui pourraient expliquer un effet des perturbateurs endocriniens sur le neurodéveloppement et le comportement pourraient passer par une altération du fonctionnement des hormones thyroïdiennes, des hormones stéroïdiennes, comme l’œstrogène, ou d’autres hormones, comme l’ocytocine ou la vasopressine, des hormones sécrétées par l’hypothalamus.
Face à ces premières conclusions chez l’animal, les chercheurs ont souhaité étudier l’association entre les expositions aux perturbateurs endocriniens pendant la grossesse et le comportement ultérieur des enfants.
L’étude a porté sur 529 petits garçons de la cohorte mère-enfant EDEN, mise en place par l’Inserm. Les femmes enceintes participant à cette cohorte ont été recrutées entre 2003 et 2006 dans les CHU de Nancy et Poitiers. Aux troisième et cinquième anniversaires de l’enfant, ces mamans ont rempli un questionnaire standardisé évaluant certains aspects du comportement de leur enfant tel que l’hyperactivité, les troubles émotionnels et les troubles relationnels. Ce questionnaire standardisé, utilisé depuis une vingtaine d’années, intitulé « Questionnaire des forces et difficultés » de l’enfant, permet d’établir un score dans différentes dimensions du comportement tels que les symptômes émotionnels, les problèmes de relation avec les pairs, les problèmes de conduite, d’hyperactivité et d’inattention. Un échantillon d’urine prélevé durant la grossesse a permis le dosage de biomarqueurs caractéristique de l’exposition aux phénols et aux phtalates dans le Laboratoire de Santé Environnementale des CDC d’Atlanta, qui est en charge des campagnes de biosurveillance américaines.
De 70 à 100% des femmes de la cohorte Eden, recrutées durant leur grossesse entre 2003 et 2006, étaient alors exposées à des niveaux détectables de différentes substances. Les niveaux urinaires étaient de l’ordre de 1 à 3 µg par litre pour le bisphénol A, de 10 à 100 µg par litre pour le triclosan, et de 50 à 200 pour le méthylparabène. Les résultats suggèrent que l’exposition maternelle à certains phénols et phtalates est associée à des troubles du comportement des petits garçons.
L’exposition au bisphénol A était associé à une augmentation des troubles relationnels à 3 ans et des comportements de type hyperactif à 5 ans. Les chercheurs notent que ce travail confirme ainsi que les effets du bisphénol A sur le comportement observés chez l’animal de laboratoire se retrouvent chez l’humain à des expositions faibles, probablement inférieures à celles préconisées par l’autorité européenne de sécurité alimentaire, l’EFSA.
Le métabolite du DBP était lui associé à davantage de troubles émotionnels et relationnels, incluant les comportements de repli, à 3 ans, mais pas à 5 pour les troubles émotionnels. Des associations entre ces composés et le comportement avaient déjà été mis en évidence dans des études précédentes chez de jeunes garçons et chez l’animal. Ainsi, dans une étude réalisée à partir de femmes et d’enfants new-yorkais, une augmentation des comportements de repli chez les enfants de 3 ans avec des niveaux croissants du métabolite du DBP avaient été rapportés en 2012.
Les résultats de cette étude ont aussi montré une association entre le triclosan et une augmentation des troubles émotionnels à 3 et 5 ans. Il s’agit de la première étude évaluant les effets de ce composé sur le comportement, pour lequel l’équipe d’épidémiologie environnementale de Grenoble avait déjà mis en évidence une diminution du périmètre crânien à la naissance, dans cette même population. Au niveau moléculaire, le triclosan est capable d’interagir avec l’axe thyroïdien qui, pendant la grossesse, est impliqué dans le développement du cerveau du fœtus.
L’effectif de l’étude, qui est une des plus vaste sur la question, ne permettait pas d’étudier directement la survenue de pathologies du comportement comme les troubles du spectre autistique, ce qui impliquerait de suivre des dizaines de milliers d’enfants.
Les équipes de recherche vont désormais s’attacher à répliquer ces résultats au sein de la cohorte mère-enfant SEPAGES en cours dans la région Grenobloise, coordonnée par l’Inserm et soutenue par l’European Research Council. Dans cette dernière, de nombreux échantillons d’urine par participant sont recueillis durant la grossesse et les premières années de vie de l’enfant. Cette approche permettra de limiter les erreurs de mesure de l’exposition et d’identifier de potentielles périodes de sensibilité aux phénols et phtalates sur différents événements de santé tels que la croissance, le comportement ou la santé respiratoire. Cela permettra aussi d’étudier l’effet éventuel de ces substances chez les petites filles, qui n’avaient pu être considérées ici. Il est possible que leur sensibilité aux perturbateurs endocriniens diffère de celle des garçons.
[1] Un consortium de recherche associant des équipes de recherche Inserm, les CHU de Nancy et Poitiers, le Center for Disease Controls and Prevention (CDC, Atlanta, USA), et coordonné par l’équipe d’épidémiologie environnementale de l’Institut pour l’Avancée des Biosciences (Inserm/CNRS/Université Grenoble Alpes).
DOCUMENT inserm LIEN |
|
|
|
|
|
|
Comprendre le phénomène de la résistance aux antibiotiques |
|
|
|
|
|
Comprendre le phénomène de la résistance aux antibiotiques
Les antibiotiques sont des molécules naturellement synthétisées par des microorganismes pour lutter contre des bactéries concurrentes de leur environnement. Il existe aujourd’hui plusieurs familles d’antibiotiques composées de molécules naturelles, semi-synthétiques ou de synthèse, qui s’attaquent spécifiquement à une bactérie ou un groupe de bactéries. Certains antibiotiques vont agir sur des bactéries comme Escherichia Coli dans les voies digestives et urinaires, d’autres sur les pneumocoques ou sur Haemophilus influenzae dans les voies respiratoires, d’autres encore sur les staphylocoques ou les streptocoques présents au niveau de la peau ou de la sphère ORL.
Les antibiotiques, spécifiques des bactéries
Les antibiotiques ne sont efficaces que sur les bactéries et n’ont aucun effet sur les champignons et les virus. Ils bloquent la croissance des bactéries en inhibant la synthèse de leur paroi, de leur matériel génétique (ADN ou ARN), de protéines qui leur sont essentielles, ou encore en bloquant certaines voies de leur métabolisme. Pour cela, ils se fixent sur des cibles spécifiques.
Largement utilisés depuis la seconde guerre mondiale, les antibiotiques ont permis de faire considérablement reculer la mortalité associée aux maladies infectieuses comme la tuberculose ou la peste au cours du 20ème siècle.
L’antibiorésistance, le revers de la médaille
L’efficacité remarquable des antibiotiques s’est accompagnée de leur utilisation massive et répétée en santé humaine et animale (voir encadré). Ce phénomène a généré une pression sur les bactéries, qui ont développé des systèmes de défense contre ces antibiotiques. On parle de pression de sélection, conduisant à l’apparition de résistances. La mauvaise utilisation des antibiotiques, passant par des traitements trop courts ou trop longs, parfois mal dosés, est également pointée du doigt. Ponctuelles au départ, ces résistances sont devenues massives et préoccupantes. Certaines souches sont multirésistantes, c’est-à-dire résistantes à plusieurs antibiotiques. D’autres sont même devenues toto-résistantes, c’est-à-dire résistantes à tous les antibiotiques disponibles. Ce dernier cas est heureusement encore rare, mais le phénomène est en augmentation. Il place les médecins dans une impasse thérapeutique : dans ce type de situation, ils ne disposent plus d’aucune solution pour lutter contre l’infection.
Les animaux sont aussi des gros consommateurs d’antibiotiques
D’après l’OMS, au moins 50% des antibiotiques produits dans le monde sont destinés aux animaux. Aux Etats-Unis, ces médicaments sont utilisés de façon systématique comme facteurs de croissance, une pratique interdite en Europe depuis 2006. Or, comme chez l’Homme, la surconsommation d’antibiotiques dans les élevages est responsable de l’apparition de résistances. Les bactéries multi-résistantes issues des élevages peuvent se transmettre à l’Homme directement ou via la chaîne alimentaire.

La majorité des cas de résistances aux antibiotiques est retrouvée à l’hôpital, où environ la moitié des antibiotiques consommés par l’Homme en France est utilisée.
Il n’en reste pas moins que des résistances surviennent aussi en ville, au détour d’antibiothérapies "apparemment anodines" : sous la pression d’un banal traitement antibiotique par voie orale, une espèce bactérienne de la flore intestinale peut développer un mécanisme de résistance. La molécule va alors détruire la flore associée et laisser le champ libre à la bactérie résistante pour se développer. Le transfert par voie manuportée de ces bactéries résistantes devient ainsi plus facile, conduisant à leur diffusion de manière plus ou moins rapide, selon le niveau d’hygiène de la population.
Les BMR sous haute surveillance
En raison de leur fréquence élevée, de la gravité des infections dont elles sont responsables et de leur capacité à se diffuser, les bactéries multirésistantes (BMR) font l'objet d'un programme de surveillance et de prévention depuis le milieu des années 1990. L’Institut de veille sanitaire (InVS) coordonne notamment depuis 2002, une surveillance nationale des Staphylococcus aureus résistants à la méticilline (SARM) et des entérobactéries productrices de béta-lactamases à spectre étendu (BLSE) dans les établissements de santé.
De la résistance naturelle à la résistance acquise
La résistance aux antibiotiques peut s’exprimer au travers de plusieurs mécanismes : production d’une enzyme modifiant ou détruisant l’antibiotique, modification de la cible de l’antibiotique ou encore, imperméabilisation de la membrane de la bactérie.
Certaines bactéries sont naturellement résistantes à des antibiotiques. On parle de résistance innée. Leur patrimoine génétique les rend insensibles à un certain nombre d’agents. C’est par exemple le cas des Escherichia coli vis-à-vis de la vancomycine, ou encore de Pseudomonas aeruginosae face à l’ampicilline.
Plus préoccupant, le phénomène de résistance acquise entraine l’apparition subite d’une résistance à un ou plusieurs antibiotiques auxquels la bactérie était auparavant sensible. Ces résistances peuvent survenir via une mutation génétique affectant le chromosome de la bactérie, permettant à cette dernière de contourner l’effet délétère de l’antibiotique. Elles peuvent aussi être liées à l’acquisition de matériel génétique (plasmide) porteur d’un ou plusieurs gènes de résistance, en provenance d’une autre bactérie. Les résistances chromosomiques ne concernent en général qu’un antibiotique ou une famille d’antibiotiques. Les résistances plasmidiques peuvent quant à elles concerner plusieurs antibiotiques, voire plusieurs familles d’antibiotiques. Elles représentent le mécanisme de résistance le plus répandu, soit 80% des résistances acquises.
L’antibiorésistance en chiffres
Certaines résistances posent plus spécifiquement problème à l’hôpital. C’est par exemple le cas pour les souches de Staphylococcus aureus résistantes à la méticilline (SARM), responsables d’infections diverses, pulmonaires et osseuses, ainsi que de septicémies, en particulier dans les unités plus sensibles (soins intensifs). Toutefois, des mesures spécifiques ont permis de réduire ces résistances en France (33% en 2001, 21% en 2010).
Pseudomonas aeruginosa, responsable de nombreuses infections nosocomiales, présente plus de 20% de résistance aux carbapénèmes. Certaines souches toto-résistantes sont notamment retrouvées chez les patients atteints de mucoviscidose.
Acinetobacter baumanii est également redoutée à l’hôpital. La part des infections nosocomiales liées à cette bactérie résistante à l’imipenème est passée de 2 ou 3% en 2008 à 11,1% en 2011. Le phénomène est d’autant plus préoccupant que la persistance de cette bactérie dans l’environnement est impressionnante et qu’elle se développe préférentiellement chez des malades immunodéprimés et vulnérables.
En dehors des hôpitaux, on rencontre d’autres problèmes comme celui du pneumocoque résistant à la pénicilline, retrouvé dans de nombreuses infections ORL. Cette résistance, quasiment nulle il y a vingt ans, a atteint un pic à 48% en 2002. Aujourd’hui, elle concerne 27% des souches. Le cas le plus préoccupant, en ville comme à l’hôpital, est celui des entérobactéries productrices de bêta-lactamases à spectre étendu (EBLSE). Leur fréquence est en augmentation constante depuis dix ans dans certaines espèces comme Escherichia coli ou Klebsiella pneumoniae qui sont devenues résistantes aux céphalosporines de troisième génération. A titre d’exemple, E. Coli responsable de nombreuses infections urinaires, est devenue très tôt résistante à l’amoxicilline. Cet antibiotique qui n’est donc plus utilisé en première intention a été remplacé par les céphalosporines de 2ème puis de 3ème génération (C3G). Aujourd’hui, en ville, 7% des souches sont devenues résistantes à ces C3G. Les médecins doivent alors utiliser des antibiotiques "de réserve" : les carbapénèmes. Mais là encore, l’utilisation massive de ces derniers peut entraîner l’apparition de souches résistantes, plaçant les médecins en situation d’impasse thérapeutique. Ce phénomène est heureusement rare en France : sont concernées 0,03 % des souches pour l’espèce E. Coli (en 2010) et 0,16% pour K. pneumoniae. En comparaison, cette proportion est bien plus élevée dans des pays tels que la Grèce (44%) ou Chypre (17%).

Un phénomène mondial

Enregistrement d'échantillons de patients sur feuille de suivi pour une recherche bactériologie. © Inserm / P. Latron
Ces phénomènes de résistance surviennent dans tous les pays du monde et sont particulièrement importants dans les pays où les niveaux d’hygiène sont faibles. Il existe un véritable gradient nord-sud, avec des taux plus faibles dans les pays du Nord. La proportion de SARM varie par exemple de moins de 1% en Norvège et Suède, à plus de 25% dans le sud de l’Europe (Espagne, Italie, Grèce, Portugal...). Ces différences résultent notamment de stratégies de prévention de la transmission et de l’importation de bactéries résistantes, ainsi que de stratégies de maîtrise de la consommation d’antibiotiques plus ou moins précoces et strictes.
Les rapatriés sous contrôle sanitaire
Compte tenu du risque d’importation de bactéries multi ou toto-résistantes, une circulaire du Haut conseil de la santé publique datant de 2010 a fixé de nouvelles règles d’accueil pour les patients rapatriés de l’étranger à l’hôpital. Ils font l’objet d’une procédure systématique de dépistage, puis de prise en charge et d’isolement si nécessaire.
Une lutte sans fin
La propagation des bactéries multirésistantes et l’absence de nouveaux antibiotiques font courir un risque d’impasse thérapeutique de plus en plus fréquent. Pour faire face à cette situation, l’idée n’est pas de trouver une solution permettant d’éviter l’apparition de résistances, car les bactéries trouveront toujours un moyen de s’adapter. Il convient plutôt de préserver le plus longtemps possible l’efficacité des antibiotiques disponibles. Des mesures élémentaires comme le lavage systématique des mains en sortant des toilettes restent fondamentales pour éviter la diffusion d’entérobactéries résistantes.
Réduire la consommation d’antibiotiques
Il est nécessaire de réduire la consommation d’antibiotiques pour baisser la pression de sélection qui pèse sur les bactéries. Grâce aux plans de rationalisation des prescriptions et aux campagnes de sensibilisation destinées au grand public, la consommation de ces médicaments a chuté de 16% entre 2000 et 2009.
La France reste cependant parmi les plus gros utilisateurs, et la consommation est légèrement repartie à la hausse depuis 2009. Dans ce contexte, il est important que les médecins puissent distinguer les infections virales des infections bactériennes : si l’infection est virale, l’antibiotique est inutile. Des tests de dépistage rapide existent pour les angines. Malheureusement, ils sont encore sous-utilisés en France.
Les enjeux de la recherche
Nouveaux antibiotiques
De nouveaux antibiotiques sont nécessaires pour lutter contre les bactéries multirésistantes. Mais les incitations publiques à une moindre consommation ont découragé les laboratoires pharmaceutiques d’investir dans cette voie de recherche et l’arrivée de nouveaux antibiotiques a fait cruellement défaut au cours des dernières années. C’est pourquoi l’Innovative Medicines Initiative (programme européen) a lancé en mai 2012 New Drugs 4 Bad Bugs, un programme de recherche disposant de 223 millions d’euros pour le développement de nouveaux médicaments. L’objectif est d’accélérer le développement clinique d’antibiotiques pour les bactéries résistantes prioritaires, notamment les entérobactéries.
L’activité reprend progressivement dans ce domaine : une céphalosporine de cinquième génération, la ceftaroline, efficace contre les S. aureus résistant à la méticilline (SARM) et les bactéries Gram positif, est par exemple d’arriver sur le marché européen en août 2012.
Autres voies thérapeutiques

Bactériophages. Les bactériophages (ou phages) sont des virus n'infectant que les bactéries, une guerre des microbes en quelque sorte. On les voit ici à l'assaut d'une bactérie de l'eau. © Inserm / Lydia Lapchine
Des chercheurs tentent d’inhiber l’action des enzymes bêta-lactamases produites par certaines bactéries, qui les rendent résistantes aux antibiotiques de la famille des bêta-lactamines (comme les céphalosporines de 3ème et de 4ème génération). Un tel inhibiteur est actuellement en cours de développement.
D’autres équipes tentent de développer des thérapies "antivirulence". L’objectif n’est plus de tuer la bactérie responsable de l’infection, mais de bloquer les systèmes qui la rendent pathogène pour l’Homme. Des antitoxines dirigées contre certaines toxines bactériennes sont à l’étude, ainsi qu’une molécule permettant de bloquer la cible du mécanisme de virulence du méningocoque. Toutefois, l’utilisation de ces produits est encore en phase expérimentale.
La phagothérapie est une autre voie intéressante, mais dans laquelle tout reste à faire. Elle consiste à éliminer les bactéries grâce à des phages
phages
Virus qui n’infecte que les bactéries.
. Ces derniers sont des virus qui infectent spécifiquement certaines bactéries, s’y reproduisent puis les détruisent en libérant les nouveaux phages produits. Cette spécificité permet d’éliminer les bactéries pathogènes sans affecter les autres, contrairement aux antibiotiques à spectre large qui sont couramment utilisés. Le développement industriel de cocktails de phages, préparés à l’avance ou "sur-mesure" pour lutter contre une bactérie spécifique, paraît complexe. Néanmoins, un essai visant à évaluer cette stratégie dans le traitement des infections cutanées provoquées par les bactéries Escherichia coli et Pseudomonas aeruginosa chez les patients brûlés a été lancé en juin 2013.
DOCUMENT inserm LIEN |
|
|
|
|
|
|
PARKINSON |
|
|
|
|
|
Parkinson : l'efficacité des greffes thérapeutiques ?
Philippe Damier et Philippe Brachet dans mensuel 329
daté mars 2000 -
Alors que l'utilisation de cellules souches modifiées génétiquement en est encore au stade préclinique et que les greffes de neurones embryonnaires ont montré leur efficacité mais restent difficilement applicables, des techniques alternatives existent. Pourtant, retarder le développement de la maladie reste un objectif hors d'atteinte.
Caractérisées par la détérioration lente et irréversible de groupes particuliers de cellules nerveuses, puis leur mort, les maladies neurodégénératives sont rapidement invalidantes. Aucun traitement ne parvient aujourd'hui à enrayer leur développement, et leur incidence croissante en fait un des enjeux majeurs de la santé publique dans les pays occidentaux. Les deux plus fréquentes d'entre elles sont la maladie d'Alzheimer et la maladie de ParkinsonI. Dans la première, les cellules nerveuses détruites sont plus particulièrement impliquées dans les capacités mnésiques et langagières. La seconde, sur laquelle nous concentrerons notre attention, est associée à la perte de cellules essentielles au contrôle de la motricité. A défaut d'un traitement capable de stopper ou au moins de ralentir le processus dégénératif, les progrès réalisés ces dernières années ont permis la mise au point de traitements correctifs.
C'est sans doute la relative simplicité des lésions nerveuses impliquées dans la maladie de Parkinson qui explique les succès eux aussi relatifs que l'on peut observer dans son traitement. En effet, la maladie est causée par la destruction quasi exclusive d'un groupe de 500 000 neurones seulement sur plusieurs milliards que compte le cerveau. Confiné dans une petite structure appelée substance noire, le corps de ces neurones a pour particularité de produire un neurotransmetteur : la dopamine. La molécule est acheminée au travers du prolongement des cellules les axones vers leurs cibles, essentiellement les neurones d'un noyau de taille supérieure, le striatum voir schéma p. 40. La mort des neurones de la substance noire amène donc un déficit en dopamine dans le striatum. Celui-ci, à son tour, est responsable des troubles moteurs observés chez les malades : tremblement caractéristique au repos, difficultés à initier les gestes ou ralentissement dans l'exécution des mouvements, rigidité1.
Le rôle du déficit en dopamine dans la symptomatologie parkinsonienne fut découvert au début des années 1960 par O. Hornickiewicz et W. Birkmayer à l'université de Vienne. Dès 1967, G. Cotzias eut l'idée, non pas d'administrer directement de la dopamine, car elle ne pénètre pas dans le cerveau, mais son précurseur immédiat : la L-dopa. Celle-ci peut entrer dans le système nerveux central et y être transformée en dopamine. L'effet thérapeutique fut spectaculaire. Des patients grabataires devinrent à nouveau capables de se mouvoir presque normalement2. Cette formidable épopée thérapeutique a été illustrée, en 1992, par le film L'Eveil avec Robert De Niro. Néanmoins, les modalités de libération de la dopamine sont probablement très différentes des conditions physiologiques, et en particulier, indépendantes de l'activité motrice du patient. Après quelques années de traitement, les symptômes réapparaissent en dépit d'une augmentation des doses prescrites, et surtout un phénomène encore mystérieux se développe souvent, la survenue de mouvements involontaires. Dans les périodes où les symptômes parkinsoniens sont corrigés par le traitement, se greffent à la motricité du patient des mouvements anormaux touchant les membres, le tronc, le visage - des sortes de tics sévères - qui peuvent être tout aussi gênants que l'état parkinsonien. Le patient oscille donc entre des états où sa motricité est réduite état parkinsonien et des états où elle est perturbée par des mouvements anormaux involontaires, sans pratiquement plus connaître d'état avec une motricité normale3. Ces difficultés expliquent que les médecins aient recherché de nouvelles voies de traitement.
Une thérapeutique a priori séduisante serait de réimplanter dans le cerveau les cellules détruites par le processus dégénératif. C'est l'objectif des greffes neuronales. Il est néanmoins difficilement envisageable de greffer des cellules fabriquant de la dopamine directement dans la substance noire où elles sont normalement situées. En effet, cette région est d'un accès chirurgical délicat. Surtout, il serait indispensable que les cellules greffées soient capables de former des prolongements neuronaux jusqu'à leur tissu cible. Cette migration des prolongements neuronaux, qui a lieu au cours de la vie embryonnaire, est complexe. Chez l'adulte, nous ne disposons aujourd'hui d'aucun moyen de l'obtenir de façon satisfaisante. C'est la raison pour laquelle les cellules fabriquant de la dopamine sont greffées directement au niveau de leur cible, le striatumII.
Dans une première étape, l'idée a été de greffer au patient des cellules lui appartenant et produisant également de la dopamine, celles issues de sa glande médullosurrénale au-dessus des reins. Cette autogreffe avait le double avantage de ne poser aucun problème de rejet et de profiter de l'équipement enzymatique déjà présent dans les cellules de cette glande pour fabriquer la dopamine. La faible efficacité thérapeutique et surtout la survenue d'un grand nombre de complications chirurgicales conduisirent rapidement à l'abandon de cette technique. Un patient atteint de maladie de Parkinson supportait en effet difficilement une double intervention chirurgicale, abdominale pour prélever du tissu de la glande surrénale, cérébrale pour la mise en place de la greffe.
Où trouver d'autres cellules productrices de dopamine ? Dans une deuxième étape, le choix du greffon s'est orienté vers les cellules nerveuses embryonnaires4. En prélevant chez un embryon des cellules situées dans la partie haute du tronc cérébral à un stade précis de son développement six à neuf semaines de grossesse, il est possible d'obtenir des cellules capables de fabriquer le neurotransmetteur recherché. Ces cellules sont issues du matériel tissulaire d'interruptions volontaires de grossesse, la patiente ayant donné son accord pour une utilisation scientifique de l'embryon. Les fragments tissulaires ainsi obtenus sont implantés en différents endroits entre quatre et six du striatum du malade.
L'implantation de la greffe fait appel à la neurochirurgie stéréotaxique. Cette technique permet d'atteindre une structure à l'intérieur du cerveau au travers d'un trou de trépan de seulement quelques millimètres de diamètre, donc sans avoir à ouvrir la boîte crânienne. Un système de repérage externe cadre de stéréotaxie est rendu solidaire du crâne du patient : le premier est vissé au second. Les repères anatomiques intra-cérébraux et les éléments du système de repérage externe sont ensuite visualisés conjointement par imagerie cérébrale imagerie par résonance nucléaire par exemple. La localisation d'un grand nombre de structures, en particulier le striatum, peut être déterminée à partir d'atlas anatomiques et des repères anatomiques intracérébraux visualisés. Cette localisation peut alors être définie par rapport aux repères du cadre de stéréotaxie. Il est ainsi possible d'atteindre le striatum avec une canule et d'y implanter le tissu à greffer, avec une précision de l'ordre du millimètre. L'intervention peut concerner un seul ou les deux hémisphères cérébraux. Un traitement immunosuppresseur est généralement donné pendant quelques semaines pour éviter le rejet du greffon.
Les premiers patients ont été opérés il y a huit ans cinq ans seulement dans le cas des interventions bilatérales. A ce jour plus de trois cents malades ont bénéficié du traitement dans le monde dont dix en France, à l'hôpital Henri-Mondor à Créteil. Avec le recul, on peut dire aujourd'hui qu'il est bien démontré que les greffes améliorent significativement la situation clinique des patients, en particulier lorsque l'implantation est bilatérale. Cette amélioration persiste voire progresse à distance de l'intervention, en particulier avec une réduction progressive des doses de médicaments antiparkinsoniens dont les patients ont besoin pour corriger les troubles résiduels. Des techniques d'imagerie cérébrale comme la tomographie à émission de positons TEP ont permis de confirmer l'augmentation des capacités de stockage de L-dopa dans le striatum des patients greffés, confortant l'idée que les cellules nerveuses greffées étaient viables et fonctionnelles5. Enfin, chez deux patients greffés, décédés dix-huit mois après l'opération pour des raisons indépendantes de celle-ci, l'analyse post-mortem a montré que les cellules greffées s'étaient parfaitement intégrées au tissu cible et restaient capables de produire de la dopamine6. Quant au risque opératoire, représenté principalement par des accidents hémorragiques ou des infections, il est relativement faible inférieur à 3 % mais il faut y ajouter les risques liés à l'utilisation d'un traitement immunosuppresseur7.
Cependant, de nombreux problèmes demeurent. Il est encore très difficile de contrôler précisément le nombre de cellules fabriquant de la dopamine apportées au cerveau du patient. L'intégration de ces cellules au tissu hôte reste faible et mal contrôlée, en particulier le type de connexions que ces cellules effectuent avec les cellules nerveuses du striatum. Une amélioration de ces deux facteurs est envisageable, mais la principale difficulté est d'un autre ordre. Il faut entre deux et sept embryons prélevés dans des conditions précises pour greffer d'un seul côté un patient atteint de maladie de Parkinson. Les problèmes éthiques liés à l'utilisation de tissus embryonnaires humains rendent difficilement concevables des interventions de ce type à grande échelle.
Des méthodes alternatives sont donc à l'étude. La première est la greffe de cellules nerveuses d'origine animale, et en particulier d'origine porcine. Les quantités de tissu disponibles deviennent alors illimitées. Se posent néanmoins des problèmes de risque infectieux virus latents chez le porc devenant pathogènes une fois présents dans le cerveau humain et surtout celui du rejet de la greffeIII. Le premier essai thérapeutique, tenté aux Etats-Unis a donné des résultats décevants. Cette absence d'efficacité thérapeutique s'explique probablement par la destruction d'une grande partie du greffon par des manifestations de rejet immunitaire. Des recherches sont en cours pour améliorer cet aspect. Il pourrait en particulier être possible de transformer génétiquement les animaux donneurs pour rendre leur tissu plus tolérable sur le plan immunologique chez un être humain.
Une autre possibilité consiste en l'utilisation de lignées cellulaires cultivées in vitro et fabriquant de la dopamine, comme des cellules issues de tumeurs de glandes surrénales de telles cellules se multiplient indéfiniment : elles sont « immortelles ». Implanter de telles cellules risquerait d'entraîner le développement d'une tumeur cérébrale, et son application directe en thérapeutique humaine est donc exclue. Pour pallier ce risque, il a été proposé d'enfermer les cellules dans des capsules perméables exclusivement aux petites molécules, dont les neurotransmetteurs. Un tel système constitue une véritable « mini-pompe » biologique capable d'administrer la dopamine directement à l'intérieur du cerveau. Les résultats de l'application de cette technique dans le cas de la maladie de Parkinson ne sont pas encore connus.
Plus prometteuses sont en fait les thérapies visant à transformer par génie génétique des cellules pour les rendre capables de fabriquer de la dopamine. La première option est l'utilisation de certaines cellules non neuronales du patient, comme les fibroblastes présents dans la plupart des tissus de l'organisme, chez lesquels est introduit le gène de l'enzyme permettant la synthèse de la dopamine. La seconde option repose sur l'utilisation de précurseurs de neurones, les cellules souches neuronales. Il semble possible de les transformer en cellules dopaminergiques via une combinaison complexe de facteurs de croissance. Les cellules souches peuvent être obtenues dans du tissu embryonnaire mais aussi dans certaines régions du cerveau adulte voir l'article d'Alfonso Represa , p. 35. Il devient possible de les cultiver en laboratoire pour en obtenir un nombre important8. Ces résultats laissent penser que d' importants stocks de cellules souches humaines, capables de se différencier vers un type neuronal adulte fonctionnel une cellule fabriquant de la dopamine par exemple seront un jour disponibles pour des greffes. Mais ces techniques en sont encore au stade de l'expérimentation préclinique. Une des grandes incertitudes est liée au devenir à long terme de telles cellules dans le système nerveux, à leur capacité de survie. Une dernière option de thérapie génique consiste à injecter dans le cerveau des virus dans lesquels le gène de l'enzyme de synthèse de la dopamine a été introduit. Ces virus peuvent alors infecter des cellules nerveuses, leur apporter le nouveau gène et les rendre ainsi capables de fabriquer de la dopamine. Là aussi la survie prolongée des cellules nerveuses infectées reste problématique. Surtout il existe un risque que ces virus se transforment en des agents pathogènes pour le système nerveux.
Par ailleurs, ces quinze dernières années ont vu d'importants progrès dans la connaissance du fonctionnement de l'ensemble des structures cérébrales impliquées dans la maladie appelées noyaux gris centraux. En particulier, il est désormais démontré que l'absence de dopamine striatale, dans la maladie de Parkinson, entraîne une hyperactivité neuronale dans des noyaux cérébraux dépendants du striatum, comme le noyau subthalamique ou le globus pallidus interne9. L'idée a ainsi germé de corriger les dysfonctionnements neuronaux provoqués par le déficit en dopamine en agissant directement au niveau de leurs conséquences. C'est à une équipe française, dirigée par les professeurs Alim-Louis Benabid et Pierre Pollak, à Grenoble, que l'on doit la mise en évidence, depuis 1994, de l'intérêt de la stimulation électrique de ces noyaux hyperactifs pour le traitement de la maladie. La technique consiste en l'implantation, par neurochirurgie stéréotaxique, d'électrodes dans les noyaux hyperactifs le plus souvent une électrode dans chacun des deux noyaux subthalamiques. Ces électrodes sont ensuite reliées par un câble sous-cutané à un générateur d'impulsions électriques implanté sous la clavicule. Le générateur semblable à un pacemaker délivre un courant électrique à haute fréquence aux noyaux cibles, corrigeant ainsi leur dysfonctionnement et améliorant de façon spectaculaire l'état clinique des patients. Le mécanisme exact de l'effet de la stimulation à haute fréquence est encore inconnu, mais tout se passe comme si cette activité électrique imposée au noyau l'inactivait. L'amélioration est telle que les patients peuvent réduire de plus de 50 % leur traitement médicamenteux, certains patients pouvant même totalement s'en passer. Le bénéfice obtenu est souvent exceptionnel, avec des patients passant d'un état grabataire à un état compatible avec une reprise d'activité professionnelle ou sociale normale10. De plus, cette technique possède l'avantage d'une totale réversibilité qui rend plus sûre son utilisation. Si la stimulation entraîne des effets indésirables majeurs, il est ainsi possible d'arrêter le générateur mais au prix de la réapparition de la totalité des signes cliniques du patient. En fait, la possibilité de régler très précisément les différents paramètres de stimulation fréquence, voltage, forme du signal électrique par télémétrie permet d'obtenir une efficacité maximale sur les signes parkinsoniens sans générer d'effets indésirables. Les résultats thérapeutiques sont immédiats et nettement supérieurs à ceux apportés par les greffes de cellules nerveuses embryonnaires. Ces résultats se maintiennent avec le temps, le recul depuis la première intervention étant de cinq ans. Comme dans le cas de la chirurgie des greffes, le risque opératoire est faible. La principale limite actuelle de cette technique est son coût, de l'ordre de 100 000 francs de matériel par patient.
Dans le cadre plus général des maladies neurodégénératives, la technique de la stimulation électrique, malgré la puissance du bénéfice thérapeutique obtenue, n'est utilisable que dans un petit nombre d'affections dans lesquelles les lésions neuronales entraînent des dysfonctionnements localisés. Outre la maladie de Parkinson, cela ne concerne que certains tremblements ou des rigidités musculaires diffuses dystonies généralisées. Les véritables avancées proviendront donc surtout de l'identification de la cause de ces maladies ou au moins des mécanismes à l'origine de la destruction des neurones. Seules celles-ci permettront d'envisager des traitements réellement curatifs. Sans connaître la cause exacte, une action sur le processus dégénératif est néanmoins envisageable. On a vu qu'il était possible de transformer des cellules souches pour leur faire produire de la dopamine avant de les greffer. De même, on devrait pouvoir apporter au cerveau atteint d'une maladie dégénérative des facteurs arrêtant ou ralentissant le processus de destruction cellulaire les facteurs neurotrophiques. Malgré des travaux expérimentaux encourageants, les résultats des premières études cliniques restent encore modestes.
1 P. Damier, Médecine thérapeutique., 3 , 182, 1997.
2 G. Cotzias et al., New England Journal of Medicine, 276, 374, 1967.
3 Marsden et Parkes, Lancet, 1, 345, 1977,.
4 Lindvall et al., Science, 247 , 574, 1990.
5 Remy et al., Annals of Neurology, 38, 580, 1995.
6 Olanow et al., Trends in Neurosciences, 19, 102, 1996.
7 Defer et al., Brain, 119 , 41, 1996.
8 J. Wagner et al., Nature Biotech., 17, 653, 1999.
9 DeLong, Trends in Neurosciences, 13, 281, 1990.
10 Limousin et al., New England Journal of Medicine, 339, 1105, 1998.
SAVOIR
A lire :
-A. Rascol ed., La M aladie de Parkinson, Paris, Acanthe-Masson, 1998.
-P. LeWitt et W. Oertel eds., Parkinson's Disease. The Treatment Options, Londres, Martin Dunitz, 1999.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
L’impact de la consommation de viande rouge ne serait pas limité au risque de cancer colorectal |
|
|
|
|
|
L’impact de la consommation de viande rouge ne serait pas limité au risque de cancer colorectal
21 novembre 2017
Si l’on sait aujourd’hui que la consommation de viande rouge et de charcuterie est associée à un risque accru de cancer colorectal, qu’en est-il des autres localisations de cancer ? Une nouvelle étude, réalisée grâce aux données des volontaires participant à la cohorte NutriNet-Santé, met en lumière un effet potentiellement plus global de cette consommation.
Articles associés
* L’étiquetage nutritionnel simplifié, un atout pour la santé
* Les recommandations du Programme national nutrition santé, bonnes pour le cœur
* Nutrition et santé
* Vers des vaccins anti-cancer plus efficaces ?
*
A l’issue de méta-analyses, les instances internationales d’expertise collective - notamment le Centre international de recherche sur le cancer (agence spécialisée de l’Organisation mondiale de la Santé), le World cancer research found, et l’Institut national du cancer en France - ont conclu que le risque de survenue du cancer colorectal est augmenté par la consommation excessive de viande rouge et de charcuterie. C’est en se fondant sur cet état des lieux que le Haut conseil de santé publique recommande, depuis avril dernier, de limiter la consommation de viande rouge (bœuf, veau, porc, agneau, sanglier...) à moins de 500 g par semaine et celle de charcuterie à moins de 150 g par semaine.
Viande rouge et charcuterie impliqués dans d’autres types de cancers ?
L’impact de la consommation de viande rouge et de charcuterie est-il néanmoins limité à la survenue des cancers colorectaux ? Quelques études portant sur d’autres types de cancer permettent d’en douter. En particulier, en s’appuyant sur les données de la cohorte SU.VI.MAX, l’équipe de recherche en épidémiologie nutritionnelle (EREN) a observé, en 2014, un effet significatif de la consommation de charcuterie sur l’incidence du cancer du sein. Cette cohorte de 13 000 personnes était initialement destinée à étudier l’impact d’une supplémentation en vitamines et minéraux antioxydants sur la santé. "Notre étude a porté sur les quelques 4 700 femmes de SU.VI.MAX, précise le Dr Mathilde Touvier*. Nous voulions progresser sur la question, en effectuant des analyses sur une cohorte plus importante qui nous permettrait d’identifier des impacts éventuels sur d’autres types de cancer".
Aujourd’hui, ces chercheurs publient les résultats d’une étude réalisée sur la cohorte NutriNet-Santé, comprenant 61 476 personnes et plus de 1 600 cas de cancers incidents entre 2009 et 2015. Destinée à étudier les effets de l’alimentation sur la santé des Français, NutriNet présente l’avantage de fournir des informations très précises sur les pratiques alimentaires des participants. Ces derniers indiquent en effet tous les 6 mois le détail de leurs consommations alimentaires sur 3 jours (tous les aliments et boissons ingérés ainsi que la taille des portions). Une table de composition permet de convertir ces consommations d’aliments en apports nutritionnels.
Les résultats publiés dans l’International Journal of Cancer montrent que le risque de développer un cancer du sein augmente avec la consommation de viande rouge, et que cette association existe de manière plus générale sur le risque de cancer au global. Ainsi, les 20% de personnes consommant le plus de viande rouge (près de 100g/jour en moyenne) voient leur risque de développer un cancer augmenter de 30% par rapport aux 20% qui en mangent le moins (40g par jour en moyenne).
Une alimentation riche en anti-oxydants comme antidote ?
Un autre enseignement de l’analyse de la cohorte SU.VI.MAX a été que la supplémentation en antioxydants pourrait compenser, au moins en partie, l’impact de la consommation de viande rouge et de charcuterie sur la survenue de cancer. Ainsi, aucun lien n’est trouvé entre la consommation de viande rouge et le cancer du sein chez les femmes ayant reçu une supplémentation en antioxydants. En revanche, dans le groupe ayant reçu un placebo, ce lien est observé et linéaire : plus la consommation est importante, plus le risque est élevé. Ce résultat concorde avec les effets protecteurs des antioxydants obtenus chez la souris par les chercheurs de l’Inra (unité Toxalim à Toulouse).
L’objectif des chercheurs de l’EREN est maintenant de définir si une alimentation naturellement riche en antioxydants offre également cet effet protecteur. Pour cela, les chercheurs entreprennent en premier lieu de construire un indicateur du potentiel antioxydant de l'alimentation, à partir de la description faite par les participants de leurs consommations alimentaires. Cet indicateur permettra ensuite de tester l’impact d’une alimentation riche en antioxydants sur le risque de cancer associé à la consommation de viande.
Participez à l’étude NutriNet santé
Rien de plus facile que de contribuer à mieux comprendre l’effet de notre alimentation sur la santé. Il suffit de s’inscrire sur le site et de remplir des questionnaires en ligne (maximum un par mois). Cette cohorte, débutée en 2009, compte aujourd’hui plus de 160 000 « nutrinautes ». Bienvenue aux nouveaux volontaires qui rejoindront l’aventure !
Note :
*Inserm U1153/Inra/ Cnam/ Université Paris 13 – Centre de Recherche en Epidémiologie et Statistique Sorbonne Paris Cité
Source :
A. Diallo et coll., Red and processed meat intake and cancer risk : results from the porspective NutriNet-Santé cohort study, Int. J. Cancer, édition en ligne du 15 septembre 2017
DOCUMENT inserm LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 ] Précédente - Suivante |
|
|
|
|
|
|