ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Infarctus du myocarde

 

 

 

 

 

 

 

Infarctus du myocarde

Sous titre
Quand le cœur est privé d’oxygène

Communément appelé "crise cardiaque", l’infarctus du myocarde correspond à la destruction partielle du muscle cardiaque, due à l’obstruction d’une artère qui alimente le cœur en sang, et donc en oxygène. Cette situation d’extrême urgence nécessite d’appeler le Samu (15) pour une hospitalisation immédiate. Grâce aux avancées thérapeutiques et à l’amélioration de la prise en charge, la mortalité qui lui est associée a déjà significativement diminué. Et grâce aux travaux de recherche actuellement en cours, d’autres progrès sont à venir.
       

Dossier réalisé en collaboration avec Philippe Gabriel Steg, responsable de l'équipe Maladie athérothrombotique cœur et cerveau, Laboratoire de recherche vasculaire translationnelle (unité Inserm 1148), chef du département de Cardiologie à l’hôpital Bichat, Paris

Comprendre l’infarctus du myocarde
L’infarctus du myocarde est déclenché par l’obstruction d’une artère qui alimente le cœur en sang, et donc en oxygène (artère coronaire
artère coronaire
Artère qui irrigue le muscle cardiaque.
). Privées d’oxygène, les cellules musculaires du cœur meurent rapidement sur une zone plus ou moins étendue. Cela entraîne des problèmes de contraction du muscle cardiaque (le myocarde), se manifestant par des troubles du rythme, une insuffisance cardiaque, voire l’arrêt du cœur.

Quand l’artère se bouche…
Avec l’âge et sous l’influence de divers facteurs de risque, des plaques appelées athéromes, constituées notamment de cholestérol, se forment le long de la paroi des artères. Lorsqu’une de ces plaques se rompt, un caillot sanguin se forme et part dans la circulation. Il peut aller bloquer une artère à différents endroits de l’organisme (cœur, cerveau, membre…), ce qui réduit brutalement le débit sanguin voire l’interrompt totalement. C’est ce que l’on nomme l’ischémie. Si ce phénomène se prolonge, l’hypoxie (manque d’oxygène) induite entraîne la mort des cellules concernées.

Pour en savoir plus, consultez notre dossier Athérosclérose


Environ 12 000 décès par an en France
On compte en moyenne 80 000 infarctus du myocarde par an en France. Environ 10% des victimes décèdent dans l’heure qui suit et le taux de mortalité à un an est de 15%. Grâce aux progrès thérapeutiques, à la vitesse d’intervention du Samu (à condition de l’appeler rapidement) et à la disponibilité accrue d’unités de cardiologie interventionnelle opérationnelles 7j/7 et 24h/24, le taux de mortalité à 30 jours a cependant chuté de 10,2% en 1995 à 2,1% en 2015.
Plusieurs facteurs de risque modifiables
Certains facteurs de risque d’athérome, et donc notamment d’infarctus du myocarde, peuvent être modifiés :
*         le tabagisme
*         l'hypercholestérolémie
*         le diabète
*         l’obésité
*         l’hypertension
*         le stress
*         la sédentarité
Certaines prédispositions génétiques, l’âge (supérieur à 55 ans) et le sexe (masculin) sont d'autres facteurs de risque, évidemment non modifiables.
Les femmes ont quatre fois moins de risque de faire un infarctus que les hommes, avant la ménopause. Mais la proportion de femmes jeunes qui en sont victimes a toutefois tendance à s’accroître, notamment en raison de l'augmentation du tabagisme et de l’obésité dans cette population. Après la ménopause, les risques sont équivalents pour les deux sexes.


Des signes typiques
Compte tenu de l’urgence médicale que constitue un infarctus du myocarde, il est nécessaire de connaître les signes d’alerte : il s’agit d’une douleur aiguë et persistante dans la poitrine, qui irradie le bras gauche, le dos et la mâchoire. Peuvent également survenir un malaise, des nausées, des vertiges.
Un infarctus du myocarde peut être très douloureux, mais pas forcément. Certains sont même silencieux : près d’un quart des infarctus du myocarde ne s’accompagnent pas des signes typiques. Il arrive d’ailleurs qu’un infarctus soit dépisté a posteriori, en raison de la survenue d’une complication.

Face à une situation claire ou ambiguë, il faut immédiatement composer le 15 pour alerter le Samu. Un électrocardiogramme effectué sur place par les équipes de premier secours peut permettre de confirmer le diagnostic d’infarctus.

L’angioplastie, très efficace si très rapide
La seule solution face à un infarctus est de déboucher l’artère le plus rapidement possible après le début des symptômes. Cette "reperfusion" rapide diminue la mortalité et les complications associées à l’infarctus du myocarde. Etant donné l’urgence de la situation, le Samu doit acheminer le patient dans une unité de cardiologie interventionnelle dans les plus brefs délais.

Lorsque le délai prévisible entre le début des symptômes et la prise en charge dans un service spécialisé est inférieur à 90 minutes, ce qui est la plupart du temps le cas en France, le patient bénéficiera directement d'une angioplastie. Cette intervention consiste à dilater les parois de l’artère obstruée à l’aide d’un ballonnet gonflable, afin restaurer la circulation sanguine. Le ballonnet est introduit directement dans l’artère grâce à un cathéter. Elle est suivie de la pose d’un stent : un petit dispositif tubulaire en mailles métalliques placé dans l’artère afin de la maintenir dilatée.
Si le délai de mise en œuvre de l’angioplastie risque de dépasser 90 minutes, le patient peut se voir immédiatement administrer un agent thrombolytique, capable de dissoudre le caillot sanguin obstruant l’artère coronaire. Ce médicament, très efficace, peut toutefois entraîner des hémorragies cérébrales dans environ 1% des cas.


Un traitement médicamenteux complémentaire est également administré pour limiter le risque de complications. En urgence, ce traitement repose le plus souvent sur des combinaisons de médicaments anticoagulants injectables (héparines
héparines
Substance aux propriétés anticoagulantes puissantes.
ou produits similaires) et d’antiagrégants plaquettaires (association de deux antiagrégants plaquettaires oraux avec de l'aspirine et un antiplaquettaire dirigé contre la voie de l’adénosine diphosphate comme le clopidogrel, le ticagrelor ou le prasugrel).

Éviter récidive et complications
Les conséquences d’un infarctus du myocarde sont plus ou moins importantes selon l’étendue de la zone asphyxiée et selon la rapidité de la reperfusion ("débouchage" de l'artère).

L’infarctus modifie les dimensions, l’épaisseur et la géométrie du ventricule gauche (la cavité du cœur depuis laquelle est éjecté le sang partant dans tout le corps). Le risque de mortalité à long terme est associé à l’ampleur de ce "remodelage". L'infarctus peut aussi être source de complications mécaniques, devenues rares à l’ère de l’angioplastie coronaire, mais qui restent très graves : communication interventriculaire, rupture de la paroi libre du cœur, insuffisance mitrale aigue.
L’infarctus peut en outre entraîner une insuffisance cardiaque, et de troubles du rythme cardiaque qui font courir un risque de mort subite.
Enfin, l’infarctus peut se compliquer d’un accident vasculaire cérébral.
Afin d’évaluer ces risques, plusieurs examens peuvent être nécessaires pendant ou au décours de l’hospitalisation : des électrocardiogrammes pour détecter des troubles du rythme, une échographie Doppler pour visualiser le cœur et la circulation, une coronarographie pour observer les artères coronaires, une scintigraphie cardiaque pour évaluer l'irrigation et le fonctionnement du myocarde, une épreuve d’effort pour vérifier les capacités cardiaques du patient.
Voir l’athérome
Une nouvelle technique d’imagerie, la tomographie
tomographie
Technique d’imagerie cérébrale permettant de reconstituer le volume en coupes d’un objet, tel que le cerveau.
par cohérence optique, permet de "voir" les plaques d’athérome à très haute résolution. Elle peut être utilisée avant ou après une angioplastie chez une victime d’infarctus. Elle est aussi utilisée pour suivre l’évolution d’une plaque chez un patient atteint d’athérosclérose coronaire et permet donc de prendre des mesures pour prévenir sa rupture.
Une association de médicaments nommée "BASIC" est prescrite pour réduire les risques de récidive et de complication. Les initiales BASIC correspondent à :
*         Bêtabloquants, pour réduire la pression artérielle et la fréquence cardiaque si  nécessaire
*         Association d’Antiagrégants plaquettaires, notamment l’aspirine, pour empêcher la formation d’un nouveau caillot
*         Statines, pour réduire le taux de cholestérol
*         Inhibiteurs de l’enzyme de conversion, pour lutter contre l’hypertension artérielle et prévenir le remodelage et la dilatation du ventricule gauche
*         Contrôle des facteurs de risque (arrêt du tabac, perte de poids si nécessaire, activité physique et réadaptation physique…)

La vie après un infarctus du myocarde
Après sa sortie de l’hôpital, le patient doit souvent suivre une réadaptation cardiovasculaire, afin de favoriser la récupération des capacités du muscle cardiaque, mais également de permettre l’optimisation des traitements et du contrôle des facteurs de risque. Le bénéfice est physique mais également psychologique. Elle contribue à faciliter la reprise d’une activité professionnelle.

L’année un infarctus qui suit est ponctuée de rendez-vous réguliers chez le médecin généraliste et chez le cardiologue. Par la suite, si tout va bien, les rendez-vous s’espacent. Toutefois, le traitement BASIC doit généralement être poursuivi au long cours. Et le patient doit apprendre à contrôler au mieux ses facteurs de risque modifiables (tabagisme, poids, activité physique …).
Si des troubles du rythme cardiaque persistent malgré un traitement adapté, il peut devenir nécessaire de mettre en place un défibrillateur cardiaque implantable ou un pacemaker sous anesthésie locale. Par ailleurs, si plusieurs artères coronaires sont rétrécies ou bouchées, une angioplastie coronaire complémentaire ou un pontage sur les autres artères peuvent être indiqués. Enfin, en cas d’insuffisance cardiaque grave, la prise en charge peut parfois aller jusqu'à une transplantation cardiaque.


Prévenir l’infarctus
Les stratégies visant à empêcher la formation des caillots sanguins (stratégies antithrombotiques), déjà testées de longue date, n’ont pas dit leur dernier mot : plusieurs groupes continuent à explorer cette voie, notamment ceux de Victor Aboyans (unité Inserm 1094, Limoges), Gilles Montalescot (unité Inserm 1166, Paris) et Philippe-Gabriel Steg (unité Inserm 1148, Paris). Des essais cliniques évaluant divers médicaments ou combinaisons de molécules sont en cours pour améliorer encore les protocoles.

Il en va de même pour les médicaments hypolipidémiants, destinés à abaisser le taux de lipides dans le sang et donc à limiter la formation de plaque d’athérome. L'équipe de Catherine Boileau (unité Inserm 1148, Paris) a identifié une nouvelle cible thérapeutique (PCSK9) dans certaines formes d’hypercholestérolémie familiale : plusieurs essais cliniques évaluent actuellement des inhibiteurs de cette protéine dans l'objectif d'abaisser de façon drastique et prolongée le taux circulant de cholestérol. Deux d’entre eux, dont un coordonné à l'hôpital Bichat par l'équipe de Philippe Gabriel Steg, ont déjà donné des résultats positifs.
Par ailleurs, l’hypothèse du rôle de l’inflammation a été confirmée par un essai clinique montrant l'efficacité d'un traitement anti-inflammatoire - le canakinumab, un anticorps
anticorps
Protéine du système immunitaire, capable de reconnaître une autre molécule afin de faciliter son élimination.
monoclonal inhibiteur de l’interleukine 1 beta (IL-1β) – dans la prévention de la récidive et des complications cardiovasculaires chez des patients traités pour une athérosclérose. La complexité et le coût de ce produit incitent toutefois à chercher d’autres moyens pour lutter contre l’inflammation vasculaire. Ainsi, des équipes (notamment celle de François Roubilleau au CHU de Montpellier/unité Inserm 1046 et celle de Denis Angoulvant à l'université de Tours) mènent des essais cliniques avec d’autres molécules, telles que la colchicine.


Prédire l’infarctus
On ne sait pas encore pourquoi les plaques d’athérome se rompent. Connaître les causes du phénomène permettrait de mieux prévoir le risque d’infarctus du myocarde (ou autres accidents vasculaires), et peut-être d’empêcher leur survenue. Les chercheurs essaient d’identifier des biomarqueurs indicateurs de ce risque. Ces travaux, toujours en cours, n’ont pour l’instant pas donné de résultat applicable.
Limiter les dégâts de l’infarctus
L’infarctus et ses suites provoquent des phénomènes inflammatoires délétères : ainsi, certains lymphocytes attaquent les tissus concernés. L’équipe de Ziad Mallat (dans l'unité Inserm 970 à Paris et à l'université de Cambridge) teste l'utilisation d'anticorps monoclonaux dirigés contre les lymphocytes B pour tenter de limiter ces dégâts. Un essai clinique est en cours.
… ou de la reperfusion
La reperfusion brutale de l’artère provoque un apport soudain d’oxygène qui augmente la nécrose
nécrose
Mort incontrôlée d’une cellule, entraînant la mort des cellules voisines.
du muscle cardiaque. Paradoxalement, cette intervention qui sauve la vie du patient serait responsable d’une part non négligeable des dégâts sur le muscle. On a montré chez l’animal, depuis une trentaine d’années, que boucher l’artère par brefs à-coups avant un brusque afflux de sang permet de limiter la nécrose. Il s’agit en quelque sorte de "conditionner" le cœur pour le rendre plus résistant. Ce préconditionnement n’a pas de sens en clinique mais est apparu plus récemment (en 2003) que ce phénomène agit même après l’ischémie ayant provoqué l’infarctus. Un tel conditionnement pourrait se pratiquer au moment de l’angioplastie. L'équipe de Michel Ovize (unité Inserm 1060, Lyon) étudie cette approche.

Régénérer le cœur
La cardiologie est un domaine pionnier en thérapie cellulaire. En injectant, le plus tôt possible après un infarctus, des cellules destinées à remplacer les cellules musculaires détruites, des chercheurs tentent de régénérer les zones lésées du muscle cardiaque et, ainsi, d’améliorer sa fonction. Cette voie fait l’objet de nombreux travaux, par exemple dans l'équipe de Patricia Lemarchand (unité Inserm 1087, Nantes), celle de Philippe Ménasché (unité Inserm 970, Paris) et celle de Jérôme Roncalli (CHU de Toulouse), avec des stratégies différentes. Elles sont toujours en cours de développement.

 

   DOCUMENT      inserm     LIEN

 
 
 
 

Big data en santé

 

 

 

 

 

 

 

  Big  data   en santé

Sous titre
Des défis techniques, humains et éthiques à relever

Dans le domaine de la santé, le big data (ou données massives) correspond à l’ensemble des données socio-démographiques et de santé, disponibles auprès de différentes sources qui les collectent pour diverses raisons. L’exploitation de ces données présente de nombreux intérêts : identification de facteurs de risque de maladie, aide au diagnostic, au choix et au suivi de l’efficacité des traitements, pharmacovigilance, épidémiologie… Elle n’en soulève pas moins de nombreux défis techniques et humains, et pose autant de questions éthiques.
       
Dossier réalisé en collaboration avec Rodolphe Thiebaut, directeur de l’équipe Statistiques pour la médecine translationnelle (unité 1219 Inserm/Inria), enseignant à l'ISPED (Bordeaux), directeur de l’unité de soutien méthodologique à la recherche clinique et épidémiologique au CHU de Bordeaux et chercheur au Vaccine Research Institute (Créteil).

Comprendre l’importance du big data en santé
En santé comme dans bien d’autres domaines, les progrès technologiques ont fait exploser la quantité d’informations recueillies à chaque instant. Ainsi, si dix ans ont été nécessaires pour obtenir la première séquence d’un génome humain, en 2003, il faut aujourd’hui moins d’une journée pour parvenir au même résultat. Cette accélération technologique fait croître le volume de données disponibles de manière exponentielle. Une aubaine pour la recherche en santé pour qui le big data est une source presque inépuisable de nouvelles connaissances, indispensables à l’innovation et aux progrès médicaux !

Un nombre important de sources et de types de données
La France possède environ 260 bases de données publiques dans le domaine de la santé, et le portail Epidémiologie‐France  recense jusqu’à 500 bases de données médico-économiques, cohortes, registres et études en cours.
Les bases de données médico-administratives
Ces bases offrent des données objectives et très exhaustives à l’échelle de larges populations, avec peu de personnes perdues de vue en cours de suivi. Des atouts majeurs par rapport aux informations qui peuvent être recueillies lors d’études, poursuivies à court ou moyen terme, menées dans des populations spécifiques ou en nombre limité, et souvent fondées sur les déclarations des participants.
La plus riche des bases médico-administratives est le SNIIRAM (Système national d’information interrégimes de l’Assurance maladie). Dans cette base sont enregistrés tous les remboursements effectués par l’Assurance maladie pour chaque cotisant, tout au long de leur vie (biologie, médicaments, ambulances, consultations avec dates et noms des professionnels de santé vus, codes du type de maladie dans certains cas…). Ce système permet le suivi à long terme de données fiables.
Il existe beaucoup d’autres bases médico-administratives, comme celle de l’ATIH (Agence technique de l'information sur l'hospitalisation) ou celles des caisses de retraite (dont la CNAV). Il existe également des bases gérées par des centres de recherche, notamment celle du CépiDc (Inserm) qui recense les causes médicales de décès en France depuis 1968.

Qui accède aux données du SNIIRAM ?
La base est actuellement accessible aux agences sanitaires et organismes publics de recherche à but non lucratif. En 2013, une cinquantaine de chercheurs l’a interrogée de manière régulière, réalisant plus de 17 000 requêtes, soit 30% de plus que l'année précédente.
Un arrêté du ministère de la Santé qui interdit l'accès à cette base aux organismes à but lucratif (compagnie d'assurances, laboratoire pharmaceutique…) a été jugé illégal par le Conseil d’État qui demande son annulation d’ici fin 2016. Par conséquent, toutes les structures voulant mener une étude d'intérêt général pourront bientôt accéder à ces données et les demandes devraient donc exploser dans les années à venir.

Les cohortes
Une cohorte est un groupe de personnes partageant un certain nombre de caractéristiques communes, que des chercheurs suivent pendant un temps plus ou moins long afin d’identifier la survenue d’événements de santé (maladie ou dysfonctionnement de l’organisme) et des facteurs de risque ou de protection s’y rapportant.
Les organismes de recherche montent de grandes cohortes, incluant jusqu’à plusieurs dizaines de milliers de personnes, suivies pendant plusieurs années. C’est le cas par exemple des cohortes Constances, I-Share ou encore MAVIE et NutiNet-Santé, mises en œuvre en partenariat avec l’Inserm. La cohorte Constances, en cours de constitution, inclura à terme 200 000 adultes de 18 à 69 ans consultant dans des centres d'examens de santé de la Sécurité sociale. La cohorte I-Share inclura 30 000 étudiants des universités, suivis pendant 10 ans. L’observatoire MAVIE étudie les accidents de la vie quotidienne chez plus de 25 000 volontaires internautes. Quant à NutiNet-Santé, elle récolte une multitude de données sur le mode de vie, la santé et les habitudes alimentaires de 500 000 Français.
Toutes ces données récoltées permettent des études et une surveillance épidémiologique, potentiellement à fort impact en santé publique.

Les études cliniques
Les laboratoires publics mènent par ailleurs de très nombreux travaux de recherche clinique, incluant des populations particulières de patients dont les profils de risque et les états de santé sont analysés. Or, le nombre de données collectées chez un même patient ne cesse de croitre, avec des centaines d’informations recueillies chez un même individu, contre une dizaine il y a quelques années.
En oncologie, des dizaines de paramètres cliniques, biologiques, d’imagerie et de génétique sont systématiquement recueillis. C’est aussi le cas pour le développement des vaccins. Ainsi, dans le cadre de l’essai clinique DALIA réalisé par Vaccine Research Institute, destiné à évaluer un vaccin thérapeutique contre le VIH, toutes les cellules immunitaires des patients ont été comptées grâce à la reconnaissance des marqueurs de surface, et leur fonctionnalité a été testée. Le protocole a généré environ 800 mesures par patient et par visite, sans compter l’étude de l’expression génétique de nombreux marqueurs (47 000 sondes/patient/visite) et du séquençage à haut débit du virus lui-même.


Les objets de santé connectés
Les objets de santé connectés génèrent également de très nombreuses données transmissibles et partageables : appareils mesurant le nombre de pas, la fréquence cardiaque, la glycémie
glycémie
Taux de glucose (sucre) dans le sang.
, la pression artérielle… Ces données sont le plus souvent stockées et gérées par des géants d’internet ou GAFAM : Google, Apple, Facebook, Amazon et Microsoft.

Les enjeux de la recherche

Des défis techniques majeurs
Les énormes volumes de données désormais disponibles soulèvent des défis techniques concernant leur stockage et les capacités d’exploitation. Des programmes et des algorithmes informatiques et statistiques de plus en plus complexes s’avèrent nécessaires.
Les organismes de recherche disposent tous de serveurs de stockage et de supercalculateurs. Dans la plupart des cas, compte tenu de leur coût, ces plateformes sont mutualisées. C’est par exemple le cas du Mésocentre de calcul intensif aquitain (MCIA, Bordeaux), partagé par les universités de Bordeaux et les laboratoires CNRS, Inra, Inria et Inserm de la région. Autre exemple à Lyon, avec Platine, une plateforme européenne d’immunomonitoring gérée par plusieurs entreprises de biotechnologie ainsi que le Centre Léon Bérard de lutte contre le cancer et l’Inserm. Elle vise à aider les médecins à la décision thérapeutique en cancérologie et en infectiologie, en permettant l’analyse du statut immunologique initial des patients.
Autre problématique, les données massives sont assez fragmentées. Les informations collectées sont en effet de plus en plus hétérogènes, de par :
*         leur nature (génomiquegénomiqueÉtude conduite à l’échelle du génome, portant sur le  fonctionnement de l’organisme, d’un organe, d’une pathologie...

, physiologique, biologique, clinique, sociale…),
*         leur format (texte, valeurs numériques, signaux, images 2D et 3D, séquences génomiques…),
*         leur dispersion au sein de plusieurs systèmes d'information (groupes hospitaliers, laboratoires de recherche, bases publiques…).
Pour rendre possible leur traitement et leur exploitation, ces informations complexes doivent être acquises de manière structurée, et codées avant de pouvoir être intégrées dans des bases ou des entrepôts de données. Des standards se développent, tel I2b2 (pour Informatics for Integrating Biology and the Bedside), développé à Boston et désormais utilisé au CHU de Rennes, à Bordeaux ou encore  à l’Hôpital européen Georges Pompidou (Paris). Ce système a par exemple été utilisé́ pour identifier et quantifier le risque accru d’infarctus du myocarde chez les patients sous Avandia, et a contribué́ au retrait du marché́ de ce médicament.

Grâce à ces standards, les hôpitaux et les centres de soins sont mieux armés pour compiler toutes les données collectées (pharmacie, biologie, imagerie, génomique, médico-économique, clinique...) dans des entrepôts de données biomédicales, interrogeables par les chercheurs via des interfaces web. De nombreuses équipes de recherche travaillent également sur des plateformes intégrées, pour apparier des bases et agréger leurs données avec celles de cohortes. Ainsi, le projet Hygie, conduit par l’Institut de recherche et de documentation en économie de la santé, apparie les bases SNIIRAM et SNGC (Système national de gestion des carrières de l’Assurance retraite). L’objectif est de constituer un système d’information sur les indemnités journalières de sécurité́ sociale sur un échantillon de 800 000 personnes, qui servira à enrichir les fichiers de la cohorte CONSTANCES.

En pratique
Lorsqu’un chercheur souhaite démarrer une étude se fondant sur l’utilisation de données massives, il commence par identifier les bases qui lui sont utiles et demande un accès spécifique aux équipes ou organismes qui détiennent ces données. Il doit ensuite s’entourer de nombreuses compétences pour effectuer des méta-analyses
méta-analyses
Analyse statistique faite à partir de plusieurs études portant sur un même sujet.
intégrant toutes ces données. Pour l’essai DALIA par exemple, l’analyse des résultats a nécessité la contribution d’une cinquantaine de personnes issues de disciplines différentes : cliniciens, immunologistes, biologistes, virologistes, techniciens de laboratoire, assistants de recherche clinique, gestionnaires de bases de données, biostatisticiens ou encore bioinformaticiens.

Le big data, quelles utilités ?
Entreprises, organismes de recherche, à but lucratif ou non, scientifiques, médecins, industriels…. Le big data intéresse de très nombreux acteurs du monde de la santé car il permet de nombreux progrès médicaux.
Mieux prévenir et prendre en charge les maladies
Les données multidimensionnelles récoltées à long terme sur de larges populations, permettent d’identifier des facteurs de risque pour certaines maladies comme le cancer, le diabète, l’asthme ou encore les maladies neurodégénératives. Ces facteurs servent ensuite pour construire des messages de prévention, et mettre en place des programmes à destination des populations à risque.

Le big data permet en outre le développement de systèmes d’aide au diagnostic et d’outils permettant la personnalisation des traitements. Ces systèmes se fondent sur le traitement de grandes masses de données cliniques individuelles. Dans cette veine, le super-ordinateur Watson d’IBM permet par exemple d’analyser en quelques minutes le résultat du séquençage génomique de patients atteints de cancer, de comparer les données obtenues à celles déjà disponibles, et de proposer ainsi une stratégie thérapeutique personnalisée. En l’absence de cet outil, ce travail d’analyse prend plusieurs semaines. Les cliniques et hôpitaux intéressés passent un partenariat avec IBM qui détient ce super-ordinateur et fournit les résultats.
Le big data peut également permettre de vérifier l’efficacité d’un traitement. Par exemple, dans le domaine des vaccins, les cliniciens mesurent aujourd’hui des centaines de paramètres au cours des essais cliniques : comptages cellulaires, fonctionnalité cellulaire, expression de gènes d’intérêt... alors qu’il y a quelques années, on se limitait à la concentration des anticorps
anticorps
Protéine du système immunitaire, capable de reconnaître une autre molécule afin de faciliter son élimination.
d’intérêt. À terme, cette évolution, les données massives qu’elle génère et la capacité à les analyser, pourrait permettre de vérifier qu’une vaccination a bien fonctionné au bout d’une heure seulement, à partir d’une micro goutte de sang.

Prédire des épidémies
Disposer de nombreuses informations sur l’état de santé des individus dans une région donnée permet de repérer l’élévation de l’incidence de maladies ou de comportements à risque, et d’alerter les autorités sanitaires.
Ainsi, le site HealthMap a pour objectif de prédire la survenue d’épidémies à partir de données provenant de nombreuses sources. Développé par des épidémiologistes et des informaticiens américains en 2006, ce site fonctionne en collectant les notes de départements sanitaires et d’organismes publics, les rapports officiels, des données internet… Le tout est mis à jour en continu pour identifier des menaces sanitaires et alerter les populations. Citons aussi le simulateur GLEAM, destiné à prédire la dissémination d’une épidémie en particulier, en exploitant les données de transport aérien.
En France, depuis 1984, le réseau Sentinelles suit plusieurs maladies infectieuses et alerte sur les épidémies grâce à la contribution de 1 300 médecins généralistes et d’une centaine de pédiatres répartis sur tout le territoire. Ces derniers rapportent au moins une fois par semaine le nombre de cas observés pour sept maladies transmissibles (diarrhée aiguë, maladie de Lyme, oreillons, syndromes grippaux, urétrite masculine, varicelle et zona) ainsi que les actes suicidaires. Les données sont transmises, via un réseau sécurisé, auprès de l’institut Pierre Louis d’Épidémiologie et de Santé Publique France, en collaboration avec l'Institut de veille sanitaire (InVS).

Améliorer la pharmacovigilance
L’analyse des données issues de cohortes ou des bases médico-économiques sur le long terme peut donc permettre d’observer beaucoup de phénomènes, et notamment de faire des rapprochements entre des traitements et la survenue d’événements en santé. Cette pratique permet de repérer des événements indésirables graves et d’alerter sur certains risques. En 2013, la base de données du SNIIRAM avait ainsi permis d’étudier le risque d’AVC et d’infarctus du myocarde chez les femmes utilisant une pilule contraceptive de 3e génération.

Entre protection des données et avancée de la recherche : les défis éthiques du big data
Lors d’un essai clinique, un consentement est nécessaire avant le recueil de données de santé. De même, tout chercheur ou clinicien qui utilise des données du soin doit en informer le patient concerné et faire une déclaration auprès de la CNIL. Mais d’autres recueils se font à l’insu des contributeurs, notamment lors de recherches sur internet par mots clés ou lors de la transmission de données d’objets connectés. Cela pose évidemment des problèmes éthiques relatifs au souhait des citoyens de partager ou non ces données avec des tiers, ainsi que sur la préservation de l’anonymat.
Et de nombreuses autres questions se posent : faut-il conserver toutes les données ? Faut-il les mutualiser ? Qui doit les gérer et sous quelles conditions les partager ? Comment faire en sorte que Google, Apple, Facebook et Amazon ne s’approprient pas une partie d’entre elles ? Les enjeux sont de taille : risque de divulgation de la vie privée et conséquences pour la vie sociale, perte de confiance dans la puissance publique et la confidentialité de la recherche, harcèlement publicitaire... Ces problématiques font régulièrement l’objet d’avis de la part de comités d’éthiques, dont le Comité consultatif national d’éthique en France.

Les pouvoirs publics se sont également saisis de la question : la loi de modernisation de notre système de santé, promulguée le 26 janvier 2016, prévoit en effet l'ouverture des données agrégées de santé à des fins de recherche, d'étude ou d'évaluation d'intérêt public, à tout citoyen, professionnel de santé ou organisme (public ou privé) participant au fonctionnement du système de santé et aux soins. Cette ouverture est assortie de plusieurs conditions :
*         les données ne doivent pas permettre l’identification des personnes concernées (la loi restreint drastiquement l’accès aux données à caractère personnel pouvant permettre l’identification d’une personne),
*         les travaux ne doivent pas aboutir à la promotion de produits en direction des professionnels de santé ou d'établissements de santé, ni permettre l'exclusion de garanties des contrats d'assurance ou la modification de cotisations ou de primes d'assurance.
Pour y avoir accès, tout organisme de recherche ou d’étude désireux de mener un projet d’intérêt public doit soumettre ce dernier à l’Institut national des données de santé, composé entre autres de représentants de l'État, d'usagers de l'Assurance-maladie et de producteurs et d'utilisateurs publics et privés de données de santé. Le protocole de l’étude devra ensuite être validé par un comité scientifique, avant que la CNIL ne se prononce sur ses aspects relatifs au respect de la vie privée. Néanmoins, en juin 2016, les décrets d’application pour cette nouvelle organisation n’étaient toujours pas parus.

L’Inserm et le Système national des données de santé
La loi de modernisation du système de santé de janvier 2016 prévoit la création du Système national des données de santé (SNDS). Ce système sera notamment composé :
*         des données de l'Assurance maladie (SNIIRAM),
*         des données hospitalières (PMSI)
*         des causes de décès (CépiDc-Inserm).
Il est prévu que la gouvernance de ce système inclue les producteurs de données, parmi lesquels l'Inserm. Plus concrètement, l’Inserm devrait jouer le rôle d’opérateur d’extraction et de mise à disposition des données pour des traitements mis en œuvre à des fins de recherche.
Marisol Touraine, ministre des Affaires sociales et de la Santé, a lancé en avril 2016 une consultation nationale en ligne sur le big data en santé. L’objectif est que chaque Français puisse donner son avis sur les objectifs souhaités pour les patients, les professionnels de santé, les industries, les assureurs ou la puissance publique, mais également sur les conditions dans lesquelles l’exploitation des données de santé est acceptable. Les conclusions sont attendues fin 2016. Les chercheurs plaident quant à eux pour une ouverture assez large des données, et un accès simplifié. Leur souhait est de parvenir à accélérer la recherche via des plateformes techniques adaptées, permettant de hauts niveaux de sécurité (ne collecter que des données ayant un intérêt potentiel pour le sujet de recherche, cloisonner les données identifiantes, chiffrer certaines informations, limiter les accès et la copie des informations...).

 

 DOCUMENT      inserm     LIEN

 
 
 
 

Ataxie de Friedreich : une thérapie génique efficace chez l’animal

 

 

 

 

 

 

 

Ataxie de Friedreich : une thérapie génique efficace chez l’animal

COMMUNIQUÉ | 07 AVRIL 2014 - 9H33 | PAR INSERM (SALLE DE PRESSE)

NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE


L’équipe d’Hélène Puccio, directrice de recherche Inserm à l’IGBMC (Inserm / CNRS / Université de Strasbourg), en collaboration avec celle de Patrick Aubourg (Inserm et Professeur de Neuropédiatrie à l’hôpital Bicêtre-Paris Sud) a démontré chez la souris, l’efficacité d’une thérapie génique sur l’atteinte cardiaque associée à l’ataxie de Friedreich, une maladie neurodégénérative rare héréditaire. Le transfert d’une copie normale du gène déficient dans la maladie, via un vecteur viral, a permis de guérir complètement et très rapidement le cœur malade des souris traitées. Ces résultats sont publiés le 06 Avril 2014 dans la revue Nature Medicine.

L’ataxie de Friedreich est une maladie héréditaire rare et grave, associant une atteinte neurodégénérative progressive, une atteinte du cœur et un risque accru de diabète. Cette pathologie concerne une naissance sur 50 000. Aucun traitement efficace n’est disponible à l’heure actuelle pour cette maladie. L’ataxie de Friedreich débute le plus souvent à l’adolescence par des troubles de l’équilibre et de coordination (ataxie) des mouvements volontaires des jambes et des bras, confinant la plupart des patients au fauteuil roulant au bout de 10 à 20 ans d’évolution. Ce sont cependant les complications cardiaques qui engagent le pronostic vital chez 60 % des patients, le plus souvent avant l’âge de 35 ans.

La maladie est causée par une mutation principale dans le gène FXN, qui conduit à une réduction drastique de la production de la protéine appelée « frataxine ». Le taux réduit de frataxine perturbe l’activité de la mitochondrie, un organite essentiel à la cellule et qui joue un rôle fondamental dans la production d’énergie. Les tissus nerveux (cervelet, moelle épinière) et cardiaque sont particulièrement touchés par ce déficit énergétique, qui peut provoquer jusqu’à une insuffisance cardiaque fatale.
Les équipes d’Hélène Puccio, directrice de recherche Inserm, et Patrick Aubourg ont développé une approche thérapeutique basée sur l’utilisation d’un virus adéno-associé (AAV)[1], qui est connu pour cibler et faire exprimer avec efficacité un gène thérapeutique dans les cellules cardiaques. Le virus a été modifié pour être rendu inoffensif, tout en gardant sa capacité d’introduire une copie normale du gène FXN dans les cellules du cœur et d’y faire ainsi exprimer la frataxine normale.
L’équipe d’Hélène Puccio a testé sur un modèle de souris reproduisant les symptômes cardiaques des patients atteints d’ataxie de Friedreich l’efficacité de ce traitement. Les résultats de l’étude démontrent qu’une seule injection d’AAVrh10 exprimant la frataxine par voie intraveineuse permet, non seulement d’empêcher le développement de l’atteinte cardiaque chez des animaux avant l’apparition des symptômes, mais de façon plus impressionnante, un rétablissement complet et rapide du cœur d’animaux à un stade avancé de la maladie cardiaque. Au bout de trois semaines de traitement, le cœur redevient totalement fonctionnel, l’aspect du tissu cardiaque et la fonction des mitochondries sont très proches de ceux de souris saines. « C’est la première fois qu’une thérapie génique permet une rémission complète, durable et aussi rapide d’une maladie cardiaque dans un modèle animal. » explique Hélène Puccio.


Mesure de l’activité d’une protéine mitochondriale (en bleu) essentielle à la production d’énergie cellulaire et qui est perturbée en absence de frataxine (absence de marquage dans le cœur non traité). Le traitement par thérapie génique exprimant la frataxine permet de corriger sur la totalité de la surface du cœur l’activité de cette protéine essentielle. © Inserm / H. Puccio

Par ailleurs,  le système nerveux central étant une autre cible des vecteurs AAV, les équipes d’Hélène Puccio et Patrick Aubourg sont en train de vérifier si une approche similaire de thérapie génique pourrait être aussi efficace qu’elle l’est pour le cœur, au niveau de la moelle épinière et du cervelet.
Ces résultats prometteurs font d’ores et déjà l’objet d’un développement pour proposer aux patients atteints d’ataxie de Friedreich et une cardiomyopathie évolutive un traitement par thérapie génique. Dans cet objectif, trois des auteurs de la publication ont créé AAVLife, entreprise française dédiée à la thérapie génique pour les maladies rares, pour entreprendre les essais chez l’homme. Cet essai a fait l’objet d’une demande de dépôt de brevet par Inserm Transfert.
Cette étude a été réalisée notamment grâce au soutien des associations FARA[2], AFAF[3] et l’AFM[4].
 

[1] AAV : plus particulièrement le serotype AAVrh10.
[2] Friedreich’s Ataxia Research Alliance, association américaine dédiée au traitement de l’ataxie de Friedreich
[3] Association Française de l’Ataxie de Friedreich
[4] Association Française contre les Myopathies

 

 DOCUMENT        inserm        LIEN

 
 
 
 

La prise de décision implique une zone du cerveau jusqu'à présent méconnue

 




 

 

 

 

 

La prise de décision implique une zone du cerveau jusqu'à présent méconnue

mardi 22 septembre 2015

Face à un changement dans notre environnement, il faut prendre des décisions adaptées. Et c'est le cortex préfrontal qui intervient en général. De manière inattendue, des scientifiques de l'Institut de neurosciences cognitives et intégratives d'Aquitaine (INCIA, CNRS/Université de Bordeaux) ont découvert qu'une zone du cerveau située dans le thalamus joue également un rôle capital dans la mise en œuvre de telles aptitudes évoluées. Menés chez le rat, ces travaux sont publiés le 23 septembre 2015 dans The Journal of Neuroscience.
Prendre des décisions adaptées en vue de subvenir à ses besoins est une nécessité pour tous les organismes vivants. En particulier, la capacité à prendre en compte les modifications soudaines dans l'environnement représente un enjeu important pour la survie des espèces. De telles prises de décision sont considérées comme des fonctions cognitives évoluées. Elles font intervenir le cortex préfrontal, une structure cérébrale parmi les plus développées et connue pour assurer les processus décisionnels.

L'équipe « Décision et adaptation » à l'INCIA s'est d'abord intéressée aux zones du cerveau connectées au cortex préfrontal. Par une technique de marquage, elle a mis en évidence une région particulière, le thalamus submédian, au rôle fonctionnel inconnu, qui est fortement connectée au cortex préfrontal.

Les scientifiques ont par la suite testé le rôle de ces deux structures cérébrales, thalamus submédian et cortex préfrontal, dans la prise de décision et l'adaptation à l'environnement. Pour cela, ils ont considéré trois groupes de rats : le premier présentant des lésions du cortex préfrontal, le deuxième au niveau du thalamus submédian, et le troisième regroupant des rats témoins sans lésion. Il s'agit de tester leur capacité à établir un lien entre un son et l'obtention d'une récompense alimentaire.

L'expérience s'est déroulée en deux étapes (voir schéma ci-dessous). La phase d'apprentissage d'abord a permis aux animaux d'apprendre que deux sons différents (S1 et S2) prédisent chacun la survenue d'une récompense alimentaire spécifique. Les trois groupes d'animaux visitent donc la mangeoire dès qu'un signal auditif est perçu. Les lésions n'empêchent pas les animaux d'apprendre qu'un stimulus auditif prédit l'obtention de la récompense. Lors de la deuxième étape, la procédure reste inchangée pour le premier son, mais pour le son S2, les chercheurs ont distribué des récompenses alimentaires durant et surtout en dehors des périodes sonores. Ce son perd donc sa valeur prédictive et un animal sans lésion en vient à négliger ce stimulus auditif S2 pour ne venir à la mangeoire que lorsqu'il entend le son S1. En revanche, les animaux présentant une lésion que ce soit au niveau du cortex préfrontal ou du thalamus submédian se montrent incapables de faire une telle distinction, et donc, de s'adapter.

Cette étude permet d'identifier l'existence d'un circuit entre le thalamus et le cortex qui s'avère primordial dans la prise de décision adaptée à l'environnement. L'originalité de cette découverte provient du rôle fondamental que les chercheurs attribuent au thalamus submédian, une structure jusqu'à présent ignorée dans le domaine des comportements adaptatifs. Ce résultat suggère que de nombreux circuits fonctionnels sous-tendant ce type de comportement impliqueraient une contribution du thalamus. Les chercheurs comptent poursuivre l'exploration de ces circuits « thalamocorticaux » dont la compréhension pourrait améliorer notre connaissance de nombreuses pathologies, comme la schizophrénie ou encore l'addiction.


© Images obtenues au Bordeaux Imaging Center et réalisées par Fabien Alcaraz
Pour visualiser les voies nerveuses, deux marqueurs (rouge et vert) sont appliqués dans deux régions du cortex orbitofrontal. Ces molécules migrent ensuite pour s'accumuler dans les neurones thalamiques. Un marquage dense des deux traceurs est visible au niveau du thalamus submédian (délimité par des pointillés).



© Mathieu Wolff - équipe « Décision et adaptation » à l'INCIA (CNRS/Université de Bordeaux)


Téléchargez le communiqué de presse :



Références :
Flexible use of predictive cues beyond the orbitofrontal cortex: role of the submedius thalamic nucleus. Fabien Alcaraz, Alain R. Marchand, Elisa Vidal, Alexandre Guillou, Angélique Faugère, Etienne Coutureau, Mathieu Wolff. Journal of Neuroscience. 23 septembre 2015.
Contacts :
Chercheur CNRS l Mathieu Wolff l T +33 (0)5 57 57 95 07 l mathieu.wolff@u-bordeaux.fr
Presse CNRS l Priscilla Dacher l T +33 (0)1 44 96 46 06 l priscilla.dacher@cnrs-dir.fr

 

  DOCUMENT         CNRS         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google