ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LISTÉRIOSE

 

       

 

 

 

 

 

Listériose

Sous titre
Une infection d’origine alimentaire sous haute surveillance

Longtemps méconnue du fait de sa rareté, la listériose est aujourd'hui considérée comme un problème de santé publique. Cette infection alimentaire est due à la bactérie Listeria monocytogenes. L'infection peut avoir des conséquences graves. Elle survient préférentiellement chez des personnes aux défenses affaiblies. Elle représente aussi une menace sérieuse pour les fœtus ou les nouveau-nés en cas d’ingestion d’aliments contaminés par la mère.
       

Dossier réalisé en collaboration avec Pascale Cossart (unité Inserm 604/Institut Pasteur/Inra, Interactions bactéries-cellules) et Marc Lecuit (unité Inserm 1117 /Institut Pasteur, Biologie des infections)

Comprendre la Listériose
La bactérie Listeria monocytogenes a été décrite pour la première fois en 1926. Malgré la survenue de nombreuses épidémies de listériose dans le monde, il a fallu attendre les années 1980 pour que l’ingestion d’aliments contaminés soit reconnue comme la cause de la maladie. Depuis, de très sévères règles d'hygiène ont été imposées à la filière agro-alimentaire, et L. monocytogenes fait l'objet de recherches intensives. La maladie elle-même est surveillée, au niveau national comme international.

Une maladie potentiellement grave
Lorsqu'une personne en bonne santé consomme des aliments contaminés par Listeria monocytogenes, la bactérie n’engendre en général pas de symptômes. L’infection est alors considérée comme non invasive. Une gastroentérite fébrile peut être observée en cas d’ingestion d’aliments massivement contaminés.
En revanche, chez un consommateur aux défenses immunitaires affaiblies par l'âge, la maladie – cancer, maladie hépatique, insuffisance rénale, diabète, sida... – ou un traitement immunosuppresseur (personne transplantée de moelle ou d’organe, maladie auto-immune, patient sous chimiothérapie), la bactérie qui traverse la paroi intestinale peut se disséminer dans l'organisme. Cette forme invasive se manifeste de quelques jours à environ deux semaines après l'ingestion de l'aliment contaminé. Elle se traduit soit par une septicémie (infection du sang), soit par une atteinte cérébrale (méningite, méningoencéphalite) pouvant laisser des séquelles neurologiques. La létalité atteint alors 30%.
Si une femme enceinte est contaminée, elle développe parfois un syndrome pseudo-grippal (fièvre, frissons, maux de tête, fatigue, courbatures) sans gravité. La bactérie qui est présente dans le sang maternel peut traverser le placenta, infecter le fœtus et provoquer un avortement spontané, une mort intra-utérine ou une naissance prématurée. Il arrive aussi que le nouveau-né soit contaminé au moment de l'accouchement. Il présente alors une détresse respiratoire et des signes neurologiques, ou, plus rarement, cutanés. Malgré les traitements antibiotiques administrés aux mères concernées, l’infection du fœtus ou du nouveau né reste très fréquente et grave.
Prévention : l'hygiène d'abord
L'origine alimentaire de la listériose n'a été mise en évidence qu'en 1981, lors d'une épidémie à Halifax (Canada). La bactérie n'altère ni l'aspect, ni l'odeur, ni le goût des aliments, ce qui la rend d'autant plus redoutable. En général, mais ce n'est pas une règle absolue, les denrées contaminées sont des produits animaux (fromage et charcuterie, entre autres). La prévention passe d'abord par un contrôle à la source. Chez l'éleveur, cela suppose l'hygiène de la traite, le refroidissement du lait ou l'isolement des animaux malades. Durant la transformation, les produits agroalimentaires subissent un contrôle rigoureux portant sur la chaîne du froid, l'hygiène des pratiques, des locaux et des infrastructures, ainsi que sur la cuisson.
A la maison, chacun doit veiller :
*         à la propreté de la cuisine, et en particulier celle du réfrigérateur qui doit être réglé à 3-4°C et régulièrement nettoyé et désinfecté à l'eau javellisée ;
*         à la séparation entre produits crus (viande, légumes) et aliments cuits ou prêts à consommer ;
*         au respect des dates limites de consommation (car la bactérie peut croître à 4°C) ;
*         à la cuisson soigneuse des restes (qui ne doivent pas être conservés plus de trois jours) ;
*         au lavage des légumes et des herbes aromatiques avant utilisation.
Ces règles de base deviennent particulièrement importantes pour les femmes enceintes et les personnes fragiles. Il leur est en outre recommandé d'éviter certains aliments à risque (voir encadré).
Personnes à risque : les aliments à éviter
*         fromages au lait cru (surtout les pâtes molles), croûte des fromages, fromages vendus râpés
*         charcuterie cuite (rillettes, pâtés, foie gras, produits en gelée, etc.), éviter les aliments servis à la coupe
*         poissons fumés, coquillages crus, surimi, tarama…
*         graines germées crues (soja…)
*         viande hachée
Un rebond inexpliqué de l'incidence
Dans les années 1990, à la suite d'épidémies en Europe et en Amérique du Nord, une surveillance sévère a été établie dans les filières agro-alimentaires, et la déclaration obligatoire de la maladie mise en place. L'incidence de la listériose, qui touchait auparavant environ 15 personnes par million d'habitants en France, est alors descendue jusqu'à 3,5 personnes par million au début des années 2000 (soit un peu moins de 200 cas en 2001). Un rebond est cependant survenu à partir de 2006, en France comme en Allemagne, en Irlande, aux Pays-Bas et au Royaume-Uni. L'incidence de la maladie s'est stabilisée à environ 5 personnes par million depuis 2008. C'est ainsi que 374 patients ont été diagnostiqués en France en 2014. Ils avaient en moyenne 71 ans et les trois-quarts d'entre eux souffraient d'une pathologie associée. Il s'agissait de cas sporadiques, aucune épidémie ne s'étant déclarée depuis plusieurs années, dans le contexte de la surveillance nationale épidémiologique et microbiologique de la listériose. Les raisons de cette augmentation récente ne sont pas précisément connues. Elles pourraient être liées au vieillissement de la population, et à l’utilisation accrue des traitements immunosuppresseurs dans cette population.

Une maladie très surveillée, à fort impact économique
La production, la transformation et la distribution des aliments sont placées sous la surveillance constante de la Direction générale de l'alimentation (DGA), qui prélève chaque année plus de 60 000 échantillons, et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Les professionnels, qui doivent répondre aux normes françaises et européennes, mettent aussi en place un autocontrôle. En cas de dépassement du seuil de contamination (plus de 100 bactéries/g),  voire en cas de simple présence pour certains aliments, les matrices ou les aliments sont retirés de la chaine de production ou de la vente.
En cas de listériose avérée, la déclaration est obligatoire (circulaire DGS/VS 98/240 du 15 avril 1998). Un résumé du tableau clinique et de son évolution, ainsi qu'un questionnaire sur les habitudes alimentaires du patient, sont adressés à l'Institut de veille sanitaire (InVS) qui supervise en continu les aspects cliniques et épidémiologiques de la maladie. Les souches de Listeria d’origine clinique et alimentaires sont adressées au Centre national de référence (CNR) des Listeria, hébergé à l'Institut Pasteur, qui assure leur typage moléculaire afin de détecter des cas groupés évocateurs d’une épidémie débutante et d’identifier la source alimentaire impliquée. La technique de référence pour ce typage est la PFGE (pulse field gel electrophoresis). Le CNR Listeria a développé une méthode de typage par analyse de la séquence génomique
génomique
Étude conduite à l’échelle du génome, portant sur le  fonctionnement de l’organisme, d’un organe, d’une pathologie...
, et celle-ci est actuellement utilisée en routine dans la surveillance.
Si des cas groupés apparaissent, l'InVS peut activer la Cellule interministérielle listeria – comprenant des représentants de l’InVS, du CNR, de la Direction générale de la santé (DGS), de la DGAL, de la DGCCRF et de l'Anses – qui décide d'interventions complémentaires (recueil d’information, prélèvements, contrôles, éventuel rappel) sur les lieux d’achat ou de production de l'aliment incriminé.
L’Agence européenne de sécurité des aliments (EFSA) et l’European Centre for Disease Prevention and Control (ECDC) coordonnent les actions de surveillance au niveau européen.

Les antibiotiques à la rescousse
La listériose est diagnostiquée par une analyse microbiologique qui confirme la présence de L. monocytogenes dans le sang, le placenta, le liquide céphalo-rachidien ou, plus rarement, dans un autre type de prélèvement (liquide d’ascite, ponction articulaire ou prélèvement périnatal). L'hospitalisation s'impose alors quasi systématiquement.
Le traitement repose sur de fortes doses d'antibiotiques, associant à la phase initiale et en l’absence d’allergie, l’amoxicilline et un aminoside (en général la gentamicine) chez l'adulte et le nouveau-né. Ces traitements sont administrés par voie intraveineuse. L’amoxicilline est poursuivie durant trois à quatre semaines. Il en va de même pour une femme enceinte présentant un syndrome pseudo-grippal, que la listériose soit diagnostiquée ou simplement suspectée.
La résistance aux antibiotiques de Listeria ne pose pas de problème en pratique clinique, car la totalité des souches rencontrées sont sensibles au traitement de référence. Des cas de résistance isolée à des antibiotiques peu ou pas utilisés ont cependant été décrits. Selon Pascale Cossart, qui dirige l'unité des Interactions bactéries-cellules à l'Institut Pasteur, "il existe quelques souches résistantes à certains antibiotiques mais l'infection reste traitable. L'essentiel est d'établir le diagnostic et de traiter le plus tôt possible : il faut éviter que la bactérie atteigne le cerveau et entraîne des séquelles neurologiques."
Enfin, pour une personne ayant mangé un aliment reconnu comme contaminé mais ne présentant pas de symptôme, aucun test biologique ni traitement ne s'impose. Il faut en revanche surveiller durant deux mois l'apparition de fièvre ou de maux de tête, et consulter alors immédiatement en signalant au médecin la consommation de cet aliment.

Listeria monocytogenes : une bactérie bien armée
Listeria monocytogenes est une bactérie saprophyte (microorganisme qui se nourrit en absorbant de la matière organique en décomposition), très résistante aux conditions extérieures. Elle vit dans les sols, les eaux ou sur les végétaux. Une proportion importante des animaux d'élevage l’héberge naturellement dans leur intestin, et leurs excréments contaminent le milieu.
Capable de se multiplier à basse température, elle peut proliférer dans les réfrigérateurs et les ateliers de transformation de la filière agroalimentaire. De plus, elle supporte les milieux salés (saumures) et acides. Sensible à la chaleur, elle est en revanche absente des aliments cuits et des conserves, mais une contamination peut intervenir après la cuisson.
L. monocytogenes est un bacille (bactérie en forme de bâtonnet) capable de pénétrer et survivre dans les cellules de son hôte. Elle dispose pour cela de tout un arsenal d'outils moléculaires (voir encadré). Cette aptitude à pénétrer dans les cellules lui permet de traverser la paroi intestinale ainsi que les enveloppes protectrices du cerveau et de la barrière placentaire.

Une bactérie modèle pour les mécanismes d'infection et la réponse de l’hôte
"Listeria monocytogenes est devenue un véritable modèle d'infection, étudié par de nombreuses équipes en Europe (France, Allemagne, Espagne, Portugal) et en Amérique (Etats-Unis, Canada)" souligne Marc Lecuit, qui dirige l'unité de Biologie des infections à l'Institut Pasteur. Elle doit ce statut à sa capacité de pénétrer dans la cellule et à franchir les barrières intestinale, placentaire et hémato-encéphalique. Elle est également capable de moduler la réponse inflammatoire et est éliminée de l’organisme par l'immunité cellulaire (celle qui fait intervenir des lymphocytes T).
Grâce à L. monocytogenes, il est possible de mieux comprendre comment d'autres pathogènes peuvent eux-mêmes franchir ces barrières. C'est aussi grâce à elle qu'ont été mis en évidence les mécanismes de l'immunité cellulaire.

Les enjeux de la recherche
Depuis les années 1980, L. monocytogenes fait l'objet de recherches intensives portant en particulier sur son interaction avec l'hôte et ses mécanismes infectieux. "Nous analysons cette bactérie sous toutes ses facettes depuis 30 ans, à l'aide de toutes les techniques et approches disponibles" souligne ainsi Pascale Cossart, dont l'unité s'intéresse aux bases moléculaires et cellulaires de l’infection depuis 1986. La chercheuse a également coordonné le séquençage complet du génome de Listeria monocytogenes, achevé en 2000 dans le cadre d’un consortium européen, et celui du génome de Listeria innocua, espèce très voisine mais non pathogène.
A cette "dissection" détaillée de la bactérie elle-même s'ajoute le travail de l'équipe de Marc Lecuit, qui se focalise sur les interactions de cette dernière avec son hôte. Il lui a notamment fallu pour cela créer un modèle de souris "humanisée" dont Listeria traverse la barrière intestinale (ce qu'elle ne fait pas normalement chez la souris) et la barrière placentaire. Le Centre national de référence (CNR) Listeria – centre collaborateur de l'OMS – est rattaché à ce laboratoire. Outre sa fonction première de surveillance microbiologique, le CNR génère des données que le laboratoire exploite expérimentalement. Ainsi, en comparant les bactéries présentes chez les malades déclarés et celles provenant de prélèvements routiniers sur les aliments à risque, l'équipe a très récemment démontré, en collaboration avec l'unité de Génomique évolutive des microbes (Institut Pasteur/CNRS UMR 3525), l'existence de souches hypervirulentes, plus souvent présentes chez les patients.
*        
Des études observationnelles inédites
L'unité Inserm 1117, en collaboration avec l'InVS, mène depuis 2010 des études cliniques nationales sur la forme invasive de la maladie :
*         MONALISA (Multicentric Observational National Analysis for Listeriosis and Listeria, un programme financé par l'ANR), première étude prospective jamais menée sur la listériose, cherche à identifier chez les patients des facteurs de risque, des facteurs pronostiques et des biomarqueursbiomarqueursParamètre physiologique ou biologique mesurable, qui permet par exemple de diagnostiquer ou de suivre l’évolution d’une maladie.

de l’infection, ainsi qu’à caractériser le tableau clinique et les pratiques thérapeutiques actuelles.
*         Listeriagen constitue le volet génétique de MONALISA, puisqu'il s'agit d'identifier chez l’homme d'éventuels facteurs génétiques de susceptibilité à la maladie.
*         MONALISA Baby veut évaluer les conséquences à long-terme de l’infection chez les enfants atteints de listériose à la naissance. Il s'agit en particulier de distinguer les effets de la septicémie, de l'atteinte cérébrale et de la prématurité sur leur développement.

 

   DOCUMENT        inserm        LIEN
 

 
 
 
 

Ultrasons biomédicaux : la recherche révolutionne les perspectives

 

 

 

 

 

 

 

Ultrasons biomédicaux : la recherche révolutionne les perspectives
        

INSTITUT 04.04.2019
Centré sur le développement des ultrasons biomédicaux pour les maladies cardiovasculaires, les neurosciences et le cancer, le premier accélérateur de recherche technologique (ART) lancé par l’Inserm en 2016 peut s’enorgueillir d’avoir déjà développé une dizaine de techniques innovantes. Elles offrent des perspectives inédites, en recherche fondamentale comme en clinique.


C’était en octobre 2016 : l’Inserm inaugurait son premier accélérateur de recherche technologique (ART) dédié aux ultrasons biomédicaux au sein de l’ESPCI Paris. L’objectif était de développer une recherche transdisciplinaire de haut niveau, en rapprochant l’expertise de physiciens, biologistes, cliniciens et ingénieurs. Avec cette organisation inédite, assortie de moyens conséquents, l’ART a reçu pour mission d’accélérer le développement de prototypes développés par les équipes de physiciens, afin que les laboratoires de recherche et services hospitaliers partenaires puissent rapidement les utiliser. Après deux ans de fonctionnement, le bilan est enthousiasmant.

De la recherche fondamentale à la thérapeutique
"Les ultrasons sont utilisées pour l’échographie ou le Doppler. Mais en faisant varier certains paramètres, ces ondes peuvent déployer des propriétés bien différentes, permettant de produire des images, mais aussi des mesures ou des traitements à distance, explique Mickaël Tanter, lauréat du Prix Opecst-Inserm 2014 et directeur de l’équipe Physique des ondes pour la médecine qui héberge l’ART*. L’Inserm a fourni un effort inédit qui d’ores et déjà permis de mettre au point une dizaine de technologies de rupture, en imagerie diagnostique comme en thérapeutique".
Exemple avec l’un des premiers projets d’imagerie développés par l’ART : un appareil miniaturisé de neuroimagerie fonctionnelle par ultrasons, qui est à la fois portable (pas d’immobilisation du sujet) et ultraperformant, permettant d’étudier finement l’activité cérébrale, avec une plus grande précision que l’IRM ou le
TEP
TEP
Méthode d’imagerie médicale qui permet de mesurer en 3 dimensions l’activité métabolique d’un organe.
fonctionnels. "Pour l’heure, huit de ces appareillages ont été construits au sein de l’ART, à destination de laboratoires Inserm partenaires. Les perspectives d’application sont variées, depuis la restauration visuelle avec l’Institut de la vision**, l’imagerie des AVC avec le laboratoire Cyceron***, ou celle des addictions avec le Centre de Psychiatrie et Neurosciences (CPN) ****".
Sur le plan diagnostique, l’ART a aussi développé de nouvelles méthodes permettant d’évaluer la dureté de certains organes : une façon de palper à distance les tissus ! L’une d’elles permet de mesurer à la fois la fibrose
fibrose
Remplacement de tissus sains par des tissus cicatriciels.
, comme le fait l’élastographie, mais aussi de quantifier le taux de graisses présent dans le foie, ce qui est inédit. Cette méthode devrait devenir très utile pour évaluer globalement l’atteinte hépatique liée à certaines maladies, notamment la stéatose hépatique non alcoolique (maladie du foie gras) actuellement émergente. Une autre technologie mise au point offre un moyen d'évaluer la rigidité cardiaque instantanée au cours du cycle cardiaque. Cette mesure, jusqu’à présent impossible à réaliser, pourrait simplifier le diagnostic de 50% des cas d’insuffisance cardiaque pour lesquels il n’existe pas, pour l’heure, de technique diagnostique directe. "Ces deux méthodes sont en cours de déploiement dans plusieurs services hospitaliers parisiens".
Mais ce n'est pas tout : les projets sont nombreux, les perspectives larges. Les premières données précliniques s’accumulent pour apporter la preuve de concept
preuve de concept
Démonstration de l’intérêt d’une invention ou d’une technologie.
de techniques à visée thérapeutique, comme la neurostimulation par ultrasons pour le traitement de la dépression ou la délivrance contrôlée de médicaments injectés sous forme de microbulles détruites par ultrasons au niveau de la zone cible...

Un modèle efficient
Franchir les limites de l’imagerie existante nécessite des progrès technologiques permettant d'améliorer :
*         la vitesse d’acquisition, qui permet de suivre la dynamique d’un processus,
*         la résolution spatiale, qui permet des observations à des échelles de plus en plus réduites,
*         la sensibilité, déterminant la dynamique de l’image.
Les énormes capacités de calculs des cartes informatiques actuelles et la maîtrise des processus physiques par le laboratoire permettent à l’ART de réaliser de telles innovations de rupture. "L’ART travaille par projets, reprend le directeur. Dès que les chercheurs ont apporté la première preuve de concept d’un prototype, il est intégré dans notre programme, où la pluridisciplinarité permet de finaliser rapidement l’appareillage qui est fabriqué par nos ingénieurs. Cela permet d’accélérer le développement et la dissémination de ces technologies de rupture auprès des laboratoires et services hospitaliers partenaires. Cela leur offre une compétitivité inédite sur le terrain de la recherche internationale. Vient ensuite une stratégie de transfert de propriété intellectuelle et industrielle, fortement soutenue par l'Inserm via des brevets, la création de start-ups par nos tutelles, ou encore des licences de brevet ou contrat de collaboration avec les industriels, selon les cas. L’ART est pour nos partenaires le moyen d’être en avance au plan international, en bénéficiant de techniques inédites de recherche très tôt dans leur maturation".
`
Pour en savoir plus sur les utilisations biomédicales des ultrasons, consultez notre dossier d'information.
L’ART Ultrasons biomédicaux, c’est…
*         Une équipe support de 10 ingénieurs hautement qualifiés
*         Un environnement unique au sein du nouveau laboratoire Physique pour la Médecine Paris de l’ESPCI Paris, reconnu mondialement dans le domaine des ultrasons (50 personnes).
*         Environ 30 publications scientifiques et 5 brevets par an
*         1 startup créée en deux ans
*         8 partenariats industriels
*         18 prototypes de recherche développés pour dissémination dans les autres laboratoires et hôpitaux
*
Notes :
*unité 979 Inserm/CNRS/ESPCI
**unité 968 Inserm/CNRS/UPMC
***unité 1237 Inserm/Université Caen Normandie
****unité 894 Inserm/Université Paris Descartes

 

 DOCUMENT        inserm        LIEN

 
 
 
 

Ultrasons biomédicaux

 



 

 

 

 

 

Ultrasons biomédicaux


Sous titre
Une révolution médicale en cours
        

Les ondes ultrasonores sont des ondes mécaniques qui engendrent des oscillations dans les milieux qu’elles traversent. Les signaux qui sont créés peuvent être exploités dans un objectif diagnostique (échographie, écho-Doppler, élastographie) ou thérapeutique (lithotripsie, phacoémulsification…). Ils sont d'ores et déjà utilisés pour traiter certains cancers, les fibromes utérins ou encore le glaucome. En outre, les importants progrès technologiques accomplis depuis plusieurs années ouvrent de nombreuses perspectives pour le développement de nouveaux dispositifs puissants et précis, dans des domaines d’applications variés : cardiologie, neurologie, psychiatrie...
       

Mickaël Tanter, directeur de l’unité Physique des ondes pour la médecine (unité 979 Inserm/CNRS/ESPCI Paris/Paris Sciences et Lettres Université) et directeur de l’Accélérateur de recherche technologique Inserm Ultrasons biomédicaux, lauréat du Prix Opecst-Inserm 2014.

Comprendre les ultrasons et leurs exploitations biomédicales
Comme les ondes sonores, les ondes ultrasonores sont des ondes mécaniques qui se matérialisent par la mise en vibration des molécules constituant la matière. Si la fréquence des ondes du champ des sons audibles est comprise entre 20 Hz pour la fréquence la plus grave et 20 000 Hz pour la plus aiguë, celle des ultrasons est supérieure, comprises entre 20 kHz et 10 THz. Au-delà débute le domaine des hypersons.
Les ondes ultrasonores engendrent l’oscillation autour de leur point d’équilibre, des molécules du milieu qu’elles traversent. Cette oscillation se diffuse de proche en proche, dans une direction donnée à partir du point d’initiation. Selon la densité du milieu traversé, les ultrasons se propagent à une vitesse plus ou moins élevée : la résistance d'un matériau est qualifié par son impédance acoustique (notée Z et mesurée en Pascal seconde par mètre) qui influence cette vitesse. Par ailleurs, une onde ultrasonore traversant un milieu donné rebondit et revient en écho lorsqu’elle arrive à l’interface d’un nouveau milieu dont l’impédance acoustique est différente du premier. Ainsi, en analysant le signal rétrodiffusé, il est possible d’obtenir des informations sur le milieu analysé.
Dans le domaine médical, les ultrasons présentent un certain nombre d’avantages :
*         Ce sont des ondes qui ne présentent pas de danger (pas de radiations ionisantes, notamment).
*         Elles peuvent être mises en œuvre grâce à un appareillage peu volumineux et peu onéreux.
*         Elles permettent l'obtention d'images observables et interprétables simultanément à l’examen.


La révolution ultrasonore – Entretien avec Mickaël Tanter, directeur de l'ART Ultrasons biomédicaux de l'Inserm, implanté à l'ESPCI Paris – 3 min 34 – 2016
La France, berceau des techniques ultrasonores
Le domaine des ultrasons est un champ dans lequel la France a été à l’avant-garde : l’aventure a commencé avec Pierre Curie qui a théorisé la piezoélectricité permettant de créer des ultrasons à partir d’un courant électrique, en 1880. Une trentaine d’années après, son élève Paul Langevin a mis au point le premier dispositif émetteur et récepteur d’ultrasons, aboutissant à une première utilisation militaire durant la Seconde Guerre mondiale (sonar).
Le développement de l’usage des ultrasons dans le domaine médical a émergé ensuite, notamment à travers l’échographie développée par des britanniques. Dans le courant des années 1950, la première sonde échographique est mise en point, suivie de la première échographie 2D au début des années 1970, qui seront toutes deux utilisées en obstétrique. Le développement et l’utilisation de l’échographie Doppler dans l’évaluation du débit sanguin et de la résistance vasculaire ont, quant à eux, été menés par un chercheur pionnier, Léandre Pourcelot, directeur de l’unité Inserm 316 "Système nerveux du fœtus à l’enfant" à la faculté de médecine de Tours (de 1988 à 2003).
Les techniques d’imagerie diagnostique
L’exploitation des ondes ultrasonores dans le domaine diagnostique repose sur la formation d’images à partir des signaux rétrodiffusés par les tissus (échographie), ou bien sur la mesure du flux sanguin (écho-Doppler).

Échographie d'un fœtus de 14 semaines. ©Mirmillon
L’échographie consiste à émettre des ultrasons en direction des tissus et organes à observer, puis à recueillir et analyser les échos des ultrasons selon la distance et l’impédance des milieux sur lesquels ils ont rebondi.
Dans l’échographie classique, en deux dimensions (2D), un balayage (manuel, mécanique, électronique) permet d’émettre simultanément plusieurs lignes de tir, dans différentes directions. Un traitement informatique des échos recueillis permet de représenter les milieux traversés en fonction de leur impédance, pour recréer une image en deux dimensions représentant un plan de coupe de la zone analysée :

Dans ce dispositif, les ondes mécaniques sont émises par des matériaux piézoélectriques : il s’agit de matériaux ayant la capacité de se déformer lorsqu’ils sont soumis à une contrainte électrique. Cette déformation se traduit par une onde mécanique qui est focalisée en direction des tissus à analyser. Une sonde permet ensuite de recueillir l’écho des ondes.
Le gel classiquement utilisé lors de la réalisation d’une échographie externe permet d’éviter les interférences que l’air pourrait engendrer entre la sonde et la peau, puisqu’il possède une impédance comparable à celle de cette dernière.
Plus récemment, l’échographie 3D a été développée et permet, comme son nom l’indique, d’obtenir une image tridimensionnelle. Dans ce cas, un balayage mécanique ou électronique permet d’accumuler les informations obtenues sur différents points d’échos depuis différents points d’émission. Leur traitement informatique permet de créer l’image 3D.
L’amélioration des sondes piézoélectriques et des capacités de calcul et d’acquisition permettent d’envisager une imagerie 4D, c’est-à-dire une 3D au cours du temps. De telles méthodes sont déjà utilisées dans des laboratoires de recherche, et leur développement pourrait prochainement offrir une méthode d’acquisition ultrarapide, permettant d’observer les organes ou le fœtus avec une précision inégalée.
L’échographie Doppler est quant à elle très utilisée dans l’examen non invasif des vaisseaux sanguins. Elle repose sur l’effet Doppler : lorsqu’une source d’onde (ou son observateur) est en mouvement, la fréquence de l’onde qu’elle émet varie selon le sens et la vitesse de direction. Un exemple emblématique de l’effet Doppler est le son de la sirène d’une voiture qui passe des aigus aux graves en s’approchant puis en dépassant un observateur fixe. Appliqué au flux sanguin, ce principe permet de mesurer la fréquence réfléchie et de la comparer à la fréquence émise, selon la vitesse de déplacement des globules rouges dans le vaisseau.


Qu'est-ce que l'effet Doppler – animation pédagogique – 4 min 28 – © CEA
Les ultrasons thérapeutiques
Par rapport à l’échographie à but diagnostique, les ultrasons thérapeutiques utilisent des ondes de plus haute intensité, qui sont délivrées en continu en un point précis du tissu. Elles engendrent un échauffement thermique et des modifications locales (création de bulles de gaz, nécrose
nécrose
Mort incontrôlée d’une cellule, entraînant la mort des cellules voisines.
, coagulation) qui vont participer à l’effet thérapeutique recherché. Les ultrasons sont ainsi utilisés pour détruire des lésions bénignes ou malignes (tumeurs, calcifications, calculs…).

Utilisations thérapeutiques des ultrasons
Les ultrasons focalisés de haute intensité (High Intensity Focused Ultrasound ou HIFU) permettent de répéter le traitement, sans risque de dose limite comme avec les traitements ionisants, et d’atteindre des organes même profonds sans nécessiter d’incision, contrairement aux traitements par radiofréquence ou par laser. Cependant, certains tissus sont moins accessibles que d’autres, selon la nature de ceux qui doivent être préalablement franchis (os notamment). Actuellement, les HIFU sont principalement utilisés dans le traitement de certains cancers (foie, prostate), des fibromes utérins, ou du glaucome. Ils sont couplés à un monitorage précis de la destruction tissulaire, en temps réel, grâce au suivi par IRM des modifications locales de température.
La lithotripsie est une technique se fondant sur l'utilisation d'ultrasons pour briser des calculs rénaux ou biliaires : des ondes de chocs émises à intervalle réguliers créent localement des bulles de gaz qui s’agglomèrent pour imploser à la surface du calcul (phénomène de cavitation). Elles le désagrègent progressivement en fragments inframillimétriques, éliminés ensuite par les voies naturelles.

Sur le même principe, la phacoémulsification permet de détruire le cristallin opacifié lors du traitement de la cataracte. Les fragments sont ensuite évacués par un système d’irrigation-aspiration.
Quels sont les paramètres des ondes déterminant leur utilisation ?
Une onde est caractérisée par plusieurs paramètres : son amplitude, la durée du tir (ou burst de signal) et le nombre de répétition de ces tirs.
En imagerie, l’amplitude des ondes utilisées est de l’ordre du mégapascal, émis pendant une microseconde. En thérapeutique (HIFU), l’amplitude est la même mais le burst dure plusieurs secondes, créant une intensité et une énergie acoustique élevée. Enfin, dans la lithotripsie, l’amplitude doit être beaucoup plus élevée, afin d’offrir une puissance suffisante pour détruire une calcification de façon mécanique, mais très courte, afin qu’elle ne chauffe pas.
Des bursts plus longs, mais d’amplitude limitée permettent de moduler l’activité des neurones. Et en utilisant des ultrasons émis sur une courte durée (100 microsecondes), on peut aussi créer une palpation à distance des tissus (élastographie).

Représentation du système microvasculaire du cerveau d’un rat à partir des vitesses des bulles qui le parcourent. L’échographie ultrarapide permet de réaliser de l’élastographie par ondes de cisaillement et de l’imagerie fonctionnelle du cerveau par ultrasons. ©ESPCO/Inserm/CNRS

Les enjeux de la recherche dans le domaine des ondes ultrasonores
Les progrès technologiques réalisés dans le domaine des ondes ultrasonores surviennent à une vitesse exponentielle. De nombreuses évolutions scientifiques et technologiques sont apportées aux méthodes conventionnelles, pour augmenter leurs performances. Elles permettent l'obtention d'images de plus en plus précises, plus quantitatives et plus fonctionnelles des tissus. À plus longue échéance, la miniaturisation des systèmes échographiques permettra même de proposer une neuromodulation par implantation de sondes. Parallèlement, le coût des appareillages devrait diminuer, permettant leur large diffusion.
Vers de nouvelles applications diagnostiques
Dans un premier temps, les progrès se sont notamment concentrés sur la rapidité d’acquisition et de traitement de l’information. Grâce à un nouveau principe de transmission des ondes ultrasonores (l'holographie acoustique par ondes planes), les images sont acquises à un rythme bien plus rapide qu’auparavant (de 50 à 10 000 images par seconde) : l’imagerie ultrasonore ultrarapide offre non seulement les informations habituelles de l’échographie, mais elle en apporte également d’autres, telles que la dureté des tissus.
Cette méthode, dite d’élastographie, permet d’ores et déjà d’améliorer le diagnostic ou l’évaluation de maladies du foie ou de la thyroïde de façon non invasive. De fait, la place des ultrasons dans l’imagerie ne cesse d’être redéfini grâce aux progrès techniques franchis régulièrement. Ainsi, ces méthodes sont évaluées dans de nouveaux domaines, comme l’évaluation de la dureté des tumeurs à visée pronostique. La dureté du tissu cardiaque constitue un autre champ d’investigation : la rigidité cardiaque est un paramètre jusqu’à présent inaccessible par d’autres techniques d’évaluation. Sa mesure permettrait pourtant de faciliter le diagnostic de l’insuffisance cardiaque chez près de la moitié des personnes touchées, pour lesquelles aucune mesure directe n’est possible.

L’ultrafast Doppler améliore énormément la sensibilité de l’écho-Doppler classique, permettant d’étudier des vaisseaux de plus petit calibre. La cadence ultrarapide offre une meilleure sensibilité et permet d’observer les vaisseaux dans lesquels le flux sanguin n’est plus assez rapide pour être mesurable par le Doppler classique. Elle constitue ainsi une nouvelle méthode d’exploration in vivo de la dynamique du réseau vasculaire, depuis les plus gros vaisseaux jusqu’à ceux de plus petit calibre, au niveau desquels a lieu le couplage neurovasculaire (interface entre artérioles et neurones). Cet outil peut notamment offrir de nouvelles modalités d’exploration fonctionnelle et des mesures d’évaluation dans les pathologies neurovasculaires. La preuve de concept
preuve de concept
Démonstration de l’intérêt d’une invention ou d’une technologie.
a d’ores et déjà été apportée et son utilisation clinique dans l’évaluation de la fonction cérébrale des nouveaux-nés devrait se développer dans les prochaines années.

Utilisations diagnostiques des ultrasons
La super-résolution a également permis de développer une méthode de microscopie ultrasonore, qui offre le moyen d’évaluer le réseau des capillaires humains, dont le diamètre n’est que de quelques microns, à plusieurs centimètres de profondeur et de façon non invasive . Dans cette approche, les microbulles de gaz créées par les ultrasons permettent aux ondes d’être renvoyées dans toutes les directions. Couplée à une acquisition ultrarapide, cette approche permet de détecter la position de chaque bulle indépendante à chaque instant, pour offrir une cartographie des microvaisseaux jusqu’à une échelle microscopique depuis la surface du corps. Les perspectives sont nombreuses dans la recherche en neurosciences, en oncologie, dans le diabète (où l’atteinte des microvaisseaux est une préoccupation majeure) ou dans le domaine cardiovasculaire. L’intérêt de cette approche serait d’améliorer la compréhension des mécanismes physiopathologiques précoces qui ne sont actuellement identifiés qu’à un stade plus avancé de la maladie, au niveau des plus gros vaisseaux.
Vers de nouvelles applications thérapeutiques
Plusieurs approches thérapeutiques innovantes, mettant en œuvre différents types d’ondes ultrasonores, sont en développement :
Dans le domaine de la psychiatrie, des ondes dont la puissance est intermédiaire à celles utilisées en imagerie et en thérapie pourraient permettre une neuromodulation ultrasonore, en alternative à la stimulation magnétique transcrânienne (TMS) aujourd’hui utilisée dans le traitement de la dépression résistante aux médicaments.
Par ailleurs, à l’image de ce qui se pratique déjà avec la lithotripsie des calculs rénaux, la combinaison des ultrasons diagnostiques et thérapeutiques à travers un même appareillage est une approche en cours de développement pour observer et traiter les pathologies des valves cardiaques et les sténoses

sténoses
Modification anatomique qui donne lieu à un rétrécissement d’une structure.

aortiques liées à leur calcification : cette approche permet de localiser les zones calcifiées et d’appliquer simultanément des ondes de chocs permettant leur destruction. La preuve de concept a été apportée par des chercheurs de l'Institut Langevin et conduit à la création d'une start-up (Cardiawave). Cette méthode pourrait devenir une alternative non invasive simple à la chirurgie conventionnelle, délicate à mettre en œuvre chez les personnes âgées (qui constituent la majorité des patients concernés). Les premiers essais cliniques sont planifiés. Une approche similaire est également développée dans la prise en charge des thrombus veineux (phlébite).

Enfin, la délivrance d’un médicament au niveau de tissus cibles est une approche thérapeutique émergente utilisant indirectement les ultrasons : Des microgouttelettes transportant un médicament encapsulé sont administrées dans la circulation sanguine. Une fois le tissu cible atteint par le produit, le phénomène de cavitation lié à des bulles de gaz créées par les ultrasons est utilisé pour déclencher la libération du médicament. L’approche est particulièrement étudiée dans le domaine du traitement du cancer, où l’objectif est de limiter la toxicité associée au traitement sur les cellules saines, tout en optimisant l’activité thérapeutique au niveau de la tumeur.
Cette approche est en outre intéressante pour rendre certains tissus plus accessibles aux médicaments, en particulier pour permettre le passage de la barrière hématoencéphalique (BHE). Cette structure, dont le rôle est de limiter le passage de toxiques depuis la circulation vers le tissu cérébral, rend le traitement des maladies du système nerveux central
système nerveux central
Composé du cerveau et de la moelle épinière.
(notamment tumorales) difficile. Grâce aux oscillations mécaniques qu’elles provoquent, les ondes ultrasonores pourraient temporairement perméabiliser la BHE, autorisant le passage de médicaments. La délivrance localisée d’un traitement (biothérapie, thérapie génique) par ultrasons, associée à un contrôle visuel par IRM, fait actuellement l’objet de travaux chez l’animal. Elle permettrait de disposer d’une procédure non invasive pour traiter certaines pathologies cérébrales.

L’accélérateur de recherche technologique (ART) : une structure Inserm inédite pour booster le passage de la recherche sur les ultrasons à leur application
L’Inserm a inauguré son premier accélérateur de recherche technologique (ART) en novembre 2016, dédié aux ultrasons biomédicaux. Cette nouvelle forme d’organisation vise à rapprocher physiciens, biologistes, cliniciens d’une équipe d’ingénieurs, afin d’accélérer le développement d’appareillages ou techniques prototypes et leur utilisation par des laboratoires de recherche et des centres hospitaliers partenaires.
Installé au sein de l’ESPCI Paris, l’ART a jusqu’à présent développé une quinzaine de prototypes uniques au monde, dont l’utilisation vise le domaine des maladies cardiovasculaires, des neurosciences et du cancer. Certains sont d’ores et déjà déployés en recherche clinique, comme l’élastographie ultrasonore ou la neuroimagerie fonctionnelle.
Cette structure permet d’accélérer le développement et la dissémination de technologies de pointe auprès des laboratoires et des services hospitaliers partenaires, leur offrant une avance importante sur le plan international.

 

  DOCUMENT      inserm     LIEN 

 
 
 
 

MÉMOIRE

 

   

 

 

 

 

 

Mémoire

Sous titre
Une affaire de plasticité synaptique

La mémoire permet d'enregistrer des informations venant d'expériences et d'événements divers, de les conserver et de les restituer. Différents réseaux neuronaux sont impliqués dans de multiples formes de mémorisation. La meilleure connaissance de ces processus améliore la compréhension de certains troubles mnésiques et ouvre la voie à des interventions auprès des patients et de leur famille.
       

Dossier réalisé en collaboration avec Francis Eustache, directeur de l'unité 1077 Inserm/EPHE/UNICAEN, Neuropsychologie et imagerie de la mémoire humaine

Comprendre le fonctionnement de la mémoire
La mémoire est la fonction qui nous permet d’intégrer, conserver et restituer des informations pour interagir avec notre environnement. Elle rassemble les savoir-faire, les connaissances, les souvenirs. Elle est indispensable à la réflexion et à la projection de chacun dans le futur. Elle fournit la base de notre identité.

Cinq systèmes interconnectés
La mémoire se compose de cinq systèmes interconnectés, impliquant des réseaux neuronaux distincts :
*         La mémoire de travail (à court terme) est au cœur du réseau.
*         La mémoire sémantique et la mémoire épisodique sont deux systèmes de représentation consciente à long terme.
*         La mémoire procédurale permet des automatismes inconscients.
*         La mémoire perceptive est liée aux différentes modalités sensorielles.
On rassemble parfois toutes les mémoires autres que celle de travail sous le nom générique de mémoire à long terme. Par ailleurs, on distingue souvent les mémoires explicites (épisodique et sémantique) des mémoires implicites (procédurale et perceptive).
La mémoire de travail
La mémoire de travail (ou mémoire à court terme) est la mémoire du présent. Elle permet de manipuler et de retenir des informations pendant la réalisation d’une tâche ou d’une acticité.
Cette mémoire est sollicitée en permanence : c’est elle qui permet par exemple de retenir un numéro de téléphone le temps de le noter, ou de retenir le début d’une phrase le temps de la terminer. Elle utilise une boucle phonologique (répétition mentale), qui retient les informations entendues, et/ou un calepin visuospatial, qui conserve les images mentales.
Elle fonctionne comme une mémoire tampon : les informations qu’elles véhiculent peuvent être rapidement effacées, ou stockées dans la mémoire à long terme par le biais d’interactions spécifiques entre le système de mémoire de travail et la mémoire à long terme.

7, le nombre magique
On estime que le nombre de chiffres, de lettres, ou de mots qu’une personne peut restituer immédiatement dans l’ordre proposé est égal à 7, plus ou moins deux (on parle de l'empan verbal). Il peut être augmenté en regroupant les données (une série de 8 chiffre est plus facile à retenir lorsqu’ils sont groupés par 2 que lorsqu’ils sont pris isolément). Par ailleurs, une série de mots est d’autant plus facile à retenir qu’ils sont courts ou qu’ils sont proches phonologiquement ou sémantiquement.
La mémoire sémantique
La mémoire sémantique est celle du langage et des connaissances sur le monde et sur soi, sans référence aux conditions d'acquisition de ces informations. Elle se construit et se réorganise tout au long de notre vie, avec l’apprentissage et la mémorisation de concepts génériques (sens des mots, savoir sur les objets), et de concepts individuels (savoir sur les lieux, les personnes…).
La mémoire épisodique
La mémoire épisodique est celle des moments personnellement vécus (événements autobiographiques), celle qui nous permet de nous situer dans le temps et l’espace et, ainsi, de se projeter dans le futur. En effet, raconter un souvenir de ses dernières vacances ou se projeter dans les prochaines font appel aux mêmes circuits cérébraux.
La mémoire épisodique se constitue entre les âges de 3 et 5 ans. Elle est étroitement imbriquée avec la mémoire sémantique. Progressivement, les détails précis de ces souvenirs se perdent tandis que les traits communs à différents événements vécus favorisent leur amalgame et deviennent progressivement des connaissances tirées de leur contexte. Ainsi, la plupart des souvenirs épisodiques se transforment, à terme, en connaissances générales.
La mémoire procédurale
La mémoire procédurale est la mémoire des automatismes. Elle permet de conduire, de marcher, de faire du vélo ou jouer de la musique sans avoir à réapprendre à chaque fois. Cette mémoire est particulièrement sollicitée chez les artistes ou les sportifs pour acquérir des procédures parfaites et atteindre l’excellence. Ces processus sont effectués de façon implicite, c’est-à-dire inconsciente : la personne ne peut pas vraiment expliquer comment elle procède, pourquoi elle tient en équilibre sur ses skis ou descend sans tomber. Les mouvements se font sans contrôle conscient et les circuits neuronaux sont automatisés.
La constitution de la mémoire procédurale est progressive et parfois complexe, selon le type d’apprentissage auquel la personne est exposée. Elle se consolide progressivement, tout en oubliant les traces relatives au contexte d’apprentissage (lieu, enseignant…).
La mémoire perceptive
La mémoire perceptive s’appuie sur nos sens et fonctionne la plupart du temps à l’insu de l’individu. Elle permet de retenir des images ou des bruits sans s’en rendre compte. C’est elle qui permet à une personne de rentrer chez elle par habitude, grâce à des repères visuels. Cette mémoire permet de se souvenir des visages, des voix, des lieux.
Avec la mémoire procédurale, la mémoire perceptive offre à l’humain une capacité d’économie cognitive, qui lui permet de se livrer à des pensées ou des activités spécifiques tout en réalisant des activités devenues routinières.


Mémorisation : De l’organisation cérébrale….
Il n’existe pas "un" centre de la mémoire dans le cerveau. Les différents systèmes de mémoire mettent en jeu des réseaux neuronaux distincts, répartis dans différentes zones du cerveau. L’imagerie fonctionnelle (tomographie
tomographie
Technique d’imagerie cérébrale permettant de reconstituer le volume en coupes d’un objet, tel que le cerveau.
par émission de positons, imagerie par résonance magnétique fonctionnelle) permet aujourd’hui d’observer le fonctionnement cérébral normal impliqué dans les processus cognitifs.
Ainsi, le rôle de l’hippocampe et du lobe frontal semble particulièrement déterminant dans la mémoire épisodique, avec un rôle prépondérant des cortex préfrontaux gauche et droit dans son encodage et sa récupération, respectivement. La mémoire perceptive recrute des réseaux dans différentes régions corticales, à proximité des aires sensorielles. La mémoire sémantique fait intervenir des régions très étendues, et particulièrement les lobes temporaux et pariétaux. Enfin, la mémoire procédurale recrute des réseaux neuronaux sous-corticaux et au niveau du cervelet.

La phase de stockage de l’information nécessite des étapes répétées de consolidation. L’hippocampe semble constituer un élément important dans le processus. Enfin, la restitution d’un souvenir, quelle que soit son ancienneté, reposerait également sur cette structure cérébrale, en interaction avec différentes régions néocorticales. Pour autant, il serait moins sollicité lorsque le rappel provient de la mémoire sémantique plutôt que de la mémoire épisodique.

...à la plasticité synaptique
La mémorisation résulte d’une modification des connexions entre les neurones d’un système de mémoire : on parle de "plasticité synaptique". Les différentes formes de mémoire fonctionnent en interaction, selon que la situation requiert des informations issues de la mémoire sémantique ou épisodique, implicite ou explicite. Ainsi, un souvenir se traduit par l’intervention de neurones issus de différentes zones cérébrales et assemblés en réseaux. Ces connections interneuronales évoluent constamment au gré des expériences et sont responsables de la persistance d’un souvenir à long terme ou non, selon les cas (importance de l’évènement, contexte environnemental et émotionnel…).
Pris isolément, le souvenir correspond à une variation de l’activité électrique au niveau d’un circuit spécifique formé de plusieurs neurones interagissant par le biais des connexions synaptiques (les synapses
synapses
Zone de communication entre deux neurones.
étant les points de contacts entre les neurones). Sa formation repose sur le renforcement ou la création d’une connexion synaptique temporaire, stimulée par le biais de protéines produites puis transportées au sein des neurones, comme le glutamate
glutamate
Neurotransmetteur excitateur le plus répandu dans le système nerveux central.
, le NMDA ou la syntaxine qui va elle-même moduler la libération du glutamate.
Le souvenir est ensuite consolidé ou non en fonction la présence de médiateurs cellulaires au niveau du réseau neuronal impliqué dans les heures suivantes. L’activation régulière et répétée de ce réseau permettrait de renforcer ou de réduire ces connexions et, par conséquent, de consolider ou oublier ce souvenir. Sur le plan morphologique, cette plasticité est associée à des changements de forme et de taille des synapses, des transformations de synapses silencieuses en synapses actives, la croissance de nouvelles synapses.
Le maintien à long terme d’un souvenir repose sur la modification de la cinétique d’élimination ou de renouvellement de certains médiateurs. La phosphokinase zêta (PKM zêta) joue un rôle prépondérant dans ce mécanisme en favorisant la persistance des mécanismes impliqués dans la stabilisation et la consolidation des souvenirs. Elle possède pour cela deux propriétés spécifiques : elle n’est soumise à aucun mécanisme d’inhibition et elle s'auto-réplique.
Au cours du vieillissement, la plasticité des synapses diminue et les modifications des connexions sont plus éphémères, ce qui pourrait expliquer des difficultés croissantes à retenir des informations.


La réserve cognitive, soutien de la mémoire
Les capacités de maintien de la mémoire et d’adaptation en cas de lésions semblent variables d’un individu à l’autre. En effet, il a été décrit qu’à lésions cérébrales équivalentes en imagerie, tous ne présenteraient pas les mêmes altérations cognitives. Ces capacités dépendraient de la réserve cérébrale, relative au tissu cérébral, et de la réserve cognitive, qui repose sur sa fonctionnalité.
Selon différentes études, un volume cérébral accru, ou un nombre élevé de neurones ou de synapses est associé à une survenue plus tardive de démence. À lésions équivalentes, ceux qui présentent une réserve cérébrale plus importantes présenteraient des troubles moins sévères. Cette réserve cérébrale serait sous l’influence de paramètres génétiques et probablement environnementaux.
La réserve cognitive correspond à l’efficacité des réseaux neuronaux impliqués dans la réalisation d’une tâche et celle du cerveau à mobiliser ou mettre en place des réseaux compensatoires en cas de lésions pathologiques ou de perturbations physiologiques liées à l’âge. Elle se traduit également par une variabilité, d’un sujet à l’autre, de la tolérance des lésions cérébrales identiques. En effet, les données disponibles suggèrent que la richesse des interactions et le niveau d’éducation sont associés à une survenue plus tardive des troubles cognitifs ou des démences Alzheimer ou apparentées. À l’inverse, l’évolution du déclin cognitif chez ces derniers serait plus rapide une fois installé : elle s’expliquerait par le fait que les symptômes sont identifiés à un stade où les lésions sont plus nombreuses et importantes.
La constitution de la réserve cognitive pourrait dépendre:
*         de l’importance des apprentissages
*         du niveau d’éducation
*         d’une stimulation intellectuelle tout au long de la vie
*         de la qualité des relations sociales
*         de l’alimentation
*         du sommeil
*         des paramètres génétiques seraient également probablement impliqués

Hygiène de vie et mémoire
Des expériences ont montré que dormir améliore la mémorisation, et ce d’autant plus que la durée du sommeil est longue. A l’inverse, des privations de sommeil (moins de 4 ou 5 heures par nuit) sont associées à des troubles de la mémoire et des difficultés d’apprentissage. Par ailleurs, le fait de stimuler électriquement le cerveau (stimulations de 0,75 Hz) pendant la phase de sommeil lent (caractérisée par l’enregistrement d’ondes corticales lentes à l’encéphalogramme) améliore les capacités de mémorisation d’une liste de mots. Plusieurs hypothèses pourraient expliquer ce phénomène : pendant le sommeil, l’hippocampe est au repos, évitant les interférences avec d’autres informations au moment de l’encodage du souvenir. Il se pourrait aussi que le sommeil exerce un tri, débarrassant les souvenirs de leur composante émotionnelle pour ne retenir que l’informationnelle, facilitant ainsi l’encodage. Pour en savoir plus, consulter le dossier Sommeil.
Le sommeil n'est pas le seul paramètre d’hygiène de vie qui influence notre capacité de mémorisation : l’alimentation (bénéfice du régime méditerranéen), l’activité physique et les activités sociales jouent également un rôle important.

Mémoire et émotions : de l’amélioration mnésique à la pathologie
Il est démontré que les émotions peuvent moduler la façon dont une information est enregistrée, l’émotion renforçant ponctuellement l’attention. Ainsi, une émotion positive peut se traduire par une amélioration ponctuelle des performances mnésiques. Il apparaît également que la consolidation, et donc la rétention d’une information est favorisée par l’émotion : le rappel d’un souvenir émotionnel après un long intervalle est souvent plus important que lorsque ce souvenir est neutre. L’imagerie fonctionnelle montre d’ailleurs que le rappel des souvenirs est proportionnel à leur intensité émotionnelle qui peut être observée par l’activation de l’amygdale, siège des émotions. Enfin, la récupération d’un souvenir est aussi améliorée par la présence d’une émotion positive. Chez les personnes présentant un trouble cognitif, les expériences montrent un effet protecteur des émotions positives sur les capacités résiduelles de mémoire. Ce mécanisme existe cependant uniquement dans les premiers stades de la maladie. Ensuite, l’incapacité de l’amygdale à remplir son rôle rend ce mécanisme compensatoire inefficace.

Il existe un pendant pathologique à ce processus : en effet, une émotion trop intense, notamment traumatique, entraîne une distorsion de l’encodage. L’état de stress post-traumatique (ESPT) des personnes victimes ou témoins d’un évènement dramatique en est l’illustration type. Le souvenir est mémorisé sur le long terme, avec à la fois une amnésie de certains aspects et une hypermnésie d’autres détails qui laissent la personne hantée durablement par cet événement. Il s’accompagne d’une décharge de glucocorticoïdes

glucocorticoïdes
Hormones stéroïdiennes ayant une action sur le métabolisme protéique et glucidique.

(hormone du stress), dans l’hippocampe au moment de l’événement. Cette distorsion profonde de l’encodage des événements, au contraire d’un souvenir normal, rend le souvenir persistant au cours du temps sans qu’il ne perdre de son intensité ou de sa spécificité. La victime a ainsi le sentiment de revivre continuellement la scène traumatisante, même des années après.
Dans d’autres situations ayant également trait à une émotion vive (stress, agression...), certains sujets développent plus volontiers une amnésie dissociative : véritable stratégie défensive adaptative, développée de façon inconsciente, elle repose sur l’oubli d’une partie des souvenirs autobiographiques ou sémantiques, ainsi que de l’évènement l’ayant déclenchée. Ces souvenirs peuvent être réactivés, progressivement ou brutalement, à l’issue d’une conscientisation de l’évènement déclencheur.
Sur le plan thérapeutique, la compréhension des mécanismes de stabilité des souvenirs et de l’influence émotionnelle offrent les moyens d’envisager la prise en charge thérapeutique de certaines pathologies : ainsi, le développement d’approches psychothérapeutiques fondées sur la dissociation entre les souvenirs et les émotions peut permettre de réduire le handicap lié à des maladies comme certaines formes d’anxiété ou l’état de stress post-traumatique.

Mémoire et oubli : du physiologique au pathologique
Depuis une vingtaine d’années, la prévalence
prévalence
Nombre de cas enregistrés à un temps T.
croissante des troubles de la mémoire tel que la maladie d’Alzheimer, a fait de l’oubli un symptôme. Pourtant, l’oubli est aussi un processus physiologique, indispensable au bon fonctionnement de la mémoire.
En effet, l’oubli est nécessaire pour l’équilibre du cerveau, permettant à ce dernier de sélectionner les informations secondaires qu’il est possible d’éliminer afin de ne pas saturer les circuits neuronaux. L’oubli est un corollaire de la qualité de la hiérarchisation et de l’organisation des informations stockées. Ainsi, certaines personnes souffrent d’hypermnésie idiopathique

idiopathique
Qui existe par soi-même, indépendamment d’une autre maladie.

, une pathologie de l’abstraction et de la généralisation du souvenir dans laquelle l’oubli des détails est aboli. Ces personnes rencontrent des difficultés de vie quotidienne liées à l’incapacité d’organiser leurs souvenirs en fonction de leur significativité et de leur importance.
Cependant, l’oubli peut aussi correspondre à la disparition involontaire de souvenirs acquis par apprentissage volontaire ou implicite, alors que son codage a été réalisé correctement. Ce phénomène reste physiologique tant qu’il est sporadique. Il concerne plus souvent la mémoire épisodique que la mémoire sémantique, procédurale ou sensorielle. Il devient pathologique, et prend plus volontiers le nom d’amnésie, lorsqu’il concerne des pans entiers de mémoire sémantique ou épisodique.

Les multiples troubles de la mémoire
Certaines situations entraînent des incapacités sévères et des amnésies durables. Les causes possibles sont :
*         un traumatisme physique entraînant des lésions cérébrales
*         un accident vasculaire cérébral hémorragique ou ischémique
*         une tumeur du cerveau
*         ou encore une dégénérescence neuronale comme la maladie d’Alzheimer
Dans d’autres cas, les troubles sont moins sévères et le plus souvent réversibles. Les causes possibles sont :
*         des maladies mentales comme la dépression
*         le stress et l’anxiété, ou la fatigue
*         un événement traumatisant (deuil)
*         des effets indésirables de médicaments comme des somnifères, des anxiolytiques (d’autant plus fréquent que la personne est âgée)
*         l’usage de drogues
Les troubles de la mémoire ont différentes origines biologiques, comme un déficit en certains neuromédiateurs ou une faible connectivité entre les réseaux cérébraux.
Les manifestations de ces troubles sont extrêmement variables selon leur origine et les localisations cérébrales des processus pathologiques. Ainsi, des patients atteints d’une démence sémantique, dans laquelle des mots ou des informations sont oubliés, perdent également des souvenirs anciens alors qu’ils continuent à mémoriser de nouveaux souvenirs épisodiques (souvenirs "au jour le jour"). Ces troubles sont associés à une atrophie des lobes temporaux. Chez d’autres patients, notamment ceux souffrant de la maladie d’Alzheimer, les troubles concernent la mémoire épisodique : chez eux, les souvenirs les plus anciens sont épargnés plus longtemps que les plus récents. D’autres types de déficiences existent : celles affectant les neurones impliqués dans la mémoire procédurale peuvent engendrer la perte de certains automatismes, comme chez les personnes atteintes par la maladie de Parkinson ou de Huntington. Celles affectant les neurones impliqués dans la mémoire du travail, peuvent quant à elles donner des difficultés à se concentrer et à faire deux taches en même temps.

Il existe également des troubles de la mémoire sévères mais transitoires, comme l’ictus amnésique idiopathique : survenant le plus souvent entre 50 et 70 ans, il s’agit d’une amnésie soudaine et massive pendant laquelle le patient est incapable de se souvenir de ce qu’il vient de faire, sa mémoire épisodique est annihilée. Mais sa mémoire sémantique est intacte : il peut répondre à des questions de vocabulaire et évoquer des connaissances générales. Cette amnésie disparaît souvent après six à huit heures.

Les enjeux de la recherche
La mémoire et ses troubles donnent lieu à de nombreuses recherches qui font appel à des expertises variées dans un cadre pluridisciplinaire : génétique, neurobiologie, neuropsychologie, électrophysiologie, imagerie fonctionnelle, épidémiologie, différentes disciplines médicales (neurologie, psychiatrie…), mais aussi sciences humaines et sociales.
Ma mémoire et celle des autres
La mémoire a longtemps été considérée comme individuelle et étudiée comme telle. Cette approche est aujourd’hui caduque, ou du moins incomplète. Le souvenir se situe en effet à l’interface entre l’identité personnelle et les représentations collectives : il se constitue à partir des interactions entre la personne, les autres et l’environnement. Il ne peut être détaché du contexte social dans lequel il prend place. Les interactions, mais aussi les représentations sociales et les stéréotypes influencent le fonctionnement de notre mémoire.
On parle de cognition sociale : elle permet, par exemple, d’adapter son comportement selon le contexte dans lequel on se trouve, et cela grâce à la mémorisation et l’analyse des expériences passées. L’empathie découle également de cette notion interindividuelle de la mémoire : elle utilise notamment les informations de la mémoire épisodique afin de permettre un "voyage de l’esprit" se traduisant en capacité à partager la détresse de l’autre. Aussi appelée "théorie de l’esprit", cette capacité à se mettre à la place de quelqu’un et à imaginer et interpréter ses pensées fait appel à nos mémoires dont nous décentrons l’objet. Sur le plan médical, la dégénérescence des neurones au niveau frontotemporal, retrouvée dans certaines démences (Alzheimer et apparentées), se caractérise par une diminution de la cognition sociale : le malade peut présenter des troubles du comportement ou des dysfonctionnements sociaux.
Par ailleurs, sur un plan plus large, il existe aussi une mémoire collective ou culturelle, celle qui prend place autour des évènements historiques (autour de leur évocation ou de leur commémoration) et des évènements contemporains médiatisés. Il s’agit d’une mémoire partagée constituée des différentes représentations de l’évènement par l’ensemble des personnes.
Ce domaine de recherche est particulièrement novateur et rapproche les expertises en neurosciences et en psychologie de celles en sociologie, en histoire, en philosophie ou en éthique. En termes thérapeutiques, cette transdisciplinarité peut également apporter un intérêt : l’état de stress post-traumatique correspond par exemple à une hypermnésie des perceptions et émotions liées à l’évènement, à une amnésie des aspects contextuels, ainsi qu’à une perturbation de la mémoire autobiographique. À la suite d’un évènement traumatisant, une prise en charge appropriée de la charge émotionnelle associée pourrait être d’autant plus efficace que l’évènement en question est inscrit dans le cadre social, à la fois familial et professionnel. Il en serait d’autant plus question dans le cadre d’un évènement inscrit dans la mémoire collective.

Sonder la mémoire individuelle et collective des attentats
Le programme 13-Novembre, mené par des chercheurs de l’Inserm et du CNRS, associe différents volets de recherche transdisciplinaire autour du témoignages recueillis sur les attentats du 13 novembre 2015. Il cherche à évaluer comment le souvenir traumatique des attentats évolue dans les mémoires individuelles et collectives, comment les deux fonctionnent en interaction et quels sont les facteurs de vulnérabilité face à l’ESPT. À quatre reprises durant dix ans, les témoignages et les éventuels troubles (ESPT, images envahissantes, dépression…) de 1 000 personnes volontaires seront analysés selon leur proximité avec les attentats : cette cohorte rassemble des personnes exposées directement (survivants, témoins, familles), indirectement (habitants des quartiers des attentats) ainsi que des habitants franciliens ou non franciliens. Ces données seront recueillies parallèlement à une analyse de l’opinion des français sur le sujet, ainsi qu’une analyse du discours et de la textométrie des informations télévisuelles ou radiophoniques liés à ces évènements, afin d’en identifier les interactions.


La mémoire au futur
Selon le contexte, nos propres aspirations, nos projets, nous avons une capacité à élaborer des scénarios plausibles pour le futur, constitués de pensées, d’images et d’actions. Ceux-ci ne peuvent prendre forme que sur la base des représentations du passé. La mémoire du futur fait donc appel à notre mémoire épisodique et sémantique, contrairement aux idées reçues ou aux conceptions habituelles de la mémoire, traditionnellement associées au passé. Ainsi, l’imagerie permet de vérifier que l’évocation d’un souvenir autobiographique ou l’imagination d’un scénario futur font intervenir des régions cérébrales très proches les unes des autres. Par ailleurs, les études montrent que les amnésiques ne peuvent se projeter dans le futur.
La capacité à remplir une tâche à une date ou un jour précis entre aussi dans le cadre de la mémoire du futur : on l’appelle alors plus volontiers mémoire prospective, articulée autour de différents volets selon la nature des tâches à effectuer : "mémoire prospective propre" pour les actions ponctuelles (poster une lettre, aller à un rendez-vous…), "mémoire prospective habituelle" pour toutes les tâches routinières, "monitoring" pour l’attention portée à la fin d’une tâche tandis qu’une autre est en cours (penser à arrêter le four à la fin d’une cuisson, par exemple).
Cette notion de mémoire du futur peut avoir des applications thérapeutiques. Ainsi, des "thérapies orientées vers le futur" ont été développées et testées auprès de patients souffrant de dépression majeure ou de schizophrénie : menées à travers plusieurs séances réparties sur quelques semaines, elles consistent à sensibiliser les sujets sur l’importance des projections mentales dans le futur, la façon dont celles-ci peuvent être améliorées en luttant contre des mécanismes personnels de résistance, puis, progressivement à leur proposer des activités de pleine conscience et, enfin, à travailler sur l’évocation de leurs propres valeurs, leurs objectifs, et les moyens d’y arriver. Les premières études montrent que cette approche peut être plus efficace que les thérapies cognitivo-comportementales
thérapies cognitivo-comportementales
Traitement des difficultés du patient dans « l’ici et maintenant » par des exercices pratiques centrés sur les symptômes observables au travers du comportement.
conventionnelles.
Mémoires externes
Il semble clair aujourd’hui que notre mémoire interne et nos capacités de projection sont influencées par la mémoire externe : les supports de mémoire collective (livres, films…) sont un élément utile pour modeler notre mémoire du futur. La multiplication des dispositifs électroniques de stockage d’information dans notre quotidien est cependant décrite comme modifiant l’organisation et la puissance de notre mémoire, que nous sollicitons par conséquent moins. Cet équilibre entre mémoire interne et externe constitue un enjeu majeur pour l’avenir.
Sur le plan thérapeutique, les supports externes de stockage sont aujourd’hui testés sous forme d’implants cérébraux dans la prise en charge de patients amnésiques. De façon plus futuriste, l’idée de greffe de mémoire artificielle fait également l’objet de développements actuels.

Modifier la mémoire grâce à l'optogénétique
Outre l’imagerie fonctionnelle, qui fait aujourd’hui partie des modes d’exploration incontournables de l’organisation mnésique, d’autres approches sont plus récentes et en pleine évolution. C’est notamment le cas de l’optogénétique, qui est une technique alliant génétique et optique : elle consiste à modifier génétiquement des cellules afin de les rendre sensibles à la lumière et, grâce à cette dernière, d’en moduler le fonctionnement. Ainsi, l’optogénétique permet d’activer ou d’inhiber expérimentalement des groupes spécifiques de neurones dans le tissu cérébral et d’en évaluer l’impact.
Elle permet aussi de développer des méthodes de manipulation de la mémoire (implantations de faux souvenirs, oubli expérimental…). Ces travaux permettent d’envisager des approches thérapeutiques intéressantes dans la prise en charge de certains troubles psychiatriques.

 

  DOCUMENT      inserm     LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google