ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LES GRANDS INSTRUMENTS DE LA BIOLOGIE MOLÉCULAIRE

 

Les grands instruments de la biologie moléculaire, prémices de la médecine de demain
Pierre Tambourin



The Molecular Biology Large Equipments, Beginnings of the Tomorrow Medicine
Essentially historical, the concept of very large scientific equipments finds its origin in the particle physics large apparatus. Since 1995, it concerns only physics and universe sciences.
With the discovery of DNA in 1953, the emergence of genomics developed the necessity for large biology equipments leading to the creation of the national sequencing and genotyping centers.
DNA is going to exert such a fascination on researchers worldwide that a lot of laboratories will concentrate their research on this molecule. At the end of the 70’s, creation of genetic engineering tools will foster understanding of gene action. These discoveries will necessarily converge in the project of the sequencing of all information contained in DNA. The first efficient sequencing method is due to Frederick Sanger but this method will remain at a very small scale. But in 1986, Leroy Hood and Lloyd Smith, two brilliant researchers, imagine the first automatic sequencer. This tremendous evolution will induce a revolution in biology which will mark the research of Genethon, laboratory of the French Association of Muscular Dystrophy. Their research allowed the publication of the physical map of the human genome in 1992 and of the genetic map in 1993. As in the physics field where practical experiments are almost impossible to realise in laboratory, these new tools lead to the creation of two large facilites in biology: the national sequencing center and the national genotyping center.
Genomics also study the expression of all the genes. It concerns in fact, a new vision of most intimate aspects of the living being that offer conceptual and medical revolutions of which the instruments are high speed data processing and molecular techniques. This new dimension of man and his pathologies will lead to an individual medicine where the study of the human genome will help to deal more specifically with the patient and the increase of the efficiency of a treatment on patients affected with the same disease.
Haut de page


Mots-clés :ADN, séquençage, pathologie, génotypage, biologie moléculaire, Téléthon, AFM, Génopole, gène, bioparc, génome, biotechnologies
Haut de page
Plan

Les nouveaux TGE
Tout commence avec la découverte de l’ADN…
Les pionniers du séquençage
Le pas de géant du laboratoire Généthon
La révolution conceptuelle de la biologie à grande échelle
Le séquençage : artisan de nouvelles techniques moléculaires
Les fondations d’une nouvelle médecine
La nouvelle dimension génétique de l’Homme et de ses pathologies : les besoins en génotypage

1  Longtemps réservés à la physique des particules, les besoins en très grands équipements (TGE) de la biologie deviennent urgents avec l’émergence de la génomique, science qui étudie l’ensemble des informations génétiques d’un être vivant. Ces laboratoires, inédits tant dans leur conception que dans leur taille, offrent une nouvelle vision du vivant dans ses aspects les plus intimes et promettent des révolutions conceptuelles et médicales grâce aux techniques moléculaires et informatiques qui les construisent. Ils offrent, en somme, une nouvelle dimension de l’homme qui substitue à la médecine symptomatique une médecine individualisée où l’étude du génome de l’individu permettra à la fois une prise en charge beaucoup plus spécifique du malade et un accroissement de l’efficacité du traitement chez des patients atteints du même type de lésions.

2  Deux réalisations exceptionnelles marquent, en France, le passage du XIXe au XXe siècle : la construction de l’Observatoire du Pic du Midi à partir de 1878 et celle du grand électro-aimant de Bellevue en 1920. Rien d’étonnant, en somme, que la patrie de Descartes et du pendule de Foucault soit aussi celle où l’histoire des grands instruments commence et se pérennise. Elle prendra ses habits de modernité en 1949, lorsque le physicien français Louis de Broglie propose la création d’un laboratoire scientifique d’envergure européenne, peut-être pour favoriser la reconstruction d’un continent meurtri par la guerre.

3  La mise en service en 1957 du premier accélérateur de particules du Cern1, à Genève, inaugure l’ère de la coopération scientifique internationale qui s’accomplit dans la construction de très grands équipements (TGE) et dont le rythme de création s’accélèrera au début des années 1970. La notion de TGE est donc essentiellement historique et plonge ses racines dans les mystères de l’univers et ceux de la matière, en particulier dans la physique des particules. L’un de ses principaux enjeux n’était-il pas, en effet, l’identification des constituants les plus élémentaires de la matière ?

4  L’échelle de financement et de fonctionnement de ces grands instruments ainsi que leur degré de sensibilité et leurs exigences techniques les placent au-delà des moyens des laboratoires et, parfois, des organismes nationaux de recherche eux-mêmes. Ainsi, les laboratoires du CNRS, organisme de gestion de ces TGE de la physique, sont incapables d’en supporter seuls les coûts. La technique utilisée a donc été celle des budgets protégés qui, isolés des enveloppes classiques, sont affectés à leur construction et leurs frais de fonctionnement.

5  Ces réalisations favorisent une recherche coopérative pluri-organismes dans un contexte national, européen et international. Leur principe de fonctionnement est d’être mis gratuitement au service de la communauté scientifique pour des expériences évaluées par un comité ad hoc. Les synchrotrons, dont ceux de troisième génération comme Soleil2, sont utilisés par plusieurs milliers de chercheurs de diverses disciplines. De même, en physique gravitationnelle, le projet franco-italien Virgo3, s’attaque à la démonstration de l’une des constructions intellectuelles les plus élaborées de la physique : l’existence, selon la théorie de la relativité générale, d’ondes gravitationnelles qui se propagent à travers l’espace, à la vitesse de la lumière.

Les nouveaux TGE
6  Jusqu’en 1995, cette notion de TGE ne concernait, de fait, que les disciplines qui s’articulaient autour de la physique ou de l’astrophysique. Or, des changements considérables sont intervenus dans le travail d’autres secteurs de la recherche, de sorte que l’Office parlementaire d’évaluation des choix scientifiques et technologiques4 (OPECST) estime qu’une simple définition de ces TGE par leur coût et leur financement ou par la désignation d’un instrument unique sur un lieu unique est désormais obsolète.

7  L’exemple de la recherche en sciences de l’homme et de la société est symptomatique de cette évolution car elle a créé des besoins importants comme les bibliothèques numérisées ou les bases de données gigantesques. Même constat pour la recherche génomique et post-génomique où de grands instruments comme les centres de séquençage et les cliniques de la souris deviennent des outils « indispensables ». Or, aujourd’hui, la seule animalerie en France qui possède les caractéristiques d’un TGE est la clinique de la souris fondée à Strasbourg par le professeur Pierre Chambon.

8  L’apparition de ces nouveaux instruments très sophistiqués dans d’autres disciplines que la physique s’est accompagnée d’un changement dans les modalités de leur mise en place : désormais, ils échappent entièrement ou partiellement aux grands organismes de la recherche publique. L’OPECST souligne d’ailleurs qu’une autonomie de gestion est nécessaire aux TGE pour leur construction et leur exploitation et qu’il « serait vain et contre-productif que les plus hautes autorités de la recherche assurent le pilotage direct du lancement des TGE car la direction d’un tel projet exige une expérience de scientifique et de management et au surplus une liberté de manœuvre sinon d’action5 ». Les caractéristiques des TGE imposent donc la création de structures dotées d’une autonomie réelle, concrétisée d’ailleurs par le fait que la plupart des grands équipements sont créés ou gérés par une équipe ayant à sa tête un scientifique reconnu par ses pairs. Ainsi, lors de la création du Cern, Pierre Auger, directeur scientifique de l’Unesco, a joué un rôle essentiel. Enfin, une autre spécificité importante tient au rythme d’utilisation de ces TGE caractérisé par un service continu, 24 heures sur 24 et 7 jours sur 7. Dans ces conditions, les mises à disposition par les organismes de recherche, de personnels soumis aux règles de la fonction publique sont parfois difficiles sinon ingérables. En conséquence, les statuts de droit privé sont mis en avant pour leur plus grande souplesse et les TGE prennent souvent les statuts juridiques de Gip (Groupement d’intérêt public) dérogatoires ou de sociétés civiles qui ont la capacité de recruter leurs personnels.

9  C’est dans ce contexte qu’au milieu des années 1990, les prémices des deux premiers grands instruments de la biologie ont vu le jour dans l’hexagone, à l’intérieur d’une structure de recherche associative, donc privée. Il s’agit du laboratoire Généthon créé par l’Association française contre les myopathies (AFM). En parallèle, un programme de recherche international démarre aux États-Unis sous le nom de Human genome project. Dès lors, l’arrivée de la génomique6 impose la mise en place de nouveaux types de laboratoires faisant évoluer la biologie d’un stade artisanal à un niveau beaucoup plus automatisé, quasi industriel. Il était donc nécessaire de trouver des solutions pour mobiliser des moyens propres à créer les structures ad hoc comme celles qui verront le jour à Évry : le Génoscope-Centre national de séquençage (CNS) et le Centre national de génotypage (CNG). C’est à la suite de ces décisions que fut lancé le projet Genopole.

Tout commence avec la découverte de l’ADN…
10Conséquences du développement rapide de la recherche, ces deux grands instruments s’inscrivent dans les révolutions essentielles qui secoueront la biologie au cours de la seconde moitié du xxe siècle jusqu’au bouleversement très récent (1992) que constitue l’avènement de la génomique.

11  Tout commence en 1913 lorsque l’américain Thomas Morgan découvre que les chromosomes portent les gènes7. Trente ans plus tard, en 1944, le New-Yorkais Oswald Avery démontre que l’acide désoxyribonucléique ou ADN, molécule quasi universelle dans le monde vivant porte l’information génétique de ces êtres vivants. Il fait la démonstration formelle de son rôle dans la transmission d’informations héréditaires. Tout s’enchaîne alors très vite. Le 25 avril 1953, un article des Britanniques James Watson et Francis Crick, paru dans la revue Nature, décrit pour la première fois la structure tridimensionnelle en double hélice de l’ADN. Celle-ci, véritable « mémoire » du vivant, renferme sous une forme chimique, au demeurant assez simple, l’ensemble des instructions élémentaires – ou gènes – nécessaires aux activités et au maintien de l’intégrité d’une cellule ou d’un organisme. La connaissance de ces instructions et surtout de leur combinatoire d’usage est indispensable à la compréhension des phénomènes biologiques au niveau cellulaire et moléculaire.

12  Ce n’est pourtant qu’en 1964 que des recherches montrent comment l’enchaînement linéaire des quatre constituants chimiques qui forment l’ADN peut déterminer la synthèse et surtout la structure d’une protéine8. Découverte fondamentale puisqu’au sein d’un organisme vivant, certaines protéines forment la charpente physique des cellules, d’autres leur permettent de fonctionner. Elles servent de matériau de construction, de récepteurs pour les signaux dans et entre les cellules et de catalyseurs pour les réactions biochimiques. Ainsi, dans bon nombre de maladies génétiques, une altération dans la structure d’un gène (mutation) se traduit par la synthèse d’une protéine défectueuse ou par son absence.

13  L’ADN apparaît alors comme « la molécule essentielle du vivant ». La fascination qu’elle exerce sur les chercheurs génère de nombreux travaux sur ses propriétés : comment se réplique-t-elle ? Comment évolue-t-elle ? De quelle manière diffère-t-elle d’une espèce à l’autre ? À l’occasion de ces recherches très fondamentales, les biologistes découvrent tout un ensemble de protéines-enzymes9 impliquées dans la réplication, dans la recombinaison10 et dans toutes les opérations moléculaires qui gravitent autour de l’ADN. Ces protéines deviennent alors autant d’outils potentiels pour faire in vitro ce que la cellule fait in vivo. Les premiers outils d’un véritable génie génétique11 sont ainsi découverts à la fin des années 1960. Ils vont permettre de comprendre l’intimité du fonctionnement du vivant, en particulier des gènes. Conséquence pratique, dès 1978, les biologistes utilisent des bactéries pour « fabriquer » des hormones humaines : insuline ou hormones de croissance, qu’aucun chimiste ne peut synthétiser. L’ère des biotechnologies nouvelles commence.

Les pionniers du séquençage
14  Dans les années 1970, ces recherches aboutissent à la constitution progressive de ce que j’appelle la « caisse à outils du vivant ». Les outils moléculaires qui la composent sont souvent d’origine bactérienne comme les enzymes de restriction, sorte de « molécules ciseaux » capables de découper l’ADN au niveau de régions très spécifiques. Également très utilisés, les plasmides sont de petits fragments d’ADN circulaires qui se multiplient de façon autonome au sein d’une bactérie qui se divise ; dès les débuts de la génétique dite moléculaire, bactéries et plasmides servent de « tubes à essais vivants ». D’autres enzymes sont disponibles comme les ligases qui aident à recoller des fragments d’ADN double-brin ou les polymérases qui permettent de recopier une séquence d’ADN à l’identique. Les fragments d’ADN peuvent aussi être séparés par leur taille, grâce à un champ électrique généré dans un gel d’électrophorèse. Tout ceci permet, en fait, l’opération simplissime suivante : couper dans une molécule d’ADN d’une espèce donnée un petit morceau choisi à l’avance et situé à un endroit déterminé, pour le greffer dans une autre molécule d’ADN d’une espèce différente, à n’importe quel endroit. Tour de passe-passe rendu possible en raison de la nature même de l’ADN, molécule universelle du vivant.

15  Ces découvertes mènent naturellement à l’idée d’appréhender complètement toute l’information contenue dans l’ADN. Ceci passe par le déchiffrage chimique de l’enchaînement des quatre molécules de base (A, T, G, C), un peu ce que l’on fait lorsqu’on essaie de comprendre un livre, une phrase écrite dans un alphabet inconnu. L’opération s’appelle séquençage. Les premières méthodes permettant de « séquencer » datent de la fin des années 1970. La plus utilisée est celle du Britannique Frederick Sanger dite « séquençage enzymatique de Sanger » qui lui a valu son deuxième prix Nobel de chimie en 1980 avec P. Berg et W. Gilbert. Elle permet de déterminer l’arrangement linéaire des nucléotides A, T, G, C. Avec ces premières techniques, ont peut lire quelques centaines de ces molécules élémentaires. Au milieu des années 1980, ces méthodes utilisées de façon manuelle dans les laboratoires, commencent seulement à être automatisées…

16  En vérité, la plupart des chercheurs ne perçoivent pas les mutations profondes qui commencent à ébranler la recherche en biologie, véritable changement de paradigme dû, justement, au développement de ces technologies. À cette époque, étudier l’expression d’un gène unique occupe la majeure partie du travail d’un chercheur… et une partie de sa carrière ! C’est le biologiste américain Ed Coe qui s’exclame : « Il y a tellement de gènes, et si peu de temps ! ». Chaque gène à étudier demande, de surcroît, une approche adaptée : le scientifique est occupé à développer et optimiser les techniques ; en réalité, il crée des instruments révolutionnaires.

17  Un autre événement décourage la recherche à la fin des années 1980 : Japonais et Américains échouent dans leur tentative de séquençage d’E. coli12. Les techniques utilisées ne sont pas encore assez mûres et les chercheurs n’ont pas intégré la nécessité d’organiser le travail de séquençage de manière industrielle. Les laboratoires travaillent encore de façon artisanale. Inutile, dans ce contexte, d’évoquer le séquençage du génome humain qui passe pour une entreprise réservée aux fous ou aux mégalomanes. Deux chercheurs vont, pourtant, imaginer un appareil qui rend possible un tel projet : en 1986, Leroy Hood et Lloyd Smith présentent la première machine de séquençage automatisée. Ce début de changement de paradigme, né de l’ambition de connaître l’ensemble de l’information génétique d’un individu, provoque une révolution dans la biologie qui va lancer les recherches du laboratoire Généthon, créé par l’AFM.

Le pas de géant du laboratoire Généthon
18  Trouver des solutions thérapeutiques pour traiter les maladies génétiques rares est la vocation première de l’AFM. Or, la découverte de ces molécules suppose de mieux connaître la maladie et donc le gène à l’origine de cette pathologie pour espérer le corriger directement ou améliorer le fonctionnement de la protéine défectueuse. Rechercher un gène dans l’ensemble de l’ADN humain revient à rechercher une ou quelques pages dans un livre d’un million de pages dont on ne connaîtrait à peu près rien.

19  Pour rechercher un gène, il fallait donc mieux connaître le génome de l’Homme. Sur ce dernier point, l’AFM, via son président de l’époque Bernard Barataud, trouve que les recherches ne vont pas assez vite, constat qui emporte alors la décision d’investir dans des recherches axées principalement sur une connaissance plus fine du génome de l’Homme. Le laboratoire Généthon voit le jour en 1990 grâce aux dons du Téléthon et l’appui de l’un de ses principaux inspirateurs, le prix Nobel Jean Dausset ainsi que de son élève Daniel Cohen. Ce dernier est convaincu que la seule manière de s’attaquer sérieusement au génome est de changer d’échelle dans la manière d’aborder ces questions. Il propose l’installation d’un laboratoire révolutionnaire, où plusieurs dizaines de machines fonctionnent en parallèle, où des automates remplacent des techniciens, le tout géré par une informatique de pointe, fonctionnant jour et nuit, 7 jours sur 7. Il va à contre courant de ce qui est usuel en matière de biologie à l’époque, même au États-Unis, en appréhendant le génome globalement, grâce à ces méthodes à grande échelle. Pour cela, il faut beaucoup d’argent. Le Téléthon et son succès arrivent fort à propos. Dans la foulée, Bernard Barataud attire un autre scientifique de renom, Jean Weissenbach, actuel directeur général du Génoscope. Leurs travaux permettent de produire en 1992 la première carte physique du génome humain13 et l’année d’après une carte génétique14 de seconde génération, toujours utilisée dans le monde entier pour accélérer la découverte des gènes impliqués dans les maladies génétiques. Le laboratoire du Généthon, né des efforts de l’AFM pour faire aboutir ses propres recherches, positionne la France au premier rang mondial dans la recherche en génomique. Surtout, il fonde une approche nouvelle qui aboutira à la création des deux grands instruments de la biologie en France.

20  Au milieu des années 1990, de grands équipements similaires apparaissent simultanément dans les grands pays de la recherche en biologie. Le premier d’entre eux est le Sanger Institute, centre de séquençage britannique créé en 1994 par une fondation privée, le Wellcome Trust. Aujourd’hui encore, le Sanger Institute reste le plus grand centre du monde réalisé dans l’esprit d’un TGE de la physique, dans la mesure où il prend complètement en charge des projets que des laboratoires seuls ne peuvent pas accomplir. Dans cette logique, le Wellcome Trust supporte l’essentiel des coûts du Centre et, en échange, le laboratoire travaille gratuitement pour les équipes de recherches dont les programmes ont été acceptés par le comité scientifique.

21  En France, ceci ne se faisait pas en biologie et ce n’est que lorsque l’AFM demanda à l’État, en 1994, de prendre le relais de son action, que le ministère de la Recherche décida, en 1996, de créer le Centre national de séquençage et, en 1998, le Centre national de génotypage. Ce sont les deux premiers grands instruments de la recherche en biologie, premiers « édifices » proches de ce qui se faisait en physique. à ceci près que, lors de leur création, leurs budgets respectifs ont été pris en charge, non par le CNRS mais directement par le ministère de la Recherche, c’est-à-dire l’État. Ces TGE de la biologie à grande échelle15 ont conservé leur lien direct avec le ministère, c’est-à-dire qu’ils reçoivent des moyens leur permettant à la fois de se gérer et d’acquérir les outils dont ils ont besoin. Ils disposent donc d’une certaine indépendance financière… qui échappe dans ce cas au CNRS et à l’Inserm. Notons, sans le commenter, que pendant cette même période, le CNRS acceptera de participer activement à deux autres grands projets de TGE pour la physique : Virgo et Soleil.

La révolution conceptuelle de la biologie à grande échelle
22  Ces grands instruments s’inscrivent pourtant dans un processus qui n’est pas simplement de doter la recherche de moyens financiers protégés. C’est aussi une manière de participer à une évolution qualitative très forte qui peut aboutir à des révolutions conceptuelles et médicales dont on imagine encore difficilement aujourd’hui les conséquences pour demain. Ces technologies nouvelles vont sortir la biologie moléculaire de l’une des critiques essentielles et légitimes qui lui était faite : son réductionnisme. L’une des principales attaques reposait sur la manière de généraliser les résultats : comment peut-on comprendre le vivant et sa complexité en observant le fonctionnement d’un seul gène ? Cela revient à vouloir comprendre la complexité de la sociologie humaine en étudiant un individu particulier, ce qui n’a guère de sens. Toutes ces critiques étaient fondées mais la biologie moléculaire était très réductionniste car… elle ne savait pas faire autrement ! Ainsi, la mission du Centre national de séquençage – Génoscope – qui est de produire et d’interpréter de grands volumes de données de séquences de haute qualité, a fait basculer le travail dans une dimension supérieure.

23  Des centres de séquençage de l’ADN comme le Génoscope, véritable usine à produire des séquences, sont nécessaires car il est impossible de lire d’une traite la séquence des immenses molécules d’ADN – les chromosomes16 – qui renferment l’information héréditaire d’un organisme. Les chromosomes humains contiennent des molécules d’ADN longues de plusieurs dizaines à plusieurs centaines de millions d’éléments. Or, chaque opération élémentaire de séquençage ne livre qu’un fragment de 500 à 1 000 éléments. Il faut donc en réaliser un très grand nombre et même produire un volume de séquences plusieurs fois supérieur à la taille du chromosome, ces lectures répétées permettant de raccorder les séquences les unes aux autres et de s’assurer de la qualité du résultat de chaque lecture individuelle. Déterminer la séquence complète d’un chromosome humain nécessite ainsi des dizaines de millions de lectures. L’opération s’apparente à la reconstitution d’un livre dont on aurait découpé les milliers de pages en petits morceaux de 500 lettres, à la différence près que, dans l’ADN, il n’y a ni virgule, ni point, ni renvoi à la ligne, ni paragraphe visible ou aisément décelable.

24  Avant le séquençage total du génome humain, quelques gènes avaient été identifiés et concernaient, pour la plupart, les maladies génétiques rares dites monogéniques car conséquences de la mutation ou de la modification intervenant sur un seul gène, comme la myopathie, la mucoviscidose ou l’hémophilie. Or, les technologies dites de la biologie à grande échelle permettent de connaître la structure de milliers de gènes de diverses espèces, de suivre le fonctionnement de 20 000 gènes en même temps et d’inventorier un très grand nombre de protéines présentes dans une cellule, c’est-à-dire d’acquérir un jour la connaissance quasi exhaustive du génome et des molécules du vivant. L’idée n’est pas seulement de faire beaucoup plus et d’aller plus vite, mais d’avoir un regard sur le vivant plus proche de la réalité. Et cela est capital. Si au lieu d’observer l’expression d’un seul gène dans une cellule, nous sommes capables d’étudier la manière dont tous ces gènes interagissent dans le temps, nous aurons une représentation plus fidèle de la réalité et du fonctionnement du vivant. De la même façon, si nous pouvons répertorier à un moment donné toutes les protéines (ou presque) présentes dans une cellule, nous aurons une idée beaucoup plus précise de leur fonctionnement.

Le séquençage : artisan de nouvelles techniques moléculaires
25  Ces efforts de séquençages systématiques des génomes de virus, de bactéries et d’organismes dits supérieurs, dont l’Homme, ont conduit à développer les techniques d’acquisition de données moléculaires. Autrement dit, les grands projets de séquençage du génome ont permis de découvrir de nouvelles technologies moléculaires, sorte d’iceberg dont la partie visible est aujourd’hui la génomique structurelle et fonctionnelle17. Demain, la connaissance de la partie immergée mettra à jour un changement de paradigme sur les aspects fondamentaux et appliqués de la biologie. Il s’agit, en fait, d’une nouvelle vision du vivant dans ses aspects les plus intimes, dont les techniques moléculaires et informatiques à grand débit sont les instruments.

26  Au niveau du génome, les puces à ADN18 permettent déjà d’appréhender une dimension nouvelle. Si la génétique permet d’isoler un gène à fonction connue et de l’étudier au niveau moléculaire, la génomique livre une pléthore de gènes dont il faut déterminer les fonctions et les interactions. Ces deux approches ne sont pas antinomiques mais complémentaires.

27  L’étude du transcriptome19 est réalisée via des « puces », ou d’autres méthodes à grand débit comme le Sage20, capables de détecter l’expression de la quasi totalité des gènes d’un organisme à analyser. La génomique permet même de suivre l’expression de tous ces gènes dans le temps, avec de surcroît, les niveaux d’expression de chaque gène interdépendant. Ainsi, toutes ces techniques moléculaires à grand débit comme les puces à ADN ou le procédé de réaction de polymérisation en chaîne (PCR) qui permet de reproduire à volonté et en très grand nombre des fragments d’ADN à partir d’une quantité infime de matériel, modifient le contexte actuel des projets de recherche dans les sciences médicales et la biologie moléculaire humaine.

Les fondations d’une nouvelle médecine
28  Ces recherches prendront toute leur ampleur en médecine et, par exemple, en cancérologie, maladie qui affecte la croissance et les propriétés « sociales » des cellules normales. L’organisme assure un contrôle strict des multiplications cellulaires. Pour diverses raisons complexes, il peut arriver qu’une cellule échappe à la vigilance de notre organisme. Ce phénomène, rare, va entraîner une multiplication incontrôlée et anarchique des cellules, aboutissant à ce que l’on appelle une tumeur locale puis à un cancer généralisé lorsque cette tumeur essaime dans l’organisme.

29  Si nous prenons pour exemple la différence entre les recherches que nous développions en cancérologie il y a vingt ans et ce que l’on fait aujourd’hui grâce à ces nouvelles technologies, le fossé est immense. À l’époque, notre travail visait à tenter d’identifier à l’intérieur d’une cellule cancéreuse, humaine ou animale, les gènes altérés. Quand on avait caractérisé l’un de ces gènes, nous étions très satisfaits, deux gènes très, très heureux, et au troisième gène isolé, nous étions tellement fatigués que l’on passait à autre chose… Le travail n’était pourtant pas fini… Lorsqu’on avait isolé un gène dont on savait pertinemment qu’il était modifié dans une cellule cancéreuse, il fallait essayer de comprendre sa fonction, son mécanisme d’action, comment son altération pouvait aboutir à une croissance anormale et en quoi il pouvait être impliqué dans d’autres types de cancers. Les quinze ans qui ont suivi la découverte des premiers « gènes de cancers » ont été consacrés à cette analyse méthodique et systématique très longue. Le but de cet archivage laborieux était de déterminer les gènes les plus importants. Venaient ensuite d’autres études : si ce gène est altéré dans cette tumeur précise, le pronostic vital est-il plus grave ou moins grave ? Quels traitements peut-on imaginer contre ce gène, son produit, son action ? Tout un ensemble de recherches se concentraient donc autour d’un gène, d’une mutation dont on essayait, bien entendu, de déduire des connaissances générales. Tâche très difficile car sur 100 tumeurs du sein d’apparence semblable, 20 possédaient un gène muté alors que dans 20 autres, le gène n’était pas muté mais seulement fortement exprimé. Tout ceci nous amenait à une situation extrêmement complexe et paradoxale avec d’un côté, des recherches fondamentales très nombreuses, de qualité exceptionnelle et très pointues en cancérologie moléculaire fondamentale touchant à la biologie générale du cancer, et de l’autre, des médecins qui nous reprochaient le peu de progrès des traitements. On en était là jusqu’en 1995.

30  Or, à partir de ces nouvelles technologies, l’identification possible dans la tumeur d’un nombre important d’altérations génétiques devient possible. Ce n’est pas encore simple à faire mais le processus est en cours. De toute évidence, si cet inventaire devient réalisable, la recherche disposera d’un moyen d’établir un portrait moléculaire de la tumeur beaucoup plus complet qu’en observant un seul gène.

31  Cette vision globale autorise une question fondamentale à laquelle les chercheurs étaient incapables de répondre auparavant : les lésions situées dans la tumeur primaire, tumeur du sein par exemple, sont-elles maintenues dans les tumeurs secondaires, les métastases, ou ont-elles déjà évolué ? Dans la foulée, une autre question essentielle devient possible : quels gènes sont exprimés dans cette tumeur à un moment donné ? Si l’on reprend l’exemple des 100 tumeurs du sein très semblables, on trouve que le profil d’expression des gènes n’est pas le même dans toutes les tumeurs, bien que les cellules concernées paraissent morphologiquement identiques. Ceci permet d’établir une forme de classification nouvelle et surtout de rechercher une corrélation entre l’expression des gènes dans une tumeur et la réponse au traitement.

32  Ceci aboutit à un regroupement de tumeurs apparemment de même type en sous-familles et montre que l’on obtient 90 % de bonnes réponses au traitement pour certaines de ces sous-familles alors que pour d’autres, le résultat est quasi nul. Cette observation permet de préciser les traitements adaptés à certains types de tumeurs et d’exclure celles qui ne s’y prêtent pas. L’un des objectifs est d’épargner à des patients atteints de ces lésions un traitement agressif inutile ; un autre est de définir une stratégie visant à trouver d’autres thérapeutiques pour traiter ce type de cancer. À cette observation globale touchant les cellules malades, on peut adjoindre une recherche des caractéristiques génétiques de chaque malade. On sait d’ores et déjà que les traitements seront dans l’avenir optimisés par cette double approche : connaissance des caractéristiques génétiques de la tumeur, connaissance des caractéristiques génétiques du malade. Ces technologies permettent donc de définir de nouvelles voies thérapeutiques qui vont accroître l’efficacité du traitement chez des patients atteints du même type de lésions. Or, cette façon d’aborder la médecine est directement liée à la biologie à grande échelle et sans les grands instruments, comme le CNS et le CNG, on ne serait jamais parvenu à ces résultats.

La nouvelle dimension génétique de l’Homme et de ses pathologies : les besoins en génotypage
33  Cette nouvelle dimension de l’Homme démontre ce que nous savons tous intuitivement : nous sommes tous inégaux face aux maladies. Dans un environnement déterminé, chaque individu aura une réponse différente. Certains, par exemple, fument un paquet de cigarettes par jour et développeront des pathologies rapides, bronchite chronique, allergies ou cancer alors que d’autres gros fumeurs vivront en apparente bonne santé pendant très longtemps.

34  En octobre 1998, le CNG, actuellement dirigé par Mark Lathrop, a repris les activités génomiques de génotypage de Généthon et son objectif est, notamment, l’identification de gènes morbides impliqués dans les maladies fréquentes. Le CNG participe, par exemple, à la réalisation de projets européens de grande envergure tels ceux visant à étudier l’hypertension, le diabète et la compatibilité HLA21 dans les greffes de moelle. Aujourd’hui, nous avons, en effet, une certitude : dans toutes les pathologies humaines, une composante génétique explique, en partie, notre inégalité face à ces pathologies. C’est ce que l’on appelle les gènes de prédisposition qu’il ne faut surtout pas réduire à une vision simpliste car dans ce domaine, il faut appréhender les comportements, les environnements mais également la complexité de l’ensemble du génome. Avoir un gène de prédisposition ne signifie pas que l’on sera malade. Cela indique seulement un risque plus ou moins élevé par rapport au risque moyen.

35  C’est à ce niveau que les recherches du Centre national de génotypage deviennent essentielles. Le génotypage étant la caractérisation de l’ensemble des différences existant entre les génomes, d’un individu à l’autre, ces recherches visent à établir des corrélations entre la présence dans le génome de différents individus de certains allotypes, c’est-à-dire de certaines allèles22 de gènes à des endroits déterminés par rapport à la fréquence d’une pathologie donnée. Un allèle est une version possible naturelle d’un gène. Or, n’oublions pas, à ce stade, que tout individu résulte d’une construction faite par les réunions d’une moitié de patrimoine génétique issue de sa mère et d’une autre moitié de son père. Nous résumons cela en disant que, chez un individu, chaque gène est présent en deux exemplaires, l’un sur le chromosome d’origine paternelle, l’autre sur le chromosome d’origine maternelle, situés au même endroit (dans chaque chromosome). Ces deux allèles sont soit identiques à un endroit donné, l’individu est alors homozygote à cet endroit pour ce gène, soit différents dans leur composition, l’individu est alors hétérozygote pour ce gène. L’objectif du CNG est de fournir une assise scientifique solide à des affirmations de ce type : risques de maladies cardiovasculaires accrues, par exemple, en raison de la présence de deux allèles particuliers. Le CNG est alors capable de comparer massivement et de manière parallèle, le génome de milliers d’individus et d’essayer de discerner, parmi ces différences, celles qui sont impliquées dans des pathologies comme l’obésité, le diabète, les maladies cardiovasculaires, les allergies ou le cancer.

36  Ces recherches ont ainsi permis d’élaborer une nouvelle méthodologie, la génomique structurelle et fonctionnelle, née de la génétique moléculaire et de l’informatique. C’est, en effet, la robotisation et la taylorisation des différentes procédures utilisées couramment dans les laboratoires de biologie moléculaire qui ont facilité sa conception, ainsi que la miniaturisation des supports due au développement des microtechnologies, demain les nanotechnologies. Miniaturisation qui permettra sans doute de concevoir des laboratoires d’analyses moléculaires portables… Alors que les équipements de la recherche en physique sont condamnés à toujours plus de gigantisme, la biologie entrevoit, elle, son avenir à l’échelle de la cellule, par le biais des nanotechnologies…

Haut de page
Documents annexes


Portrait de Bernard Barataud (application/pdf – 12k)
La compétition privé/public: Celera Genomics (application/pdf – 13k)
Haut de page
Notes

1  Le grand accélérateur européen de particules a été construit et est exploité par une organisation connue sous le nom de Cern, le Centre européen de la recherche nucléaire, qui vient de fêter ses 50 ans. Si son siège se trouve à Genève, ses installations se répartissent de part et d’autre de la frontière franco-suisse, sur le territoire genevois et dans le Pays de Gex. Le Cern a le statut d’organisation internationale, ce qui signifie qu’il est financé par les contributions des États membres de la Communauté européenne qui fournissent également les quelque 3 500 personnes qui y travaillent. Actuellement, le synchrotron à protons du Cern (400 GeV) est l’un des plus puissants du monde, juste derrière celui de Fermilab aux États-Unis (500 GeV).
2  Soleil est un accélérateur de particules qui produit un rayonnement synchrotron permettant d’explorer la matière, inerte ou vivante. Ce rayonnement est fourni par un anneau de stockage de 354 m de circonférence dans lequel des électrons de très haute énergie circulent quasiment à la vitesse de la lumière. Situé sur le Plateau de Saclay en Essonne et opérationnel à partir de 2006, Soleil ouvre de nouvelles perspectives pour sonder la matière avec une résolution de l’ordre du millionième de mètres et une sensibilité à tous les types de matériaux. Ses applications seront multiples en physique, en chimie, en sciences de l’environnement, en médecine et en biologie.
3  L’expérience franco-italienne Virgo repose sur un interféromètre géant de 3 km de long et installé à Cascina près de Pise en Italie. Son ambition est de détecter les ondes gravitationnelles produites par de violents phénomènes cosmiques. La construction de l’ensemble de l’interféromètre vient de s’achever. Les premiers tests de Virgo sont en cours et la prise de données scientifiques devrait démarrer en 2005.
4  Rapport de janvier 2001 sur « Le rôle des très grands équipements dans la recherche publique ou privée, en France et en Europe ». L’Office parlementaire d’évaluation des choix scientifiques et technologiques a été créé par la loi n° 83-609 du 8 juillet 1983, à la suite d’un vote unanime du Parlement. Aux termes de la loi, sa mission est « d’informer le Parlement des conséquences des choix de caractère scientifique et technologique afin, notamment, d’éclairer ses décisions ». à cet effet, l’Office « recueille des informations, met en œuvre des programmes d’études et procède à des évaluations ».
5  Ibid.
6  La génomique est la science qui se propose d’étudier la structure, le fonctionnement et l’évolution des génomes.
7  Le gène est un fragment d’ADN qui code pour une protéine. Il peut comporter de quelques centaines à plusieurs centaines de milliers de nucléotides. Chaque gène comprend fondamentalement quatre régions : un promoteur, une séquence codante, un terminateur, des séquences de régulation.
8  L’ADN est un polymère formé de deux chaînes formant une double hélice. Quatre molécules élémentaires nommées nucléotides se succèdent linéairement sur chacune de ces chaînes, qui prennent ainsi la forme d’un très long collier composé de quatre perles différentes, symbolisées par les lettres A, T, G et C. L’ordre de ces nucléotides détermine la signification du message codé par la molécule (gène). En effet, cette molécule est transcrite point par point sous forme d’acide ribonucléique (ARN). Certaines de ces molécules d’ARN servent de messager (ARN messager) pour être traduites en protéines.
9  Les enzymes sont des protéines spécifiques qui catalysent les réactions biochimiques de l’organisme.
10  La recombinaison génétique concerne tout processus permettant d’obtenir un assemblage nouveau d’informations génétiques. Ainsi, la recombinaison méiotique – qui a lieu lors de la méiose-division cellulaire qui aboutit à la formation des gamètes – est produite par un mécanisme dans lequel les chromosomes issus du père et de la mère échangent réciproquement certains segments de leur matériel génétique.
11  Le génie génétique est la partie de la biologie qui utilise les outils de la biologie moléculaire pour modifier la structure ou le fonctionnement d’un ou de plusieurs gènes. Par exemple, certains segments de chromosomes contenant un gène d’intérêt peuvent être isolés et intégrés au génome d’autres organismes : bactéries, levures, plantes… Le génie génétique permet ainsi d’obtenir, à partir de bactéries, la synthèse et la fabrication industrielle de substances comme les hormones ou les vaccins.
12  Escherichia coli est un genre bactérien dans lequel on ne retrouve qu’une seule espèce. Sa culture très facile et sa grande tolérance de variation de pH expliquent son utilisation récurrente dans les manipulations en biologie.
13  La carte physique du génome de l’Homme est la représentation de la disposition des gènes sur les chromosomes, obtenue en utilisant directement le fragment d’ADN qui le contient.
14  La carte génétique du génome de l’Homme est la représentation de la disposition des gènes le long de la molécule d’ADN, utilisant un ensemble de repères moléculaires identifiés et positionnés le long de chaque chromosome. Ces repères – marqueurs – permettent de localiser plus facilement les gènes sur les différents chromosomes.
15  La biologie à grande échelle est un ensemble de techniques permettant d’accélérer l’acquisition et l’analyse des résultats. Elle implique une automatisation des procédures expérimentales en biologie, grâce à l’utilisation de robots, la mise en parallèle d’appareils d’analyses, le tout placé sous contrôle d’une importante informatique de gestion et d’exploitation et de procédures d’assurance qualité.
16  Les chromosomes sont la forme visible au microscope optique que prend la molécule d’ADN condensée, associée à des protéines pendant la phase de division cellulaire.
17  La génomique fonctionnelle concerne la partie de la génomique qui étudie la fonction des protéines codées par un gène, leur régulation et leurs interactions.
18  Les puces à ADN sont des supports solides – petite lame de verre comme celles utilisées en microscopie traditionnelle ou membrane de nylon – sur lesquels des milliers de fragments d’ADN sont déposés de façon géométrique à l’aide d’une micropipette robotisée. Grâce à cette technique, chacun des fragments d’ADN est représenté par un point (ou puce) sur le support. Ils servent de sondes pour fixer de façon très spécifique les fragments de gènes complémentaires (cibles), présents dans les échantillons biologiques à tester.
19  La transcriptomique est l’étude de l’expression totale des transcrits (ARNmessagers) des gènes dans une cellule, un tissu ou un organisme donné.
20  La méthode à haut débit Sage (Serial Analysis of Gene Expression) permet une analyse de la fréquence d’un ARN messager (l’ARNm étant le produit de la transcription de l’ADN, en clair lorsque l’ADN est converti en ARN), quel que soit son niveau d’expression parmi les milliers produits dans une cellule à un moment donné.
21  Les molécules HLA sont des présentoirs pour les déterminants antigéniques. Les chaînes polymorphes qui composent les molécules HLA sont codées par un ensemble de gènes situés sur le chromosome 6, ensemble de gènes très proches les uns des autres. De ce fait, les gènes HLA sont transmis en bloc (haplotype) des parents aux enfants. Chaque enfant hérite d’un haplotype paternel et d’un haplotype maternel. Chaque allèle de chacun des 2 haplotypes est exprimé. L’identification de ces allèles correspond au groupage HLA.
22  Allèle : contraction d’allélomorphe. Version particulière d’un gène porté sur l’un des deux chromosomes homologues d’une cellule, l’un venant du père, l’autre de la mère.
Haut de page
Pour citer cet article

Référence électronique
Pierre Tambourin, « Les grands instruments de la biologie moléculaire, prémices de la médecine de demain », La revue pour l’histoire du CNRS [En ligne], 12 | 2005, mis en ligne le 22 janvier 2007, consulté le 14 mai 2015. URL : http://histoire-cnrs.revues.org/1308
Haut de page
Auteur

Pierre Tambourin
Pierre Tambourin, directeur général depuis son lancement en 1998 de Genopole® à Évry est un ancien élève de l’École polytechnique dont la spécialité en génétique moléculaire l’a naturellement conduit à effectuer et diriger des recherches à l’Inserm pendant de nombreuses années. Essentiellement consacrés à la cancérologie expérimentale, ses travaux visaient à comprendre les mécanismes qui transforment une cellule normale en cellule cancéreuse, puis à identifier les gènes impliqués dans ces mécanismes. À partir de 1989, Pierre Tambourin troque la gestion de la cellule pour celle de l'humain et dirige jusqu'en 1992 la section de biologie de l’Institut Curie puis, de 1993 à 1997, le département des sciences de la vie du CNRS.

Articles du même auteur
Des biotechnologies en bonne santé [Texte intégral]
Paru dans La revue pour l’histoire du CNRS, 17 | 2007


 DOCUMENT     histoire-cnrs.revues.org    LIEN

 
 
 
 

LA 2eme GUERRE MONDIALE

 

La France
dans la Seconde Guerre mondiale


I. Le cataclysme de la défaite de mai-juin 1940
1. Le contexte de la défaite : la « drôle de guerre »
   En septembre 1939, la France est un pays frappé par la dénatalité et le vieillissement, affaibli sur le plan économique, divisé sur le plan politique et social, gagné par l'esprit munichois et le pacifisme.
   La mobilisation se fait lentement, sans enthousiasme, avec résignation.
   La guerre est perçue par beaucoup comme inutile, irréelle, comme une guerre qu'on ne veut pas faire et dont on espère qu'elle n'aura pas lieu : c'est la « drôle de guerre » .
   Les Britanniques l'avaient désignée par le terme de phoney war c'est-à-dire fausse guerre ou guerre bidon, confondu dans la traduction française avec l'adjectif funny ( drôle, amusant, comique ).
2. Les circonstances de la défaite : la débâcle
   L'état-major français est pris au dépourvu par l'attaque allemande de mai 1940 dans les Ardennes.
   C'est la débâcle militaire, l'exode des populations jetées sur les routes dans la plus grande confusion.
   Le général Weygand qui remplace à la tête des armées Gamelin limogé, et Pétain qui succède à Reynaud à la tête du gouvernement replié à Bordeaux, considèrent que la défaite est inéluctable et qu'il faut vite solliciter un armistice pour éviter à l'armée le déshonneur d'une capitulation.
3. Les conséquences de la défaite : l'occupation
  La convention d'armistice, signée à Rethondes le 22 juin 1940, prévoit le découpage de la France en deux zones : la zone occupée au nord ; la zone non occupée au sud, de part et d'autre d'une ligne de démarcation allant de la frontière espagnole à la frontière suisse.
   L'armée française est réduite à 100 000 hommes et la flotte sera désarmée sous contrôle allemand.
   La France qui doit payer une indemnité pour frais d'occupation, est livrée au pillage : réquisitions, prélèvements, confiscations de terres.
   Le bilan des combats est lourd : 120 000 morts, 200 000 blessés, 1 600 000 prisonniers emmenés en captivité en Allemagne, des millions de réfugiés ; une économie paralysée.
   Mais la majorité des Français a l'illusion d'avoir, grâce à Pétain, évité le pire.
II. Les années noires de l'occupation
1. La liquidation de la IIIème République
   En juillet 1940, le gouvernement s'installe à Vichy où une large majorité de parlementaires votent les pleins pouvoirs au maréchal Pétain.
   La mise à mort de la IIIème République, orchestrée par Pierre Laval, laisse la place
à l' « État français » dont la devise devient « Travail - Famille - Patrie ».
   Tous les pouvoirs sont confisqués par le « chef de l'État », Pétain, qui reste pour beaucoup de Français le prestigieux vainqueur de Verdun.
2. Le régime de Vichy
   Philippe Pétain, âgé de 84 ans, instaure un régime autoritaire, de pouvoir personnel, de réaction et de revanche, qui rend la République responsable de la défaite.
   Il inaugure dans le cadre de la « Révolution nationale » une politique de restauration de l'ordre moral. La propagande développe le culte du maréchal.

   L'Université est mise au pas.
   Les jeunes sont embrigadés au sein des « Chantiers de jeunesse ».

   La « Charte du travail » jette les bases d'une économie corporative dans laquelle patrons et ouvriers sont invités à œuvrer ensemble à la réconciliation sociale.
   Le droit de grève est interdit.
   Les centrales syndicales sont dissoutes.
   La lutte des classes et l'esprit de revendication sont condamnés.
3. La collaboration avec l'Allemagne nazie
   Symbolisée par la poignée de main de Pétain à Hitler à Montoire en octobre 1940, la politique de collaboration d'Etat conduite par Laval, Darlan puis à nouveau Laval, n'a pas empêché l'Allemagne de violer les clauses de l'armistice : rattachement du Nord-Pas de Calais au commandement militaire allemand de Bruxelles ; annexion des trois départements d'Alsace-Moselle et enrôlement forcé des jeunes Alsaciens et Mosellans dans la Wehrmacht ; occupation de la zone-sud en novembre 1942.

  La collaboration a revêtu plusieurs formes :
        - collaboration économique avec la Relève et l'instauration du Service obligatoire du travail ( STO ) ;
        - collaboration militaire avec l'engagement de la Légion des volontaires français ( LVF ) et de Waffen SS français sur le front de l'Est ;
        - collaboration policière avec l'établissement de listes d'otages, la participation de la police française aux rafles contre les résistants et les Juifs, l'introduction de la Gestapo en zone-sud non-occupée, l'ouverture de camps d'internement gardés par des gendarmes français, la complicité de l'Etat français dans la mise en œuvre du génocide des Juifs.
III. Les Français dans la Résistance
1. Une minorité de résistants courageux
   La résistance extérieure est née de l'Appel du 18 juin 1940 lancé par le général de Gaulle à la BBC, invitant les Français à poursuivre le combat.
   Ceux qui ont répondu à son appel au Royaume-Uni et dans l'Empire, combattent aux côtés des Alliés au sein des Forces Françaises Libres ( FFL ).

   La résistance intérieure qui s'organise lentement en France dans les deux zones autour de petits groupes isolés, revêt des formes multiples : réseaux de renseignements ; filières d'évasion ; sabotages ; lutte armée dans les maquis.
2. Une unification difficile et tardive
   Un Bureau central de renseignements et d'action ( BCRA ) est créé à Londres pour armer et organiser la résistance intérieure que Jean MOULIN parvient à unifier en 1943 au sein du Conseil national de la Résistance ( CNR ).

   A cette date, DE GAULLE devient le chef incontesté de la résistance française extérieure et intérieure, et préside le Comité Français de Libération Nationale ( CFLN ).
IV. La libération de la France
1. La Résistance s'organise et participe aux combats
aux côtés des Alliés
   Au début de 1944, le Mouvement de libération nationale ( MLN ) rassemble les différents mouvements de résistance dont les groupements armés sont réunis dans les Forces françaises de l'intérieur ( FFI ).

   Le CNR adopte un programme qui définit un plan d'action pour libérer le pays et les mesures à appliquer dès la libération.
   Le CFLN se transforme en Gouvernement provisoire de la République française ( GPRF ).

   À partir du débarquement en Normandie de juin 1944, l'insurrection nationale s'efforce de neutraliser toutes les communications pour empêcher ou retarder les renforts venus d'Allemagne.

   Les maquis engagent le combat pour fixer les troupes allemandes sur le Vercors dans les Alpes, au Mont Mouchet dans le Massif central, à Saint-Marcel en Bretagne.

   Les Forces françaises libres ( FFL ) combattent aux côtés des Alliés : 2ème DB du général Leclerc et 1ère Armée française du général de Lattre de Tassigny.
2. L'État républicain est restauré, mais la situation reste difficile
   La France échappe à l'administration militaire alliée que les Américains avaient initialement prévu d'y instaurer.

   Au fur et à mesure que les départements sont libérés, des commissaires de la République nommés par le GPRF et des Comités départementaux et locaux de libération ( CDL et CLL ) contrôlés par les résistants se substituent à l'administration de Vichy et rétablissent partout la légalité républicaine.

   Il en résulte une menace de double pouvoir ( pouvoir du gouvernement central et pouvoir résistant local ), menace que de Gaulle écarte en même temps qu'une éventuelle prise de pouvoir par les communistes.

    Les Forces françaises de l'Intérieur ( FFI ) et les milices patriotiques sont intégrés dans l'armée nouvelle.

    Les résistants s'effacent rapidement pour laisser la place aux partis politiques renaissants.
  
    La France libérée continue de combattre aux côtés des Alliés jusqu'à la victoire.

    Elle entreprend de châtier les collaborateurs en mettant en place les instruments de l'épuration légale ( Haute Cour et Cours départementales de justice, Chambres civiques ) dont les verdicts sont dénoncés comme excessifs par les uns et comme trop laxistes par d'autres.

    Enfin, elle doit accueillir les prisonniers et les déportés et amorcer la reconstruction du pays dans un contexte difficile de pénurie aggravée, de rationnement et d'inflation, une situation mal supportée par la population déjà épuisée par les années d'occupation.

( cliquer  sur  le  lien  pour  lire  la  suite )

 

DOCUMENT          cndp.fr         LIEN

 
 
 
 

INGÉNIEURS ET SOCIÉTÉ

 

L'ingénieur et la société


I – L'utilité du savoir
Au 17ème siècle, dans un texte aujourd'hui surprenant du chapitre 10 du Léviathan, paru en 1651, Thomas Hobbes passe en revue les divers pouvoirs: pouvoirs naturels, richesses, réputation, chance, beauté (promesse de choses bonnes, qui plaît aux femmes et aux étrangers), etc. Quand il en vient aux sciences, il estime qu’elles ne constituent pas un bien grand pouvoir parce qu’elles ne sont ni assez répandues ni assez reconnaissables : il n’y a, selon lui, pas assez d’hommes assez savants pour savoir reconnaître la science et la distinguer des diverses sortes de fausse science (on pense, bien sûr, à la magie et à la sorcellerie toujours répandues à l’époque). Hobbes admet tout juste l’importance et l’efficacité de quelques connaissances appliquées comme l’art des fortifications et des machines de guerre. On sait que les premiers ingénieurs furent des ingénieurs de la marine, des ingénieurs militaires et des ingénieurs des ponts et chaussées.
Ces vues de Hobbes témoignent du statut encore obscur, isolé et marginal de la science à son époque, un statut qui ne commencera vraiment à changer qu’avec la création de la Royal Society dans les années 1670, puis le triomphe de la mécanique de Newton en 1686.
Pour nous, les choses se présentent sous un jour bien différent.
Les besoins sociaux (ou ce que nous nous imaginons qu’ils doivent être avec, chacun, notre compétence très variable) commandent les orientations de la recherche à travers les politiques scientifiques publiques. Les applications techniques sont omniprésentes dans notre vie quotidienne. Elles entraînent la recherche aussi bien en termes d’application que d’effets en retour sur les connaissances fondamentales.
Cet effet de circularité est bien décrit par la notion de technoscience, introduite à la fin des années 1970: "la technique constitue le “milieu naturel” de développement et aussi le principe moteur de la recherche scientifique" (Gilbert Hottois, Le signe et la technique. La philosophie à l’épreuve de la technique, Paris, Aubier Montaigne, Coll. «Res - L’invention philosophique», 1984, p.59-60). En 1991, Larousse sera le premier dictionnaire français à introduire le substantif technoscience.
Avant l’ère technoscientifique, la science produisait certes des techniques, mais elle visait avant tout la quête désintéressée du savoir. Les Grecs méprisaient ouvertement la technique, plaçant la vie contemplative ou théorétique au sommet de la hiérarchie des finalités humaines. Au 17ème siècle, des auteurs comme Descartes et Bacon commencent l’apologie de la technique en cherchant à la rapprocher de la science pour mieux maîtriser les conditions de la vie et du travail. L'Encyclopédie de d'Alembert et Diderot publiée entre 1751 et 1772 célèbre les techniques mais ce sont souvent encore des techniques préscientifiques ou le perfectionnement des arts et métiers traditionnels. En réalité, c’est lors de la deuxième Révolution industrielle, dans les années 1830-1870, que se dessine la naissance de la technoscience. C'est à cette même époque que l'ingénieur prend son importance, que la notion commence à être théorisée et la formation organisée.
Aujourd’hui, l’activité scientifique produit non seulement du savoir mais des savoirs matérialisés en technologies qui, en retour, modifient l’activité scientifique, notamment en fournissant des outils chaque jour plus complexes et puissants de recherche générant en boucle des innovations. Qu'on songe aux effets théoriques des observations du télescope en orbite Hubble ou aux techniques de manipulation nanométriques des atomes. Du coup, la distinction familière entre recherche fondamentale et recherche appliquée devient floue et, surtout, elle se présente de manière nouvelle : une partie de la science s’applique et une autre reste "pure" - mais on ne sait jamais trop bien de quel côté va se trouver l’innovation marquante.
La technoscience va de pair avec le capitalisme cognitif. 
Le capitalisme a toujours eu une base cognitive à travers les innovations techniques pour rendre le travail plus productif et augmenter les taux de profit. Ce capitalisme "pré-cognitif" a passé le relais à la fin du 20ème siècle à un capitalisme pleinement cognitif caractéristique d’une société postindustrielle et globalisée. Il est significatif qu’en mars 2000 le Conseil européen de Lisbonne ait fixé pour objectif à l’Europe de "devenir l’économie de la connaissance la plus compétitive et la plus dynamique du monde". Instauré en 2000, l’"espace européen de la recherche", transpose la stratégie de Lisbonne au plan de la recherche en visant à "construire le “marché commun” de la recherche et de l’innovation, à l’image de celui qui a été créé dans le secteur des biens et des service" (http://ec.europa.eu/research/era/index_fr.html). La technoscience se voit ainsi placée au cœur de la stratégie de croissance d’une société de la connaissance.
II- L’ingénieur
La notion d’ingénieur est étymologiquement liée à celle de machine qu’il s’agit d’inventer et d’agencer. Les machines dont il s'agit sont avant tout des machines de guerre (Oxford E. D., 1325), des navires, et aussi des machines de levage pour les constructions et transports.
La première grande distinction qui s'établit est entre ingénieur militaire et ingénieur civil – l’Encyclopédie en 1765 distingue entre trois catégories : ingénieurs militaires, ingénieurs de la marine et ingénieurs civils pour les ponts et chaussées. Ceci correspond en gros à la création des écoles spécialisées au cours du 18ème siècle. Si l’école des Ecole de constructeurs de vaisseaux à Nantes remonte à 1672 (celle de Brest date de 1692), 1747 est l’année de la création de l'École Royale des Ponts et Chaussées, 1748 celle de l'Ecole Royale du génie de Mézières et 1783 celle de l'École Royale des Mines.
Les ingénieurs ne voient leur activité théorisée qu’au 19ème siècle.
Le dictionnaire de l’Académie française de 1832-1835 définit l’ingénieur comme celui qui "conduit quelques autres ouvrages ou travaux publics, tels que la construction et l’entretien des routes, l’exploitation des mines" et énumère : ingénieur des ponts et chaussées, ingénieur des mines, ingénieur de la marine ou maritime, ingénieur-constructeur de vaisseaux, ingénieur géographe, etc.
Auguste Comte, lui- même polytechnicien, est le premier à traiter théoriquement du statut théorique de l’ingénieur dans le Cours de philosophie positive au début de la leçon 2 (1830). Son approche est toujours d'un grand intérêt:
"Au degré de développement déjà atteint par notre intelligence, ce n'est pas immédiatement que les sciences s'appliquent aux arts, du moins dans les cas les plus parfaits. Il existe entre ces deux ordres d'idées un ordre moyen, qui, encore mal déterminé dans son caractère philosophique, est déjà plus sensible quand on considère la classe sociale qui s'en occupe spécialement. Entre les savants proprement dits et les directeurs effectifs des travaux productifs, il commence à se former de nos jours une classe intermédiaire, celle des ingénieurs, dont la destination spéciale est d'organiser les relations de la théorie et de la pratique. Sans avoir aucunement en vue le progrès des connaissances scientifiques, elle les considère dans leur état présent pour en déduire les applications industrielles dont elles sont susceptibles. Telle est du moins la tendance naturelle des choses, quoiqu'il y ait encore à cet égard beaucoup de confusion. Le corps de doctrine propre à cette classe nouvelle, et qui doit constituer les véritables théories directes des différents arts, pourrait sans doute donner lieu à des considérations philosophiques d'un grand intérêt et d'une importance réelle. Mais un travail qui les embrasserait conjointement avec celles fondées sur les sciences proprement dites, serait aujourd'hui tout à fait prématuré; car ces doctrines intermédiaires entre la théorie pure et la pratique directe ne sont point encore formées; il n'en existe jusqu'ici que quelques éléments imparfaits, relatifs aux sciences et aux arts les plus avancés, et qui permettent seulement de concevoir la nature et la possibilité de semblables travaux pour l'ensemble des opérations humaines. C'est ainsi, pour en citer l'exemple le plus important, qu'on doit envisager la belle conception de Monge, relativement à la géométrie descriptive, qui n'est réellement autre chose qu'une théorie générale des arts de construction. J'aurai soin d'indiquer successivement le petit nombre d'idées analogues déjà formées et d'en faire apprécier l'importance, à mesure que le développement naturel de ce cours les présentera. Mais il est clair que des conceptions jusqu'à présent aussi incomplètes ne doivent point entrer, comme partie essentielle, dans un cours de philosophie positive qui ne doit comprendre, autant que possible, que des doctrines ayant un caractère fixe et nettement déterminé."
Le style de Comte est connu comme difficile mais sa pensée est aussi précise qu'articulée.
Notons d'abord que Comte reconnaît la réalité sociale de l'ingénieur, puisqu'il parle d'une nouvelle classe sociale située entre celle des savants et celle des directeurs de production.
Du point de vue théorique, Comte fait une distinction tripartite entre les sciences théoriques dont le but est la connaissance, les arts (au sens des arts et métiers) dont le but est la production et une science intermédiaire consistant à appliquer les sciences théoriques à la production. C'est cette science intermédiaire qui est la science de l'ingénieur.
Comte dit un peu plus loin que l’on peut comprendre le faible développement de cette science de l’ingénieur du fait que les arts (les productions) mettent en jeu chaque fois plusieurs sciences et qu’en l’attente de l’élaboration de ces sciences au complet, il ne peut encore y avoir de science de l’ingénieur.
Une science de la production agricole (l'agronomie donc) supposerait, par exemple, des connaissances physiologiques, physiques, chimiques et même mathématiques et astronomiques. Pour ce qui est de l'astronomie et des mathématiques, les connaissances sont probablement déjà au point aux yeux de Comte, mais ce n'est pas le cas pour la physiologie, pour la physique et la chimie, par exemple la chimie des sols ou la génétique des plantes. Une science de l'ingénieur agronome est donc à ses yeux prématurée, mais il ne doute pas qu'elle existera un jour puisque son système des sciences est prédéfini, fermé et solidement fondé sur la méthode positive d'étude des faits et de mathématisation.
Dans les limites de sa vision systématique fermée de la connaissance, Comte se fait donc une représentation assez exacte de l’ensemble des connaissances que doit maîtriser l’ingénieur s’il veut pouvoir traiter théoriquement les problèmes de production qu’il rencontre. Et son exemple de l’agriculture apparaît rétrospectivement bien choisi. On imagine qu'à la lumière des développements des sciences de la vie, il aurait été d'accord avec l'approche présentée dans cette série de conférences des sciences de la vie pour l'ingénieur.
L'exemple que Comte prend de la production agricole avait pour l'époque une pertinence particulière. En 1824 avait été créée l'École royale des eaux et forêts (dite École forestière) et en 1826 l'Institution royale agronomique de Grignon. Visiblement il pensait que la décision avait été prématurée et maintenait la primauté de l'X…
Les années 1830-1860 furent de fait les années de l'élaboration progressive et rapide d’une science de l’ingénieur reposant essentiellement sur les mathématiques, la mécanique et bientôt la chimie, sans oublier la géométrie projective et le dessin industriel. Cette élaboration suivit pas à pas le développement des écoles spécialisées.
En 1829, est fondée l'École centrale des arts et manufactures, qui deviendra l'École centrale de Paris, pour former des ingénieurs civils. L'histoire de sa fondation est typique des changements de l'époque et je m'y arrête un peu.
L'initiative provient d'Alphonse Lavallée, juriste, publiciste saint-simonien (Le Globe, presse libérale). Il s'agit de former des hommes aptes à réaliser l’application pratique et concrète des développements scientifiques dans toutes les branches de l’activité productrice en établissant un lien entre la recherche scientifique et le développement des techniques industrielles. Lavallée convertit à son projet le chimiste Jean-Baptiste Dumas, le physicien Eugène Peclet et le mathématicien Theodore Olivier, rencontrés dans une sorte d'Utls de l'époque, l'Athénée centre de conférences sur les sciences et les techniques qui était aussi un lieu de rassemblement de l'opposition libérale au gouvernement. Lavallée préconise une école de 300 à 400 élèves, indépendante de l'État, sur la base de frais de scolarité de 750 francs par an et par élève. L'État ayant le monopole de l'enseignement, il lui faut obtenir une autorisation de l'Université, qui lui est accordée à un moment de plus grand libéralisme politique par un arrêté en date du 23 décembre 1828.
L’Ecole centrale des arts et manufactures, dirigée par Alphonse Lavallée est inaugurées le 3 novembre 1829 dans ce qui est aujourd'hui le musée Picasso, l'ancien hôtel de Salé. Tous les composants du nom ont un sens.
Le terme "centrale" témoigne du projet saint-simonien qui envisageait le développement d’une école de haut niveau dans chacune des villes centrales, c’est-à-dire principales, de province. Les arts et manufactures renvoient aux métiers et à l'organisation industrielle.
La nouvelle école doit former "des ingénieurs civils spéciaux", capables de construire des usines, de restructurer les anciennes, d'être des conseillers éclairés des chefs d'entreprise, "les directeurs d'usine" qui recevront la formation générale nécessaire à l'industriel, "des capitalistes instruits, capables de choisir avec intelligence leurs spéculations...", "des professeurs" qui diffuseront l'enseignement reçu à l'École dans les départements de la France entière "en faveur des contremaitres et chefs ouvriers". Je signale que le roman César Birotteau de Balzac, consacré à la "spéculation" date de 1837 et que César Birotteau essaie de mobiliser la chimie moderne au service de sa production de parfums grâce au chimiste Vauquelin.
Corrélativement se met en place le système éducatif pour préparer à ces écoles.
La loi Guizot de 1833 crée des écoles primaires supérieures, à la sortie desquelles (à l'âge de 16-17 ans) les Écoles d'arts et métiers, l'École supérieure de physique et chimie industrielles de Paris (ESPCI), l'École centrale de Lyon en 1857, l'Institut industriel du Nord en 1872 et les écoles de commerce recruteront durant longtemps leurs élèves.
La formation en amont se normalise, elle aussi. Le baccalauréat est rendu obligatoire pour l'inscription au concours d'entrée de l'X. En 1866, le lycée Saint-Louis crée différentes divisions préparant à l'École polytechnique, l'École normale supérieure (sciences), l'École centrale, l'École forestière et Saint-Cyr, auxquelles est adjointe en 1885 une préparation au concours d'entrée de l'École navale. En 1875, on crée les Classes préparatoires littéraires (classe de rhétorique supérieure) aux grandes écoles.
Les créations d’écoles suivent de près les développements techniques et les besoins de l’industrie.
En 1851, les écoles de formation des ingénieurs de l'État (Mines, Ponts) s’ouvrent aux élèves externes et délivrent des diplômes d'ingénieur civil.
En 1878 est créée l'École supérieure de télégraphie, qui deviendra l'École supérieure des postes & télégraphes, puis l'École nationale supérieure des télécommunications (ENST). En 1881, c’est au tour de l'Ecole des hautes études commerciales (HEC), comme école de commerce "supérieure", sur le modèle de l'École centrale pour les ingénieurs civils qui est créée par la Chambre de commerce de Paris. En 1886, une année préparatoire à HEC est ouverte par la Chambre de commerce de Paris. En 1890, on crée un concours commun d'admission aux écoles d'agronomie. En 1894, c’est la création de l'École supérieure d'électricité.
Bien que ce ne soit pas directement mon sujet, je veux souligner que la mise en place des formations d'ingénieurs est au cœur de la construction du système républicain de sélection méritocratique des élites sur la base des capacités et talents, de ce qu'on appelle communément aujourd'hui le mérite.
La sélection méritocratique a donc un double aspect: une composante d'égalité républicaine qui est le legs de la Révolution française et une composante économique et industrielle qui tient à la nécessité de choisir les plus compétents pour des postes qui demandent connaissance et expertise.
La conséquence inévitable est que l'ensemble de cette organisation va être exposé aux mêmes difficultés et défauts que le système méritocratique républicain. Je ne peux que renvoyer à mon livre Qu'est-ce que le mérite? (Bourin éditeur) sur ce point dont la portée ne doit pas être négligée. Les discussions en cours sur les quotas de boursiers dans les grandes écoles, sur la discrimination positive qu'il serait peut-être nécessaire de mettre en place et, de manière peut-être moins "chaude" mais tout aussi sinon plus importante, les interrogations sur le formatage des jeunes ingénieurs et le besoin d'innover en matière de formation témoignent de l'importance de cette question de la méritocratie française avec ses conséquences aussi bien sociales et politiques que pratiques et techniques.
III Le triomphe de l'ingénieur et l'illusion technocratique
Il y eut un âge d'or de l'ingénieur, qui a duré un peu plus d'un siècle, disons entre les années 1850 et les années 1970.
Cet âge d'or fut celui de la construction des moyens de la logistique moderne (les chemins de fer d'abord, les grands ouvrages d'art, les ponts et chaussées, puis les liaisons maritimes et aériennes). Ce fut aussi celui du développement économique sous le signe de l'industrie lourde d'abord puis de la production industrielle mécanisée des biens de toute sorte, y compris dans l'agriculture et l'élevage. Ce fut aussi celui des grands projets industriels, dans l'aéronautique ou le nucléaire ou l'exploration spatiale. Sans oublier que ce temps du capital, des empires et de l'industrie fut aussi celui des deux guerres mondiales. Les sciences de l'ingénieur ont été et sont toujours au centre de l'industrie militaire. De toute manière construire et détruire sont des industries.
Dans les faits, il y eut un pouvoir des ingénieurs.
Ce pouvoir est un pouvoir sur la production en tant qu'industriels ou en tant qu'ingénieurs de production. C'est un pouvoir sur l'innovation à travers l'innovation industrielle – véhicules, produits, procédés. C'est un pouvoir social à travers l'organisation et la rationalisation du travail. Il deviendra parfois un pouvoir politique: Jean Monnet, constructeur de l'Europe est d'abord un spécialiste de logistique et beaucoup de hauts dirigeants soviétiques, comme Malenkov, Kossyguine ou Brejnev, furent au départ des ingénieurs.
Il est à peine nécessaire de revenir sur le taylorisme, du nom de l'ingénieur Frederick Winslow Taylor (1856-1915) qui développa sa méthode d'organisation scientifique du travail à partir de 1980 en cherchant à définir pour chaque processus de production "the one best way" permettant le rendement maximum. Cette organisation repose à la fois sur l'analyse verticale du processus de production depuis la conception jusqu'à la fabrication et sur l'analyse horizontale des tâches avec étude détaillée et ergonomique des gestes, des rythmes, des cadences et fixation de normes de production. Taylor exposa ses théories en 1911 dans son livre The Principles of Scientific Management. [Je signale que l'esprit du livre de Taylor est assez surprenant et même "actuel": il vise, pour commencer, non pas à fournir une théorie de la meilleure productivité mais du non gaspillage et de l'économie des ressources…Il recommande d'autre part constamment une augmentation de la productivité afin d'augmenter les salaires. Il résume enfin sa doctrine ainsi: organiser le travail par la science et pas arbitrairement, établir l'harmonie et pas la discorde, favoriser la coopération contre l'individualisme, favoriser une production maximale, développer chaque homme jusqu'à sa plus grande efficacité et prospérité.]
Si je reviens sur Taylor, c'est parce que cet idéal de l'organisation scientifique du travail fut très vite au cœur de la logistique militaire de la première guerre mondiale, surtout à partir de l'intervention américaine à l'automne 1917. Elle s'étendit ensuite jusqu'à fournir un modèle d'organisation sociale et économique des sociétés industrielles.
Il y a eu dans les années 1920-1930 toute une littérature, une doctrine et surtout des groupes d'influence pour promouvoir ces idées qui débouchent sur l'utopie du Meilleur des mondes de Huxley en 1932…, sur la mécanisation des populations dans les régimes totalitaires fasciste et soviétique, et finalement sur le rêve d'un gouvernement des managers.
Ainsi le philosophe Bertrand Russell prédit dans The Scientific Outlook of the World publié en 1931, l'avènement d'une société technoscientifique qui utilise les meilleures techniques scientifiques de production, d'éducation et de propagande avec une organisation planifiée de ses buts. Russell estime que cette organisation planifiée n'en est, au moment où il écrit, qu'à ses débuts. En 1931, elle n'est illustrée que par le Japon du Meiji et l'Urss. Russell célèbre la caractéristique principale de l'URSS, à savoir la direction unitaire des activités de toute une nation. Il voit l'avenir dans la création de deux classes d'hommes, l'une d'exécutants inférieurs, l'autres de savants et chercheurs destinés au gouvernement scientifique du monde Le chapitre 13 sur l'individu et le tout décrit en détail, froidement et de manière plutôt positive la disparition de toutes les valeurs de l'homme démocratique du XIXe siècle, non seulement la liberté sous tous ses aspects (choix de la profession, de la reproduction) mais aussi de l'égalité : ce ne sont que des rêves du XIXe siècle.
Dans ces mêmes années 1930, un philosophe français, qui allait devenir successivement le père de la sociologie française du travail, puis de l'idée de société du loisir et enfin inventer les études de communication, Georges Friedman, ramenait d'un séjour en URSS un livre étrange Problèmes du machinisme en URSS et dans les pays capitalistes (Paris, éditions sociales internationales 1934).
Dans ce livre, il fait l'éloge de la polyspécialisation soviétique et d'une conception de l’orientation professionnelle tenant compte à la fois du profil de l’individu et des besoins de l’économie, dans une perspective de fluidification grandissante des emplois grâce au développement de la technique, en insistant sur l’unification du peuple dans la culture technique (“la profession qui chez nous divise, est en URSS un puissant auxiliaire d’unité humaine” p. 42). La prédestination sociale par le métier serait ainsi remplacée par la fluidité de la polyspécialisation (p. 47). Il faut le taylorisme sans “la cruauté raffinée de l’exploitation bourgeoise” (p. 54 à travers une citation de Lénine en 1921).
D'innombrables autres publications de l'époque allaient dans le même sens. Ainsi J. Lafitte avec ses réflexions sur la science des machines en 1932 et la même année G. Lamirand sur Le rôle social de l'ingénieur. Dans la même décennie 1930, se forme le groupe X-crise, fondé par Gérard Bardet et André Loizillon, qui recommande la planification, contre le libéralisme. Certains membres, comme Raymond Abellio ou Jean Coutrot (lié à la synarchie) seront tentés de collaborer avec le pétainisme pour la tâche de reconstruction de la France, mais la plupart comme Louis Vallon, Jules Moch, Alfred Sauvy choisiront la résistance et entreront dans l'administration de l'après-seconde guerre mondiale.
En fait l'idée d'un gouvernement des ingénieurs, d'inspiration saint-simonienne, cadre mal avec un monde complexe, surtout humainement complexe. Si l'on se refuse à mécaniser les hommes et à employer des moyens autoritaires, il faut élargir la notion et envisager un gouvernement des experts et des managers occupant des postes clefs à la mesure de leur compétence dans un régime démocratique. C'est précisément l'idée de l'inventeur du terme "technocracy", l'américain William Henry Smyth, un ingénieur californien qui définit la technocratie en 1919 comme le gouvernement du peuple rendu efficace à travers l'action de ses serviteurs, les savants et les ingénieurs. Smyth avait à vrai dire en tête la démocratie industrielle, l'organisation du travail au service des travailleurs mais le terme en vint rapidement à s'étendre à une conception technique de la politique.
La notion aura une fortune ultérieure considérable après le livre de James Burnham (1905-1987), sur la révolution managériale de 1941, qui sera lu en Europe au moment du plan Marshall et de la reconstruction largement planifiée de l'après-guerre. 
Burnham, ancien militant communiste trotskyste, développait l’idée de la bureaucratisation inévitable des sociétés modernes aux mains des managers, ceux qui gouvernent la production. Une "révolution managériale" était, pour lui, en cours de réalisation : le développement des sciences et de la technique doit conduire à l'émergence d'une nouvelle classe sociale intermédiaire entre prolétaires et bourgeois, les "techniciens », qui imposeront peu à peu leur pouvoir dans les rapports de production. Ces "organisateurs" "placés à la tête de ces grandes unités de pouvoir que sont la grande industrie, l’appareil gouvernemental, les organisations syndicales, les forces armées, constitueront la classe dirigeante", indépendamment des types de régimes politiques et économiques de l'époque.
Les analyses de Burnham reçurent une élaboration plus subtile dans l'idée de technostructure de J.K. Galbraith (Le nouvel Etat industriel en 1961), dans l'idée de société postindustrielle de Raymond Aron. D'autres penseurs s'en servirent de manière critique, comme Charles Wright Mills dans sa dénonciation de l'élite de pouvoir de 1956, ou Milovan Djilas et les penseurs qui allaient s'en prendre à la nouvelle classe des techniciens soviétiques et à la Nomenklatura.
Elles ont en effet aussi cet intérêt qu'elles permettent d'analyser la manière dont experts, hauts fonctionnaires, grands industriels, en viennent à former une nouvelle caste. Dans le cas de la France à travers le système en partie cadenassé des grandes écoles et des grands corps (voir mon blog).
IV. Perspectives et défis contemporains
Beaucoup de choses ont changé depuis trente ans.
Les sciences n’ont plus grand-chose en commun avec celles de la liste encyclopédique et systématique du 19ème siècle.
Des branches d'activité qui paraissaient à peu près éternelles aux hommes du 19ème siècle persuadés qu'ils étaient d’arriver au bout de la connaissance et du développement ont changé du tout au tout: pensons aux transports ("ponts et chaussées"), à l'exploitation des matières premières ("mines"), à la construction.
D'autres se sont rajoutées: les sciences agronomiques, les biotechnologies, les sciences des systèmes complexes.
Au lieu de sciences fondamentales qui commandent des applications dérivées on trouve partout la technoscience dont il a été question, où se mêlent inextricablement technologies et théorie au sein d'appareillages indispensables, avec une intrication forte de la recherche et de l'ingénierie. Alphonse Lavallée, le fondateur de l'Ecole centrale, dont j'ai déjà parlé, n'en aurait pas été surpris lui qui voulut d'entrée de jeu associer recherche et études d'ingénieur.
Auguste Comte avait très bien vu les risques inévitables de la spécialisation et de la diversification des disciplines. Il attendait du philosophe positif qui suivrait son programme qu'il soit ce spécialiste de la généralité qui ressaisit le point de vue général sur l'ensemble.
Sauf que ce n'est pas seulement le point de vue général, devenu intotalisable, qui pose problème. Il y a plus encore les difficultés liées au fait que la plupart des recherches importantes se font aujourd'hui à l'interface des disciplines traditionnelles et requièrent plus qu'une interdisciplinarité une transdisciplinarité. Les disciplines doivent s'effacer devant des objets redevenus concrets et complexes.
Tout ceci explique les difficultés à définir la profession d’ingénieur, lorsque, par exemple, la commission du titre d’ingénieur fait part en 1999, il y a dix ans, de sa perplexité face à des demandes d’habilitation portant sur des spécialités ne relevant pas des domaines traditionnels de l’ingénieur – urbanisme et aménagement paysager, biologie appliquée, génie biologique et médical, design et ergonomie, logistique et transport, génie industriel dans des acceptions fort diverses…
Les productions, systèmes, processus sont devenus incroyablement divers et complexes.
Ils sont souvent aussi gigantesques.
Ils sont mutualisés et globalisés, ce qui veut dire qu'ils requièrent l'intervention de personnes nombreuses, dispersées sur plusieurs sites, souvent de formation et de culture différentes, entre lesquelles la communication est beaucoup plus problématique qu'elle l'était au sein de groupes restreints et assez homogènes.
Du côté des sociétés humaines aussi les choses ont terriblement changé.
Je ne vais pas me lancer dans un inventaire des changements sociaux contemporains, un inventaire qui serait forcément incomplet ou prendrait vite des allures de bazar. Je veux juste pointer quelques changements sociaux qui affectent les ingénieurs, leur profession et leur formation par leurs conséquences.
1°) Nous sommes habitués à un très haut niveau de progrès et de confort technique. Compte tenu de l'offre immense et constamment renouvelée pour des raisons économiques d'objets techniques perfectionnés, nous ne sommes pas étonnés par la puissance technique. Nous la trouvons en fait normale et nous sommes exigeants comme si le confort et la performance technique devaient être garantis. Il y a donc une perte de curiosité et d'admiration pour l'ingénieur, l'ingénierie et ses réussites. Les attentes sont fortes au point d'être excessives. L'idée que ça casse, que ça ne marche pas, que ça puisse ne pas tourner rond nous rend nerveux. Voir les mésaventures récentes de l'Eurostar et l'intervention…du Président de la République, rien de moins.
2°) En même temps nous avons peur de tout, probablement parce que nous avons de plus en plus de contrôle sur tout. La moindre chose imprévue ou accidentelle déclenche la panique. Les périls obscurs nous inquiètent et sont exploités par les lobbies, par exemple les périls des nanotechnologies ou ceux induits par la traçabilité informatique. Du coup on met en place un peu partout des variantes du principe de précaution pour parer aux périls prévisibles ou moins prévisibles, voire à l'imprévisible, ce qui est un comble. Il y a de ce point de vue une peur latente et bizarre de la technologie et de la science, qui ne va néanmoins pas jusqu'à la technophobie parce qu'il y a toujours en arrière-fond le désir d'une contribution au bien-être le plus immédiat. [Je n'ai guère vu de conférences à l'Utls, fût-ce sur les sujets les plus abscons, qui ne se terminât pas sur un espoir d'amélioration de la santé…]
3°) La facilité de la vie a engendré une sorte d'hédonisme de l'instantané: il faut que ça marche vite et que la satisfaction ne soit pas différée. Ce que j'appelle l'hédonisme de la télécommande et du click. Ce qui ne favorise pas les entreprises difficiles ni les projets à long terme. Demander à un jeune ingénieur de s'engager dans un projet spatial à dix ans, Valérie Cazes l'a dit ici, lui paraît lunaire.
4°) Enfin, l'appât du gain, le désir de richesse, la convoitise sont devenus le moteur de la plupart des comportements ou des comportements de la plupart. D'où le succès des carrières financières. Il y eut le temps des ingénieurs, puis celui des commerciaux et maintenant celui des financiers. Il faut que ça paie.
Or dans le même temps, les besoins en ingénieurs et spécialistes techniques de haut niveau ont explosé. La conférence de M. Claude Maury a donné là-dessus toutes les informations indispensables dans sa remarquable conférence qui fera date.
En 2005 le stock mondial d'ingénieur était de 25 millions. Les flux ont été multipliés par 30 entre 1920 et 1990. Entre 2000 et 2010 on est passé de 1,3 million de diplômés à 1,6, soit une progression de plus de 20 %.
Les projets technoscientifiques sont gigantesques, leur nombre est élevé et la demande autour du globe est immense. Je ne prendrai qu’un exemple : l’explosion des villes chinoises et de la construction urbaine qui tend non seulement la demande sur les matières premières et la main d’œuvre, mais aussi sur les besoins en architectes, assistants d’architectes, programmeurs, ingénieurs de construction, ingénieurs en logistique, etc., etc. On pourrait dire la même chose des plateformes pétrolières, des moyens de transport rapides, des recherches sur les virus. En fait, tous les secteurs sont concernés, depuis les plus complexes (spatial, nucléaire) ou vitaux (santé) jusqu’aux plus futiles apparemment (le packaging, l’industrie du luxe).
Cela crée une demande extrêmement forte en scientifiques, ingénieurs et techniciens de haut niveau qui sont partout ou presque dans la recherche et développement et aussi sur le terrain.
Ce succès implique malheureusement une relative perte de prestige par banalisation du métier. D'où le succès du modèle allemand de formation des écoles et universités techniques. La perte de prestige a aussi avoir avec l'importance de l'assistance logicielle développée hors sites à distance. La nécessité de mettre sur pied sur place des solutions complexes originales demeure mais elle est réduite et le recours à l'assistance des bureaux externalisés se développe. Ce qui réduit évidemment la demande d'expertise de haut niveau sur le terrain traitée dans les bureaux d'études, de vérification et dans les sociétés d'ingénierie.
Je n'entrerai dans la discussion du modèle français dont la conférence de Claude Maury a montré à la fois la rigidité et la singularité (la fameuse "exception française") et, en réalité, la grande adaptabilité et l'évolution bien avancée. Claude Maury l'a dit: d'ores et déjà un quart des diplômes décernés en France le sont par les universités et la moitié des diplômés ne sont pas passés par les classes préparatoires et les concours. Comme toujours en France, nous concentrons les discussions sur des épouvantails bien visibles et bien spectaculaires mais en réalité nous ajustons les choses empiriquement et, j'ajoute, pas si mal que ça.
Je vais conclure par quelques remarques peut-être trop générales mais qui correspondent à l'ampleur du sujet retenu.

1°) Il reste et restera un noyau dur, qui fait d’ailleurs la force de la formation des ingénieurs français, une solide culture scientifique, mathématique et physique, et l’on en revient toujours à la base : l’analyse et la résolution de problèmes techniques à partir d’instruments scientifiques. Je ne vois pas se dessiner pour demain une ingénierie douce et sans peine. 
2°) L'ingénieur aura affaire:
- à des réalisations pratiques de terrain où les techniciens demeurent indispensables et en grand nombre mais pas forcément au niveau de "l'ingénieur" au sens français
- à des projets complexes mobilisant l'intelligence collective (notion à problématiser) d'équipes spécialisées et de spécialistes de la complexité et de l'ingénierie des systèmes
- à des travaux de recherche et développement liés à l'innovation industrielle aussi bien à court terme (sur le modèle des PME allemandes) qu'à moyen termes en fonction, cette fois, de la demande sociale et des promesses du marché (biotechnologies, communication, énergie, transports, sécurité, traçabilité).
3°) Les formations devront répondre à ces besoins en étant diverses et en intégrant des composantes nouvelles (complexité, intelligence collective, sciences humaines). L'idée d'une formation unique de "l'ingénieur" sera donc de plus en plus illusoire (mais elle l'est déjà). Corrélativement les recrutements devront se diversifier afin de trouver le les ressources humaines diverses indispensables, y compris en termes de modes de pensée et de modes d'approche des problèmes, comme l'a bien montré Manuel Gea.
Tout ceci pose des problèmes considérables en termes d'éducation.
Il y a les besoins démographiques en spécialistes dans un contexte de globalisation des ressources et de la concurrence, et il y a aussi les défis de l’éducation contemporaine.
On peut chercher à élargir le recrutement des spécialistes mais encore faut-il qu'il y ait des vocations. Ce n'est pas une perspective très encourageante compte tenu de l'appât du gain et de la difficulté des études…
Une autre solution consiste évidemment à aller chercher ailleurs. La globalisation ne vaut pas que pour les énergies, les matières premières, les produits finis, la pollution et les déchets – mais aussi pour les ressources humaines. Les USA pompent généreusement parmi les élites venues d’un peu partout, les Allemands et les Français parmi les scientifiques des ex-pays de l’Est. Ceci donne lieu à des migrations technoscientifiques : 15% des jeunes diplômés ingénieurs français ont leur premier poste à l’étranger. Ces migrations sont réversibles : il est rare que les chercheurs scientifiques français restent aux USA. Il y a en ce moment un mouvement de retour de scientifiques chinois vers leur patrie. On peut penser qu’un mouvement de cette sorte se produira produire pour les élites africaines avec une croissance africaine annuelle à 6%.
Une autre solution consiste à délocaliser. Aujourd’hui, les transferts ne se limitent plus aux transferts de production vers des pays à niveau de vie moins élevés. Ils touchent aussi les transferts technologiques et ceux de recherche. On a assisté dans un premier temps aux délocalisations en Inde d’activités informatiques de service. Maintenant ce sont des activités d'ingénierie et de recherche qui sont transférées – mais les différences culturelles ne rendent rien facile.
De toute manière, se pose forcément le problème d’une éducation de haut niveau de masse. Nous avons encore une éducation conçue pour des nombres relativement petits et hantée par l’élitisme. Il nous faut donc maintenant concilier élitisme et productivité en quelque sorte. Quadrature du cercle ou défi pour de nouveaux modes de recrutement, d’enseignement et de validation des connaissances ?
Cela demande aussi un souci nouveau de la visibilité. L’élitisme allait de pair avec le renfermement sur soi : on n’avait pas besoin de faire savoir qu’on était les meilleurs. L’épisode du classement désastreux des universités et écoles françaises par l’université chinoise Jiao Tong de Shanghaï est un bon indice des limites de cette vision des choses. 
En fait, une des questions cruciales de nos sociétés développées est celle de la formation et de la transmission : comment éduquer ? Comment former ? Comment sélectionner ? Comment orienter ou gérer les désirs d’orientation des individus ? Comment continuer à éduquer aussi dans un monde où la vie s’allonge, la durée de vie professionnelle doit s’allonger (retraite), où les connaissances évoluent rapidement en qualité et en quantité ?
Ces questions ne paraissent pas tellement graves tant qu’elles demeurent sous forme générale. Mais ici encore les conditions concrètes dans lesquelles elles se posent ont changé.
- le volume des choses à transmettre est énorme et défie les capacités d’apprentissage ; il est difficile de hiérarchiser les connaissances ;
- les spécialisations sont inévitables et elles font perdre de vue les enjeux généraux et la vision globale ;
- la pluralité des points de vue est considérable et avec souvent des bons arguments de part et d’autre. Ex. OGM, réchauffement climatique, nucléaire, dépistages génétiques ;
- la sélection, la formation et l'évaluation doivent être de masse et donc standardisées et normalisées. Ex Le LMD, les équivalences pour les étudiants mobiles, les miracles attendus des TIC, mais la validité des procédures pour des grands nombres est problématique, etc.
- les conditions psychologiques d’enseignement ont changé : le renouvellement rapide des informations favorise le décrochage d’attention et le zapping, les capacités d’attention sont diminuées ou rendues fluides, les techniques de base sont oubliées (calcul mental, googlisation, recherches rapides sur Internet).
Il n’y a rien de catastrophiste dans cette description, seulement la prise de conscience des paramètres d’une situation nouvelle. Je n'ai pas de solution miracle à proposer mais c'est avoir déjà fait un pas que de décrire la situation et ses contraintes.
En tout cas, et ce seront mes derniers mots, il n'y aura pas de solution si l'on ne poursuit pas sans relâche la tâche de réintroduction des sciences et des techniques dans la culture au sens large et au sens noble. Ce fut la mission que s'assigna dans les années 1760 l'Encyclopédie de Diderot et d'Alembert. C'est celle que nous nous sommes assignés aussi à l'Utls. Il faut continuer et ce cycle de conférences s'est efforcé d'y contribuer.
Yves Michaud le 19 janvier 2010.


 VIDEO       CANAL  U         LIEN


 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 

 

 
 
 
 

Bientôt

 

Bientôt vous retrouverez de nouveaux articles !

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 ] Précédente -
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google