ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Les ondes lectromagntiques dans le domaine de la communication

 



 

 

 

 

 

Les ondes électromagnétiques dans le domaine de la communication

Publié le 31 mai 2018

Qu’est-ce qu’une onde électromagnétique ? Quelles sont les ondes qui nous permettent de communiquer quasi instantanément d’un bout à l’autre du monde ? En quoi les ondes radio jouent-elles un rôle fondamental dans les télécommunications ? Comment fonctionne un système mobile sans fil ? Quelles sont les différentes générations de réseaux mobiles ? Quels sont les enjeux et promesses de la 5G ? L’essentiel sur… les ondes électromagnétiques utilisées dans le domaine de la communication.
QU’EST-CE QU’UNE ONDE ÉLECTROMAGNÉTIQUE ?
Une onde électromagnétique est une catégorie d’ondes qui peut se déplacer dans un milieu de propagation comme le vide ou l’air, avec une vitesse avoisinant celle de la lumière, soit près de 300 000 kilomètres par seconde. Ces ondes sont par exemple produites par des charges électriques en mouvement. Elles correspondent aux oscillations couplées d’un champ électrique et d’un champ magnétique, dont les amplitudes varient de façon sinusoïdale au cours du temps.


Les ondes électromagnétiques transportent de l’énergie mais elles sont aussi capables de transporter de l’information. C’est pourquoi elles sont utilisées dans le domaine de la communication.
Concrètement, les ondes électromagnétiques servent à faire fonctionner les smartphones, les postes de radio, ou encore sont utilisées pour faire des radiographies du corps humain.  De même, la lumière visible est une onde électromagnétique ; elle nous permet de voir les couleurs.
Ces différentes ondes électromagnétiques se différencient et sont caractérisées par leur fréquence, c’est-à-dire le nombre d’oscillations en une seconde. La fréquence est exprimée en Hertz. Une autre caractéristique des ondes électromagnétiques est la longueur d’onde, c’est-à-dire la distance qui sépare deux oscillations de l'onde. Elle est inversement proportionnelle à la fréquence.
Les ondes électromagnétiques sont classées en fonction de leur fréquence dans ce que l’on appelle le « spectre électromagnétique ».


Dans l’ordre des longueurs d’ondes croissantes, on trouve :

Longueur d’onde (mètre)    Fréquence (Hertz)    Catégorie d'onde électromagnétique
< 10 picomètres (ie 1 000 milliards de fois plus petit qu’un mètre)    30 x 1018 Hz    Les rayons gamma, produits par des transitions nucléaires
10 picomètres – 10 nanomètres (ie 1 000 millions de fois plus petit qu’un mètre)    30 x 1018 – 30x1015 Hz    Les rayons X, qui permettent de faire des radiographies  du corps humain
10 nanomètres – 400 nanomètres    30x1015 - 750x1012 Hz    Les rayons ultra-violet (UV), qui proviennent majoritairement du Soleil et sont responsables par exemple du bronzage ou des coups de soleil.
400 – 800 nanomètres    750x1012 – 375x1012 Hz    La lumière visible avec toutes les couleurs de l’arc-en-ciel.
800 nanomètres – 0,1 millimètre    375x1012 – 3x1012 Hz    Les rayons infrarouges, qui captent la chaleur des objets, de l’environnement.
1 millimètre - 30 kilomètres    300x109Hz - 10Hz    Les ondes radio, responsables des moyens de télécommunications qu’on connaît aujourd’hui : les radars et satellites, le réseau Wi-Fi, le téléphone portable, la télévision hertzienne et la radio.


L’HISTOIRE DES SYSTÈMES ET RÉSEAUX
DE TÉLÉCOMMUNICATION
L’histoire des télécommunications commence en 1794, quand Claude Chappe met au point le télégraphe optique. Deux tours d’observations éloignées de plusieurs dizaines de kilomètres s’échangent des messages codés par les différentes positions d’un bras articulé placé en haut de la tour.
Il faudra attendre la fin du 19e siècle et la découverte de l’existence des ondes électromagnétiques par le physicien allemand Heinrich Hertz pour que se développe la transmission d’informations sans fil.
Depuis vingt ans, nous sommes entrés dans un monde où tout devient sans fil. Après la radio et la télévision, le téléphone a d’abord lâché son fil à la maison pour devenir mobile, nos ordinateurs communiquent aujourd’hui via le wi-fi. Début 2018, le monde compte plus de 4 milliards d’utilisateurs d’Internet et plusieurs millions de mails sont envoyés chaque seconde. Et ce n’est pas fini ! L’Internet des Objets se développe, et part à l’assaut de nouveaux secteurs comme la domotique, la santé connectée, l’usine du futur et les véhicules autonomes.
Le réseau 5G qui devrait être disponible en France vers 2020 connectera toujours plus d’objets sans fil, avec un meilleur débit et plus de rapidité. A la clé : une plus grande fiabilité de transmission.

Vidéo
L'histoire des systèmes et réseaux de télécommunications
SD    <div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     



LE PRINCIPE DE FONCTIONNEMENT
DE LA RADIO
Les ondes radio, qui servent à transmettre des informations, ont des fréquences comprises entre quelques kilos Hertz et 300 giga Hertz, c’est-à-dire 300 milliards d’oscillations par seconde.

Parmi les ondes qui passent par les postes de radio, on trouve :

*         La radio AM avec une fréquence de 106Hz et une portée de plusieurs centaines de kilomètres, autrefois très utilisée.
*         La radio FM avec une fréquence de 108Hz et une portée de quelques dizaines de kilomètres. La radio FM est la plus écoutée aujourd’hui.

Les antennes permettent de rayonner les ondes radio se propageant dans l’air. Pour diffuser une émission de radio par exemple, la voix de l'animateur est transformée en signal électrique par le micro. Ce signal électrique oscille au même rythme que la voix, on dit qu'ils ont la même fréquence. Cependant, cette fréquence est beaucoup trop basse pour que le signal soit transmis sous forme d'onde électromagnétique. Il est donc nécessaire de fabriquer un signal électrique alternatif à très haute fréquence transmis à l’antenne pour qu'elle émette d'abord une onde porteuse. Pour transporter la voix par exemple, il faut alors mélanger notre signal électrique de basse fréquence, celui qui correspond à la voix de l’animateur, au signal électrique de haute fréquence.

Il existe par exemple deux façons de faire :

*         Pour la radio AM, on change l’amplitude, c’est à dire la hauteur des oscillations du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en amplitude.
*        
*         Pour la radio FM, on change la fréquence, c’est à dire le nombre d’oscillations par secondes du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en fréquence. La modulation en fréquence est beaucoup plus fiable ; il y aura moins de grésillements qu'avec la modulation d'amplitude.

Dans les deux cas, l’antenne émet une onde électromagnétique modulée qui se propage jusqu'à une antenne réceptrice, comme celle intégrée dans les postes de radio. Ensuite, elle fait le travail inverse de l'antenne émettrice : elle transforme l'onde électromagnétique en signal électrique, ce dernier est démodulé, soit en amplitude soit en fréquence, puis amplifié et transformé en son par les enceintes.
Vidéo
Qu'est-ce qu'une onde électromagnétique ?
SD    <div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     


COMMENT FONCTIONNE UN SYSTÈME MOBILE SANS FIL ?

Pour que nos fichiers ou SMS puissent parvenir jusqu’à leur destinataire, l’information à envoyer est d’abord codée en langage binaire (combinaisons de zéro et un) puis présentée en entrée de la carte électronique de l’émetteur du système de communication sans fil, par exemple un téléphone.

Ensuite, le signal numérique correspondant au message binaire est transformé en signal analogique à haute fréquence (fréquences radio). Ce dernier est envoyé à une antenne, qui se met alors à rayonner une onde électromagnétique se propageant dans l’air pour atteindre l’antenne relais la plus proche. L'onde est ensuite encore transformée en signal électrique, pour être transmise via des câbles ou des fibres optiques sur de très grandes distances, jusqu’à enfin atteindre l’antenne relais la plus proche du destinataire. Le processus de réception est le même que celui d’envoi, en inversé. La carte électronique du système de communication du récepteur décode le langage binaire pour afficher le SMS, l’image ou bien la vidéo.




LES DIFFÉRENTES GÉNÉRATIONS
DE RÉSEAUX MOBILES
De la 2G à la 5G
La fin des années 1990 sonne le début de l’ère des téléphones portables, le réseau dit « 2G » (ou GSM) est lancé. Il permet de transmettre la voix mais aussi des données numériques comme les SMS ou des messages multimédias, avec du contenu léger (MMS). Les réseaux GPRS et EDGE offrent un accès à Internet mais avec un débit très bas.

La 3G se commercialise au début des années 2000. Le débit est alors plus rapide que pour la 2G et les téléphones peuvent alors accéder à Internet beaucoup plus rapidement, même en mouvement.


En 2012, la 4G fait son arrivée en France, le débit maximal est multiplié par 100, ce qui permet le développement des objets connectés et des réseaux sociaux.

Le réseau 5G est prévu pour être disponible vers 2020. Il constituera une véritable rupture technologique, présentant de nombreuses innovations.
Il aura un débit 50 fois plus important que la 4G et le temps
d’acheminement des données sera beaucoup plus court qu’actuellement (jusqu’à 1ms, contre 10ms). La 5G pourra occuper des bandes de fréquence entre 800MHz et 56GHz. Les fréquences les plus hautes appartiennent au domaine des ondes millimétriques (allant de 30 à 300 GHz).
A ces fréquences-ci, l’atténuation des ondes avec la distance parcourue est plus importante mais les antennes sont plus petites que celles utilisées pour la 4G. Dans un même espace, il sera donc possible d'en associer beaucoup plus pour augmenter la puissance reçue (ou émise) dans certaines directions et ainsi, suivre plusieurs utilisateurs mobiles tout en limitant les interférences.

Le développement d’applications telles que les voitures autonomes ou les objets connectés devrait être facilité par la 5G.

 

 DOCUMENT     cea         LIEN

 
 
 
 

LA MICROLECTRONIQUE L'histoire de la microlectronique

 

 

 

 

 

 

 

LA MICROÉLECTRONIQUE
L'histoire de la microélectronique


En un siècle, la miniaturisation a permis le passage du tube à vide au transistor sur matériau solide d'un micromètre carré. Parallèlement, le passage du signal analogique (à variation continue) au signal numérique (codé en une succession de 0 et de 1) a facilité le développement de circuits électroniques aux fonctions de plus en plus performantes.

Publié le 18 octobre 2018
 
NAISSANCE DES COMPOSANTS
De la résistance au transistor, du circuit intégré simple au microprocesseur complexe en passant par les convertisseurs ou les diodes électroluminescentes… les composants de la microélectronique sont nombreux et remplissent des fonctions variées.

De la diode à la triode
En 1904, John Alexandre Fleming, ingénieur anglais, invente la diode, un dispositif sous vide comprenant un filament émetteur d’électrons et une plaque, collectrice d’électrons lorsqu’elle est polarisée positivement. Ce dispositif laisse passer le courant électrique dans un seul sens et le bloque dans l’autre. Il suffit de faire varier la tension (positive ou négative) de la plaque pour permettre ou interrompre le passage du courant.

Ce premier dispositif est utilisé dans les postes de radio. Il existe de nombreuses variétés de diodes, selon les propriétés des matériaux utilisés. Les diodes électroluminescentes (Leds) sont désormais largement utilisées pour produire de la lumière en consommant très peu d’énergie.

En 1907, Lee de Forest, chercheur américain, améliore le principe en inventant la triode dans laquelle une grille est ajoutée entre le filament et la plaque. C’est le premier système amplificateur d'un signal électronique. Elle se compose d’une cathode  semi-conductrice à chaud, émettrice d’électrons, d’une anode  réceptrice, et d’une grille positionnée entre les deux. Celle-ci joue le rôle de « modulateur d’électrons » : selon sa polarisation, elle les bloque ou accélère leur passage (amplification du courant).

Dans les années 40, les triodes et autres tubes à vide sont utilisés dans les tout premiers ordinateurs. Plus les calculs à effectuer sont complexes, plus le besoin de tubes à vide est grand. Or, ceux-ci sont volumineux, chauffent beaucoup et « claquent » facilement. Ce manque de fiabilité freine le développement de l'informatique.

L'ère du transistor

En 1948, John Bardeen, Walter Brattain et William Shockley, trois physiciens américains, inventent le transistor bipolaire et ouvrent ainsi l'ère de la microélectronique. Il comprend un émetteur d'électrons, un collecteur et un dispositif de modulation appelé base. Le déplacement des électrons ne s'effectue plus dans le vide mais dans un matériau solide, semi-conducteur, qui permet de contrôler le courant électrique (l'interrompre, l'amplifier ou le moduler). Ce transistor a supplanté rapidement le tube électronique : démarrant quasi instantanément, sans temps de chauffe, beaucoup plus petit et léger. Les transistors sont réalisés directement à la surface du silicium, leurs connexions sont fabriquées par dépôt de couches métalliques. Ils ont pu être fabriqués industriellement dès les années 50. Rapidement, leur taille va passer de celle d'un dé à celle d'un grain de sel !

Circuit imprimé et circuit intégré
Un circuit est un assemblage de composants. Il est appelé « circuit imprimé » lorsqu'il est fabriqué par dépôts de matériaux conducteurs sur des matériaux isolants (exemple : du cuivre  sur l'époxy) comme dans le cas de la carte mère des ordinateurs. Il est appelé « circuit intégré » lorsqu'il rassemble, plusieurs composants permettant de réaliser différentes fonctions. Dans les années 70, une technologie est développée permettant de réaliser des transistors qui consomment moins et de faciliter l'intégration de composants passifs (résistances, capacités) sortant des circuits intégrés. La taille des circuits augmente régulièrement ainsi que celle des plaques de silicium, qui passent de 200 à 300 mm de diamètre. Dans le même temps, la taille des transistors diminue.
Ils peuvent être gravés dans du silicium massif ou sur une couche mince de quelques centaines de nanomètres déposée sur un isolant ; le SOI (silicium sur isolant) permet de réaliser des circuits plus rapides et moins gourmands en énergie.

Le tout sur une puce
Cette petite pastille de silicium supporte un circuit intégré. L'accroissement exponentiel du nombre de transistors par puce, aussi appelé « loi de Moore », a entraîné une nouvelle révolution industrielle, en liaison avec le développement des logiciels et des communications.  Début des années 2000, un microprocesseur (le circuit intégré le plus complexe) est une puce en silicium d'environ 2,5 cm de côté. Il peut comporter plusieurs centaines de millions de composants. Il est enfermé dans un boîtier protecteur muni de « pattes » (d'où le nom de « puce ») pour assurer les connexions avec les autres organes de l'appareil dans lequel il s'insère.

DES COMPOSANTS À MATURITÉ
L'omniprésence des CMOS et du FDSOI
Les premiers dispositifs MOS (Metal Oxide Semiconductor) apparaissent dans les années 60. Aujourd'hui, le transistor MOS constitue, grâce à sa simplicité de fabrication et à ses dimensions réduites, l'élément fondamental des circuits intégrés numériques.
Le développement des composants CMOS (Complementary Metal Oxide Semiconductor) industriels a été rendu possible par les progrès enregistrés dans le domaine des transistors bipolaires, en particulier la résolution des problèmes d'interface oxyde-semiconducteur. Sur un substrat de silicium faiblement dopé , un circuit CMOS est constitué de transistors nMOS et pMOS, placés de manière symétrique et interconnectés par des fils métalliques. Chaque transistor MOS ayant la même fonction, l'un est passant tandis que l'autre est bloquant, ils sont complémentaires.  

COMMENT FONCTIONNE UN TRANSISTOR MOS ?
Un transistor MOS comprend une source et un drain, entre lesquels les électrons peuvent circuler via un canal de conduction. Ce canal fonctionne comme un interrupteur, en fonction de la charge électrique de la grille. Selon la polarité de cette grille, le canal de conduction est ouvert ou fermé. La performance du transistor dépend principalement de la taille de la grille : plus celle-ci est petite, moins les électrons ont de chemin à parcourir dans le canal, plus le système est rapide.


Dans la technologie FDSOI (Fully Depleted - Silicium On Insulator ou Transistor entièrement deplété sur silicium sur isolant), une très fine tranche de silicium est collée sur une fine couche d'oxyde de silicium isolant. Le substrat de silicium ne nécessite plus d'être dopé. Les performances du transistor sont augmentées en appliquant une tension sur sa face arrière. La combinaison de cette tension et de la couche d'isolant agit alors comme une seconde grille.


En fonction des tensions relatives appliquées sur les faces avant et arrière du transistor, ses propriétés peuvent être modifiées et améliorées : il est soit très peu gourmand en énergie (30 à 40 % moins énergivore), soit très rapide (25 % plus rapide). Le FDSOI équipe déjà des téléphones et des montres intelligentes et s'annonce incontournable pour l'électronique mobile, la voiture autonome ou encore l'Internet des objets. Le CEA-Leti développe aujourd'hui encore de nouveaux substrats et composants FDSOI. Il étudie également des structures de transistors originales comme le transistor SET (Single Electron Transistor) ou les transistors à nanofils de semi-conducteurs.


ZOOM SUR LA LOI DE MOORE
Des composants de plus en plus petits, de moins en moins chers.

Durant les années 70, Gordon Moore, un des cofondateurs de la société Intel et inventeur du premier microprocesseur (Intel 4004, en 1971), prédit le doublement de la densité des puces électroniques tous les deux ans. Depuis cette époque, chercheurs et industriels de la microélectronique suivent donc scrupuleusement une « feuille de route » qui établit avec précision des objectifs de réduction de taille des transistors. Les progrès constants qu'ils ont réalisés, associés à une production massive, ont permis de réduire radicalement les coûts des composants microélectroniques et donc de tous les produits qui y ont recours : ordinateurs, smartphones, téléviseurs, caméras, appareils photos... Cette loi, qui prévoyait une miniaturisation continue, touche néanmoins à sa fin et laisse place au « More than Moore », une approche axée sur les fonctions (par exemple électro-optiques ou électromécaniques), et au « beyond CMOS » qui explore les propriétés de nouveaux matériaux, de nouvelles structures de transistors, d'architectures de circuits, ou de modes de fabrication.

 

 DOCUMENT     cea         LIEN

 

 
 
 
 

Les ondes gravitationnelles vues de l'espace

 

   

 

 

 

 

 

Les ondes gravitationnelles vues de l'espace

Éric Plagnol, Antoine Petiteau dans mensuel 506
daté décembre 2015 -

La mission spatiale Lisa Pathfinder doit être lancée cette année, en décembre. Objectif ? Démontrer que la détection d'ondes gravitationnelles, prédites par la relativité générale, est possible.

Le 2 décembre 2015, si tout se déroule comme prévu, une fusée Vega décollera de Kourou, en Guyane, avec à son bord la sonde Lisa Pathfinder. Après un voyage de quelques mois, cet instrument de l'Agence spatiale européenne (ESA) et de la Nasa sera placé entre la Terre et le Soleil. Son rôle ? Apporter la preuve qu'une mission spatiale d'observation des ondes gravitationnelles est possible. Si c'est un succès, une telle mission pourrait voir le jour d'ici à 2034. En jeu, pas moins que l'avènement d'une nouvelle astronomie, « gravitationnelle », qui permettra de détecter la fusion de trous noirs aux confins de l'Univers, de comprendre le rôle de ces derniers dans la formation des grandes structures, voire d'obtenir des renseignements sur la nature même de la gravité.
Que sont les ondes gravitationnelles ? Ce sont des déformations de l'espace-temps. Lorsque Einstein établit, en 1915, la théorie de la relativité générale, l'espace et le temps deviennent une entité unique et déformable. En particulier, la présence de masses déforme l'espace-temps. Dans cet espace-temps déformable, la matière ne se propage plus en ligne droite, mais « tombe » en suivant des lignes de plus court chemin, baptisées géodésiques. De plus, ces déformations peuvent se propager dans le cosmos, à la manière des ondes à la surface de l'eau. Dès 1916, Einstein prédit l'existence de ces ondes gravitationnelles. En même temps qu'il fait cette prédiction, il calcule leur intensité pour différentes configurations d'astres pouvant les produire. Sa conclusion ? Dans notre environnement proche, les principales sources d'ondes gravitationnelles - mouvement des planètes ou oscillations du Soleil - ne sont pas détectables.
Toutefois, la situation change lorsqu'on considère le mouvement rapide de corps massifs et denses, tels les étoiles à neutrons (*) ou les trous noirs, astres qui étaient alors inconnus d'Einstein. La déformation de l'espace-temps engendrée par le mouvement de ces systèmes devient alors suffisamment importante pour qu'il soit envisageable de la mesurer sur Terre. Comment cette déformation se traduit-elle ? Par des variations de longueur de l'espace-temps. Ainsi, si vous disposez d'une règle capable de mesurer précisément une longueur (par exemple entre deux miroirs), vous pourrez voir varier périodiquement cette longueur au passage d'une onde gravitationnelle.
Du moins en théorie. Car en pratique, il faut des événements violents, cataclysmiques, pour espérer déceler un changement de longueur au niveau de la Terre. Et même ainsi, les variations de longueurs induites sont extrêmement petites. Par exemple, la fusion de deux étoiles à neutrons dans une galaxie proche de la nôtre entraînerait sur Terre des distorsions mille fois plus petites qu'un atome (10-19 mètre) mesurées sur une longueur de quelques kilomètres.
Pour relever ce défi, la communauté des scientifiques travaillant sur les ondes gravitationnelles
a construit des détecteurs, dont Ligo aux États-Unis et Virgo en Italie. Le principe consiste à mesurer, à l'aide de lasers, des variations de distance entre des miroirs situés à plusieurs kilomètres les uns des autres. Leurs performances attendues rendent probable une détection d'ondes gravitationnelles d'ici à quelques années. Toutefois, ces observatoires terrestres ont une limite : ils ne peuvent détecter que les ondes gravitationnelles dont la fréquence est supérieure à 1 hertz, et qui correspondent àdeux étoiles à neutrons en rotation l'une autour de l'autre par exemple. En effet, les signaux d'ondes gravitationnelles à des fréquences inférieures seront noyés par des ondes sismiques qui surviennent en permanence à la surface de notre planète.

AMBITIEUX PROJET SPATIAL
Pour les ondes dont la fréquence est comprise entre 10-5 et 10-1 hertz, seule une détection à partir de l'espace, environnement plus calme, est envisageable. Les sources susceptibles de produire des ondes détectables à cette fréquence sont multiples : trous noirs binaires massifs tapis au centre des galaxies, astres doubles constitués d'un objet compact (étoile à neutrons ou trou noir) en orbite autour d'un trou noir massif. Les astres binaires constitués d'une étoile à neutrons et d'une naine blanche, étoile en fin de vie bien plus petite que le Soleil, seraient aussi détectables par des instruments spatiaux. Autre avantage de l'espace, on peut placer des objets très éloignés les uns des autres et mesurer leur distance, ce qui augmente les chances de détection.
De là est né l'ambitieux projet spatial eLisa : trois satellites seront positionnés dans l'espace à un million de kilomètres les uns des autres. Le passage d'une onde gravitationnelle modifiera la distance entre les satellites. Pour les sources d'ondes envisagées - par exemple deux trous noirs massifs fusionnant il y a 7,9 milliards d'années -, la distance entre les satellites sera modifiée de quelques centaines de picomètres (10-12 mètre). Cela reste certes tout petit, mais mesurable avec des techniques élaborées.
Bien évidemment, les satellites et sondes spatiales ne sont pas fixes dans l'espace. Dès lors, comment évaluer si la distance entre deux de ces objets change ? Grâce au concept de « chute libre ». Un corps en chute libre se propage librement à la surface de l'espace-temps. Il tombe, uniquement soumis à la gravitation ambiante. Sa chute suit donc, comme nous l'apprend la relativité générale, une géodésique. Deux objets tombant côte à côte suivent chacun leur propre géodésique. On peut donc considérer qu'ils sont à distance fixe l'un de l'autre. Ainsi, si entre ces deux objets vient à passer une onde gravitationnelle, leur distance fluctuera. Cette distance sera mesurée à l'aide de faisceaux laser que les satellites s'échangeront. L'utilisation de laser répond à une logique : la vitesse de la lumière est indépendante du champ gravitationnel et est toujours la même. En utilisant le laser, on s'assure donc que la règle de mesure ne change pas en même temps que les distances que l'on cherche à évaluer.

La détection de ces ondes gravitationnelles reste cependant techniquement délicate. Les variations de distance induites par leur passage étant minuscules, beaucoup d'autres sources de perturbations peuvent masquer la mesure. En particulier, il faut s'assurer que les satellites soient tout le temps en chute libre. C'est là le principal défi de la mission : être capable de mettre en orbite des satellites dont la trajectoire est suffisamment proche d'une géodésique, ce qui équivaut à être soumis uniquement à la gravité.
Un objet dans l'espace est soumis à bien d'autres influences que la gravité. Ainsi, un satellite en orbite autour du Soleil ou de la Terre, subit, entre autres, la pression de radiation (*) du Soleil, ce qui le dévie de sa trajectoire géodésique. Les particules du rayonnement cosmique modifient également la charge électrique du satellite. Couplée au champ magnétique environnant, cette charge perturbe le mouvement du satellite. Afin de détecter des ondes gravitationnelles, il est donc nécessaire de mettre en orbite une « sonde gravitationnelle », qui devra rester insensible à tout autre effet.
On le voit, les défis technologiques de la mission eLisa sont nombreux : mesurer des distances infimes, contrôler les influences extérieures afin que les satellites restent bien sur une géodésique. C'est pourquoi, avant de se lancer dans une telle mission, les chercheurs ont décidé de s'entraîner sur un démonstrateur. C'est l'objectif de Lisa Pathfinder, conçu par la communauté eLisa dans le cadre des programmes spatiaux
de l'ESA. Ce satellite devra faire la preuve de sa précision afin d'aborder le projet eLisa
avec confiance.

UN MODÈLE TRÈS RÉDUIT
Lisa Pathfinder est un satellite de près de 2 tonnes. Il sera mis en orbite héliocentrique autour du point de Lagrange L1(*), un point d'équilibre situé entre la Terre et le Soleil. Le coeur du satellite comporte deux cubes de 5 centimètres de côté, alliage d'or et de platine, qui constituent ce qu'on appelle les masses d'épreuve, placées à environ 30 centimètres l'une de l'autre. Chaque masse d'épreuve est dans une enceinte à vide sans contact mécanique avec les parois. Des actuateurs et des senseurs électrostatiques permettent de déplacer ces masses et de déterminer leur position et leur orientation. Ces mesures électrostatiques sont complétées, sur l'axe joignant les deux masses d'épreuve, par un système d'interférométrie laser (*) de très grande précision.
Sur les faces extérieures du satellite, 6 micropropulseurs à gaz froid (azote) contrôlent son mouvement en s'assurant qu'une des deux masses d'épreuve est en permanence au centre de son enceinte. Il s'agit de l'élément le plus délicat de Lisa Pathfinder, car il garantit que cette masse d'épreuve est bien maintenue en chute libre, exempte de toute autre influence.

Les actuateurs électrostatiques de l'autre masse d'épreuve ont pour objectif de la maintenir au centre de son enceinte durant plusieurs milliers de secondes. Sur des intervalles de temps plus courts, cette masse d'épreuve est autorisée à évoluer librement et sera donc également en chute libre. Les deux masses d'épreuve étant placées au sein du satellite, il est également primordial que les forces gravitationnelles propres à Lisa Pathfinder ne les fassent pas dériver. Pour cela, la répartition des masses au sein du satellite est très précisément connue afin d'évaluer et de minimiser le champ gravitationnel résiduel au niveau des masses d'épreuve, grâce à des masses judicieusement positionnées. Avec une telle configuration, Lisa Pathfinder représente un modèle, très réduit, de deux satellites de eLisa !
L'objectif principal de Lisa Pathfinder est de mesurer, grâce au système interférométrique laser, la distance entre les deux masses d'épreuve et de démontrer que leur accélération relative est compatible avec les exigences du programme scientifique de eLisa. Ce programme impose donc les performances que le satellite doit démontrer en vol (lire p. 78).
Lisa Pathfinder doit être lancée le 2 décembre. Afin de parvenir à son point de destination, le satellite subira une série de poussées lui conférant des orbites de plus en plus elliptiques autour de la Terre. Une dernière poussée libérera le satellite de l'attraction terrestre qui rejoindra alors le point L1. Ce voyage, qui durera trois mois, se terminera par le largage du moteur principal et une mise en orbite autour de L1.

TROIS MISSIONS D'ENVERGURE
Une fois sa position atteinte, six mois seront consacrés à la mesure des performances de Lisa Pathfinder et à des améliorations. Lisa Pathfinder est un instrument complexe et les équipes de physiciens travaillent depuis plus de dix ans à comprendre son fonctionnement détaillé afin d'améliorer, en vol, la qualité de ses mesures. Ces équipes de physiciens, provenant de nombreux pays européens et des États-Unis, ont mis au point et répété ces procédures d'optimisation lors de plus d'une vingtaine d'exercices au sol, en utilisant de nombreux simulateurs provenant de la communauté scientifique, des industriels participants et de l'ESA (1). Ces exercices ont lieu aussi bien dans les centres de l'ESA que dans les laboratoires des pays participants dont le laboratoire astrophysique particules cosmologie, à l'université Paris-Diderot. En se fondant sur ces exercices et sur les mesures en laboratoire, la communauté a bon espoir que les performances attendues soient non seulement atteintes mais probablement dépassées.

La mission eLisa n'est pas encore certaine de voir le jour. Dans le cadre de son programme de « grandes missions », l'ESA a en effet prévu trois missions d'envergure. Les deux premières devraient partir vers 2022 et 2028 pour explorer les principaux satellites de Jupiter (Juice), et pour observer le ciel dans les domaines des rayons X (Athena). La troisième mission n'a pas encore été sélectionnée, mais son thème sera « l'Univers gravitationnel » avec un lancement au plus tard en 2034. La sélection définitive de cette troisième mission devrait intervenir d'ici à la fin de la présente décennie. La réussite attendue du démonstrateur devrait faire pencher la balance en sa faveur, en validant le concept de mission proposé par la communauté eLisa. Cette dernière pourra alors se consacrer à sa construction et à l'analyse de ses futurs résultats. Il faudra attendre encore quelques années avant d'être fixés, mais pour un objectif aussi ambitieux que celui d'ouvrir une nouvelle fenêtre astronomique - gravitationnelle - sur l'Univers, la patience est de rigueur.

(*) Une étoile à neutrons est un astre très dense et de quelques kilomètres de diamètre composé de neutrons maintenus ensemble par la gravitation.
(*) La pression de radiation est la pression exercée par le rayonnement du Soleil sur le satellite.
(*) Les points de Lagrange , au nombre de 5, sont les points d'équilibre du système Terre-Soleil. Situé entre ces deux astres, le point L1 est à environ 1,5 million de kilomètres de la Terre.
(*) L'interférométrie laser est un système de mesure de distance très précis fondé sur l'interférence de deux rayons laser ; une modification de distance des sources modifie la figure d'interférence observée.
REPÈRES
- Les astronomes envisagent pour les années 2030 un observatoire spatial d'ondes gravitationnelles.
- Pour convaincre de la faisabilité de ce type d'observatoire, complètement novateur, le satellite Lisa Pathfinder sera lancé en décembre.
- La trajectoire de masses en chute libre y sera suivie avec précision.

À LIRE AUSSI
« L'ESPOIR DE VOIR BOUGER L'ESPACE-TEMPS », dans le hors-série n° 16 de La Recherche, en vente à partir du 10 décembre.
LES CINQ PERFORMANCES À ATTEINDRE
Pour que la mission Lisa Pathfinder soit un succès et que l'on puisse envisager un détecteur spatial d'ondes gravitationnelles, le satellite devra accomplir plusieurs performances.

1. Maintenir les deux masses d'épreuve (des cubes de 5 centimètres de côté) situées à l'intérieur du satellite en chute libre pendant environ 1 000 secondes avec des perturbations n'excédant pas un millionième de milliardième de la gravité terrestre.
2. Mesurer la position des deux masses d'épreuve avec une précision meilleure que quelques picomètres (10-12 mètre).
3. Vérifier que le système de micropropulseurs est capable de maintenir les deux masses d'épreuve en chute libre et que le système de contrôle fonctionne avec la précision nécessaire.
4. Maintenir une stabilité thermique et électromagnétique de l'environnement des deux masses d'épreuve compatibles avec les exigences ci-dessus.
5. Maintenir les masses d'épreuve électriquement neutres en éliminant, grâce à des lampes à ultraviolets, les charges parasites déposées par les rayons cosmiques.

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

La mcanique quantique

 


 

 

 

 

 

La mécanique quantique

Publié le 15 mai 2019


Qu'est-ce que la mécanique quantique ? Pourquoi est-elle utilisée ? A quoi sert-elle ? Où la retrouve-t-on dans notre quotidien ? Petite introduction au monde quantique.

QU’EST-CE QUE
LA MÉCANIQUE QUANTIQUE ?
A l’aube du XXe siècle, la naissance de la physique quantique révolutionne notre conception du monde : les physiciens réalisent que la physique classique, qui décrit parfaitement notre environnement quotidien macroscopique, devient inopérante à l’échelle microscopique des atomes et des particules. En effet, les atomes et les particules élémentaires de la matière, n’évoluent pas comme un système classique, où les quantités d’énergie échangées peuvent prendre n'importe quelle valeur. Pour un système quantique, l’énergie s’échange par valeurs discrètes ou « quanta ».
Par ailleurs, la physique classique décrit différemment un corpuscule (atome, particule) et une onde (lumière, électricité) tandis que la mécanique quantique confond les deux descriptions : un photon, un électron, un atome ou même une molécule sont à la fois onde et corpuscule.
Si, en physique classique, l’état d’un système est parfaitement défini par la position et la vitesse de l'ensemble de ses composants– il ne peut être alors que dans un seul état à un moment et à un endroit donné, il n’en va pas de même en physique quantique. Un système quantique, tel qu'une simple onde-corpuscule, peut se trouver dans une superposition cohérente d'états, qui traduit la potentialité de tous ses états possibles. Sa présence à un endroit donné, son énergie deviennent alors probabilistes : ainsi, un atome peut être à la fois dans son état fondamental stable et dans un état excité (c’est-à-dire possédant une énergie supérieure, acquise par exemple par l'absorption d'un photon). Un photon peut être à un endroit et à un autre en même temps. On ne peut être certain qu'il est en un seul lieu que si l'on effectue une mesure. Le processus de mesure impose alors à l’onde-corpuscule un état défini.
De ces découvertes, qui forment la première révolution quantique, découlent un certain nombre d’applications encore utilisées aujourd’hui : les lasers, les circuits intégrés ou encore les transistors, à la base du fonctionnement des appareils électroniques notamment.


LE CHAT DE SCHRÖDINGER

Le physicien Schrödinger a utilisé une image devenue célèbre pour mettre en avant le côté paradoxal d’objets dont on ne peut pas connaître l’état à tout moment. Il a imaginé un chat « quantique », enfermé dans une boîte sans fenêtre en présence d’un poison déclenché par un processus quantique. Tant que la boîte n’est pas ouverte, on ne sait pas si le processus quantique a déclenché le mécanisme, le chat est à la fois mort et vivant avec des probabilités dépendant du processus. Bien sûr, quand on ouvre la boîte le chat est soit mort, soit vivant. En regardant à l’intérieur, on fait une mesure qui nous permet de connaître l’état quantique du système.


À QUOI SERT
LA MÉCANIQUE QUANTIQUE
AUJOURD’HUI ?
Quelques effets sont emblématiques de la mécanique quantique :
*         L’effet laser est obtenu dans un système où les électrons sont majoritairement dans un même état excité et se désexcitent tous ensemble en émettant cette lumière intense. Cette transition des électrons d'un niveau d'énergie à un autre est un processus quantique.
*        
*         La supraconductivité est la disparition de toute résistance électrique dans un conducteur. Elle apparaît lorsque les électrons, portant une même charge électrique, peuvent s’apparier et se condenser dans un unique état quantique.
*        
*         L’effet tunnel permet à des électrons de franchir une « barrière » de potentiel ce qui est strictement interdit en physique classique.
*        
*         Le spin est une propriété quantique sans équivalent classique, à l'origine des propriétés magnétiques de la matière.
*        
Des physiciens cherchent à exploiter la richesse des états quantiques et à maîtriser leur mesure dans la perspective encore lointaine d’un ordinateur quantique.

Depuis le début des années 1980, la physique quantique a pris un nouveau tournant : c’est la deuxième révolution quantique, qui se poursuit encore aujourd’hui. En 1982, le physicien Alain Aspect et son équipe parviennent à démontrer la réalité du principe d’intrication quantique, concept fondamental de la physique quantique. Par ce phénomène, proposé dans le courant des années 1930 par Erwin Schrödinger et Albert Einstein, les particules constituant un système sont liés, et le restent quelle que soit la distance qui les sépare. Ainsi, pour une paire de photons, une mesure faite sur l’un modifiera instantanément l'état du second, même s'ils sont séparés d'une longue distance (le record de distance pour l'observation de l'intrication de deux photons a été atteint en 2020 dans le domaine de la cryptographie quantique : des physiciens chinois ont pu échanger un message secret sur 1 120 km). Cette propriété pourrait avoir des applications importantes dans le domaine de l’information quantique : cryptographie, téléportation de l'information ou encore l’ordinateur quantique.
Et le champ d’application de la physique quantique va bien au-delà : le formalisme de la mécanique quantique est utilisé par les chercheurs en nanosciences (chimie, optique, électronique, magnétisme, physique de l’état condensé) et par les physiciens des lois fondamentales de l’Univers (particules, noyau atomique, cosmologie).



ET DEMAIN,
LA MÉCANIQUE QUANTIQUE ?
Les théories décrivant trois des quatre interactions fondamentales de l’Univers sont développées dans le cadre de la mécanique quantique :
*         l’interaction forte qui lie les composants du noyau entre eux,
*         l’interaction faible à l’origine de certaines formes de radioactivité,
*         l’électromagnétisme qui régit les phénomènes lumineux, électriques et magnétiques.
*        
La quatrième interaction, la gravitation, est expliquée par la relativité. Jusqu’à présent, dans les domaines d’énergie et d’espace que l’homme a pu explorer, il n’a pas été nécessaire de « quantifier » la gravitation.
De nombreux physiciens cherchent cependant à unifier ces deux théories pour embrasser les lois de l’Univers de manière plus simple et complète.

Mécanique quantique et relativité
En mécanique quantique, temps et espace sont différenciés. Dans la théorie de la relativité, le temps et l’espace forment une seule entité : l’espace-temps, et matière et énergie sont liées. La mécanique quantique relativiste et la notion de champ sont à la base de la "théorie des champs" qui permet de comprendre les phénomènes de physique des hautes énergies au sein des accélérateurs de particules, ou encore les phénomènes de physique de la matière condensée : supraconductivité, effet Hall quantique, ou la superfluidité.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google