ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…

    
A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?

Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

    
Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Les ondes électromagnétiques dans le domaine de la communication

 



 

 

 

 

 

Les ondes électromagnétiques dans le domaine de la communication

Publié le 31 mai 2018

Qu’est-ce qu’une onde électromagnétique ? Quelles sont les ondes qui nous permettent de communiquer quasi instantanément d’un bout à l’autre du monde ? En quoi les ondes radio jouent-elles un rôle fondamental dans les télécommunications ? Comment fonctionne un système mobile sans fil ? Quelles sont les différentes générations de réseaux mobiles ? Quels sont les enjeux et promesses de la 5G ? L’essentiel sur… les ondes électromagnétiques utilisées dans le domaine de la communication.
QU’EST-CE QU’UNE ONDE ÉLECTROMAGNÉTIQUE ?
Une onde électromagnétique est une catégorie d’ondes qui peut se déplacer dans un milieu de propagation comme le vide ou l’air, avec une vitesse avoisinant celle de la lumière, soit près de 300 000 kilomètres par seconde. Ces ondes sont par exemple produites par des charges électriques en mouvement. Elles correspondent aux oscillations couplées d’un champ électrique et d’un champ magnétique, dont les amplitudes varient de façon sinusoïdale au cours du temps.


Les ondes électromagnétiques transportent de l’énergie mais elles sont aussi capables de transporter de l’information. C’est pourquoi elles sont utilisées dans le domaine de la communication.
Concrètement, les ondes électromagnétiques servent à faire fonctionner les smartphones, les postes de radio, ou encore sont utilisées pour faire des radiographies du corps humain.  De même, la lumière visible est une onde électromagnétique ; elle nous permet de voir les couleurs.
Ces différentes ondes électromagnétiques se différencient et sont caractérisées par leur fréquence, c’est-à-dire le nombre d’oscillations en une seconde. La fréquence est exprimée en Hertz. Une autre caractéristique des ondes électromagnétiques est la longueur d’onde, c’est-à-dire la distance qui sépare deux oscillations de l'onde. Elle est inversement proportionnelle à la fréquence.
Les ondes électromagnétiques sont classées en fonction de leur fréquence dans ce que l’on appelle le « spectre électromagnétique ».


Dans l’ordre des longueurs d’ondes croissantes, on trouve :

Longueur d’onde (mètre)    Fréquence (Hertz)    Catégorie d'onde électromagnétique
< 10 picomètres (ie 1 000 milliards de fois plus petit qu’un mètre)    30 x 1018 Hz    Les rayons gamma, produits par des transitions nucléaires
10 picomètres – 10 nanomètres (ie 1 000 millions de fois plus petit qu’un mètre)    30 x 1018 – 30x1015 Hz    Les rayons X, qui permettent de faire des radiographies  du corps humain
10 nanomètres – 400 nanomètres    30x1015 - 750x1012 Hz    Les rayons ultra-violet (UV), qui proviennent majoritairement du Soleil et sont responsables par exemple du bronzage ou des coups de soleil.
400 – 800 nanomètres    750x1012 – 375x1012 Hz    La lumière visible avec toutes les couleurs de l’arc-en-ciel.
800 nanomètres – 0,1 millimètre    375x1012 – 3x1012 Hz    Les rayons infrarouges, qui captent la chaleur des objets, de l’environnement.
1 millimètre - 30 kilomètres    300x109Hz - 10Hz    Les ondes radio, responsables des moyens de télécommunications qu’on connaît aujourd’hui : les radars et satellites, le réseau Wi-Fi, le téléphone portable, la télévision hertzienne et la radio.


L’HISTOIRE DES SYSTÈMES ET RÉSEAUX
DE TÉLÉCOMMUNICATION
L’histoire des télécommunications commence en 1794, quand Claude Chappe met au point le télégraphe optique. Deux tours d’observations éloignées de plusieurs dizaines de kilomètres s’échangent des messages codés par les différentes positions d’un bras articulé placé en haut de la tour.
Il faudra attendre la fin du 19e siècle et la découverte de l’existence des ondes électromagnétiques par le physicien allemand Heinrich Hertz pour que se développe la transmission d’informations sans fil.
Depuis vingt ans, nous sommes entrés dans un monde où tout devient sans fil. Après la radio et la télévision, le téléphone a d’abord lâché son fil à la maison pour devenir mobile, nos ordinateurs communiquent aujourd’hui via le wi-fi. Début 2018, le monde compte plus de 4 milliards d’utilisateurs d’Internet et plusieurs millions de mails sont envoyés chaque seconde. Et ce n’est pas fini ! L’Internet des Objets se développe, et part à l’assaut de nouveaux secteurs comme la domotique, la santé connectée, l’usine du futur et les véhicules autonomes.
Le réseau 5G qui devrait être disponible en France vers 2020 connectera toujours plus d’objets sans fil, avec un meilleur débit et plus de rapidité. A la clé : une plus grande fiabilité de transmission.

Vidéo
L'histoire des systèmes et réseaux de télécommunications
SD    <div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     



LE PRINCIPE DE FONCTIONNEMENT
DE LA RADIO
Les ondes radio, qui servent à transmettre des informations, ont des fréquences comprises entre quelques kilos Hertz et 300 giga Hertz, c’est-à-dire 300 milliards d’oscillations par seconde.

Parmi les ondes qui passent par les postes de radio, on trouve :

*         La radio AM avec une fréquence de 106Hz et une portée de plusieurs centaines de kilomètres, autrefois très utilisée.
*         La radio FM avec une fréquence de 108Hz et une portée de quelques dizaines de kilomètres. La radio FM est la plus écoutée aujourd’hui.

Les antennes permettent de rayonner les ondes radio se propageant dans l’air. Pour diffuser une émission de radio par exemple, la voix de l'animateur est transformée en signal électrique par le micro. Ce signal électrique oscille au même rythme que la voix, on dit qu'ils ont la même fréquence. Cependant, cette fréquence est beaucoup trop basse pour que le signal soit transmis sous forme d'onde électromagnétique. Il est donc nécessaire de fabriquer un signal électrique alternatif à très haute fréquence transmis à l’antenne pour qu'elle émette d'abord une onde porteuse. Pour transporter la voix par exemple, il faut alors mélanger notre signal électrique de basse fréquence, celui qui correspond à la voix de l’animateur, au signal électrique de haute fréquence.

Il existe par exemple deux façons de faire :

*         Pour la radio AM, on change l’amplitude, c’est à dire la hauteur des oscillations du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en amplitude.
*        
*         Pour la radio FM, on change la fréquence, c’est à dire le nombre d’oscillations par secondes du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en fréquence. La modulation en fréquence est beaucoup plus fiable ; il y aura moins de grésillements qu'avec la modulation d'amplitude.

Dans les deux cas, l’antenne émet une onde électromagnétique modulée qui se propage jusqu'à une antenne réceptrice, comme celle intégrée dans les postes de radio. Ensuite, elle fait le travail inverse de l'antenne émettrice : elle transforme l'onde électromagnétique en signal électrique, ce dernier est démodulé, soit en amplitude soit en fréquence, puis amplifié et transformé en son par les enceintes.
Vidéo
Qu'est-ce qu'une onde électromagnétique ?
SD    <div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     


COMMENT FONCTIONNE UN SYSTÈME MOBILE SANS FIL ?

Pour que nos fichiers ou SMS puissent parvenir jusqu’à leur destinataire, l’information à envoyer est d’abord codée en langage binaire (combinaisons de zéro et un) puis présentée en entrée de la carte électronique de l’émetteur du système de communication sans fil, par exemple un téléphone.

Ensuite, le signal numérique correspondant au message binaire est transformé en signal analogique à haute fréquence (fréquences radio). Ce dernier est envoyé à une antenne, qui se met alors à rayonner une onde électromagnétique se propageant dans l’air pour atteindre l’antenne relais la plus proche. L'onde est ensuite encore transformée en signal électrique, pour être transmise via des câbles ou des fibres optiques sur de très grandes distances, jusqu’à enfin atteindre l’antenne relais la plus proche du destinataire. Le processus de réception est le même que celui d’envoi, en inversé. La carte électronique du système de communication du récepteur décode le langage binaire pour afficher le SMS, l’image ou bien la vidéo.




LES DIFFÉRENTES GÉNÉRATIONS
DE RÉSEAUX MOBILES
De la 2G à la 5G
La fin des années 1990 sonne le début de l’ère des téléphones portables, le réseau dit « 2G » (ou GSM) est lancé. Il permet de transmettre la voix mais aussi des données numériques comme les SMS ou des messages multimédias, avec du contenu léger (MMS). Les réseaux GPRS et EDGE offrent un accès à Internet mais avec un débit très bas.

La 3G se commercialise au début des années 2000. Le débit est alors plus rapide que pour la 2G et les téléphones peuvent alors accéder à Internet beaucoup plus rapidement, même en mouvement.


En 2012, la 4G fait son arrivée en France, le débit maximal est multiplié par 100, ce qui permet le développement des objets connectés et des réseaux sociaux.

Le réseau 5G est prévu pour être disponible vers 2020. Il constituera une véritable rupture technologique, présentant de nombreuses innovations.
Il aura un débit 50 fois plus important que la 4G et le temps
d’acheminement des données sera beaucoup plus court qu’actuellement (jusqu’à 1ms, contre 10ms). La 5G pourra occuper des bandes de fréquence entre 800MHz et 56GHz. Les fréquences les plus hautes appartiennent au domaine des ondes millimétriques (allant de 30 à 300 GHz).
A ces fréquences-ci, l’atténuation des ondes avec la distance parcourue est plus importante mais les antennes sont plus petites que celles utilisées pour la 4G. Dans un même espace, il sera donc possible d'en associer beaucoup plus pour augmenter la puissance reçue (ou émise) dans certaines directions et ainsi, suivre plusieurs utilisateurs mobiles tout en limitant les interférences.

Le développement d’applications telles que les voitures autonomes ou les objets connectés devrait être facilité par la 5G.

 

 DOCUMENT     cea         LIEN

 
 
 
 

LA MICROÉLECTRONIQUE L'histoire de la microélectronique

 

 

 

 

 

 

 

LA MICROÉLECTRONIQUE
L'histoire de la microélectronique


En un siècle, la miniaturisation a permis le passage du tube à vide au transistor sur matériau solide d'un micromètre carré. Parallèlement, le passage du signal analogique (à variation continue) au signal numérique (codé en une succession de 0 et de 1) a facilité le développement de circuits électroniques aux fonctions de plus en plus performantes.

Publié le 18 octobre 2018
 
NAISSANCE DES COMPOSANTS
De la résistance au transistor, du circuit intégré simple au microprocesseur complexe en passant par les convertisseurs ou les diodes électroluminescentes… les composants de la microélectronique sont nombreux et remplissent des fonctions variées.

De la diode à la triode
En 1904, John Alexandre Fleming, ingénieur anglais, invente la diode, un dispositif sous vide comprenant un filament émetteur d’électrons et une plaque, collectrice d’électrons lorsqu’elle est polarisée positivement. Ce dispositif laisse passer le courant électrique dans un seul sens et le bloque dans l’autre. Il suffit de faire varier la tension (positive ou négative) de la plaque pour permettre ou interrompre le passage du courant.

Ce premier dispositif est utilisé dans les postes de radio. Il existe de nombreuses variétés de diodes, selon les propriétés des matériaux utilisés. Les diodes électroluminescentes (Leds) sont désormais largement utilisées pour produire de la lumière en consommant très peu d’énergie.

En 1907, Lee de Forest, chercheur américain, améliore le principe en inventant la triode dans laquelle une grille est ajoutée entre le filament et la plaque. C’est le premier système amplificateur d'un signal électronique. Elle se compose d’une cathode  semi-conductrice à chaud, émettrice d’électrons, d’une anode  réceptrice, et d’une grille positionnée entre les deux. Celle-ci joue le rôle de « modulateur d’électrons » : selon sa polarisation, elle les bloque ou accélère leur passage (amplification du courant).

Dans les années 40, les triodes et autres tubes à vide sont utilisés dans les tout premiers ordinateurs. Plus les calculs à effectuer sont complexes, plus le besoin de tubes à vide est grand. Or, ceux-ci sont volumineux, chauffent beaucoup et « claquent » facilement. Ce manque de fiabilité freine le développement de l'informatique.

L'ère du transistor

En 1948, John Bardeen, Walter Brattain et William Shockley, trois physiciens américains, inventent le transistor bipolaire et ouvrent ainsi l'ère de la microélectronique. Il comprend un émetteur d'électrons, un collecteur et un dispositif de modulation appelé base. Le déplacement des électrons ne s'effectue plus dans le vide mais dans un matériau solide, semi-conducteur, qui permet de contrôler le courant électrique (l'interrompre, l'amplifier ou le moduler). Ce transistor a supplanté rapidement le tube électronique : démarrant quasi instantanément, sans temps de chauffe, beaucoup plus petit et léger. Les transistors sont réalisés directement à la surface du silicium, leurs connexions sont fabriquées par dépôt de couches métalliques. Ils ont pu être fabriqués industriellement dès les années 50. Rapidement, leur taille va passer de celle d'un dé à celle d'un grain de sel !

Circuit imprimé et circuit intégré
Un circuit est un assemblage de composants. Il est appelé « circuit imprimé » lorsqu'il est fabriqué par dépôts de matériaux conducteurs sur des matériaux isolants (exemple : du cuivre  sur l'époxy) comme dans le cas de la carte mère des ordinateurs. Il est appelé « circuit intégré » lorsqu'il rassemble, plusieurs composants permettant de réaliser différentes fonctions. Dans les années 70, une technologie est développée permettant de réaliser des transistors qui consomment moins et de faciliter l'intégration de composants passifs (résistances, capacités) sortant des circuits intégrés. La taille des circuits augmente régulièrement ainsi que celle des plaques de silicium, qui passent de 200 à 300 mm de diamètre. Dans le même temps, la taille des transistors diminue.
Ils peuvent être gravés dans du silicium massif ou sur une couche mince de quelques centaines de nanomètres déposée sur un isolant ; le SOI (silicium sur isolant) permet de réaliser des circuits plus rapides et moins gourmands en énergie.

Le tout sur une puce
Cette petite pastille de silicium supporte un circuit intégré. L'accroissement exponentiel du nombre de transistors par puce, aussi appelé « loi de Moore », a entraîné une nouvelle révolution industrielle, en liaison avec le développement des logiciels et des communications.  Début des années 2000, un microprocesseur (le circuit intégré le plus complexe) est une puce en silicium d'environ 2,5 cm de côté. Il peut comporter plusieurs centaines de millions de composants. Il est enfermé dans un boîtier protecteur muni de « pattes » (d'où le nom de « puce ») pour assurer les connexions avec les autres organes de l'appareil dans lequel il s'insère.

DES COMPOSANTS À MATURITÉ
L'omniprésence des CMOS et du FDSOI
Les premiers dispositifs MOS (Metal Oxide Semiconductor) apparaissent dans les années 60. Aujourd'hui, le transistor MOS constitue, grâce à sa simplicité de fabrication et à ses dimensions réduites, l'élément fondamental des circuits intégrés numériques.
Le développement des composants CMOS (Complementary Metal Oxide Semiconductor) industriels a été rendu possible par les progrès enregistrés dans le domaine des transistors bipolaires, en particulier la résolution des problèmes d'interface oxyde-semiconducteur. Sur un substrat de silicium faiblement dopé , un circuit CMOS est constitué de transistors nMOS et pMOS, placés de manière symétrique et interconnectés par des fils métalliques. Chaque transistor MOS ayant la même fonction, l'un est passant tandis que l'autre est bloquant, ils sont complémentaires.  

COMMENT FONCTIONNE UN TRANSISTOR MOS ?
Un transistor MOS comprend une source et un drain, entre lesquels les électrons peuvent circuler via un canal de conduction. Ce canal fonctionne comme un interrupteur, en fonction de la charge électrique de la grille. Selon la polarité de cette grille, le canal de conduction est ouvert ou fermé. La performance du transistor dépend principalement de la taille de la grille : plus celle-ci est petite, moins les électrons ont de chemin à parcourir dans le canal, plus le système est rapide.


Dans la technologie FDSOI (Fully Depleted - Silicium On Insulator ou Transistor entièrement deplété sur silicium sur isolant), une très fine tranche de silicium est collée sur une fine couche d'oxyde de silicium isolant. Le substrat de silicium ne nécessite plus d'être dopé. Les performances du transistor sont augmentées en appliquant une tension sur sa face arrière. La combinaison de cette tension et de la couche d'isolant agit alors comme une seconde grille.


En fonction des tensions relatives appliquées sur les faces avant et arrière du transistor, ses propriétés peuvent être modifiées et améliorées : il est soit très peu gourmand en énergie (30 à 40 % moins énergivore), soit très rapide (25 % plus rapide). Le FDSOI équipe déjà des téléphones et des montres intelligentes et s'annonce incontournable pour l'électronique mobile, la voiture autonome ou encore l'Internet des objets. Le CEA-Leti développe aujourd'hui encore de nouveaux substrats et composants FDSOI. Il étudie également des structures de transistors originales comme le transistor SET (Single Electron Transistor) ou les transistors à nanofils de semi-conducteurs.


ZOOM SUR LA LOI DE MOORE
Des composants de plus en plus petits, de moins en moins chers.

Durant les années 70, Gordon Moore, un des cofondateurs de la société Intel et inventeur du premier microprocesseur (Intel 4004, en 1971), prédit le doublement de la densité des puces électroniques tous les deux ans. Depuis cette époque, chercheurs et industriels de la microélectronique suivent donc scrupuleusement une « feuille de route » qui établit avec précision des objectifs de réduction de taille des transistors. Les progrès constants qu'ils ont réalisés, associés à une production massive, ont permis de réduire radicalement les coûts des composants microélectroniques et donc de tous les produits qui y ont recours : ordinateurs, smartphones, téléviseurs, caméras, appareils photos... Cette loi, qui prévoyait une miniaturisation continue, touche néanmoins à sa fin et laisse place au « More than Moore », une approche axée sur les fonctions (par exemple électro-optiques ou électromécaniques), et au « beyond CMOS » qui explore les propriétés de nouveaux matériaux, de nouvelles structures de transistors, d'architectures de circuits, ou de modes de fabrication.

 

 DOCUMENT     cea         LIEN

 

 
 
 
 

Les ondes gravitationnelles vues de l'espace

 

   

 

 

 

 

 

Les ondes gravitationnelles vues de l'espace

Éric Plagnol, Antoine Petiteau dans mensuel 506
daté décembre 2015 -

La mission spatiale Lisa Pathfinder doit être lancée cette année, en décembre. Objectif ? Démontrer que la détection d'ondes gravitationnelles, prédites par la relativité générale, est possible.

Le 2 décembre 2015, si tout se déroule comme prévu, une fusée Vega décollera de Kourou, en Guyane, avec à son bord la sonde Lisa Pathfinder. Après un voyage de quelques mois, cet instrument de l'Agence spatiale européenne (ESA) et de la Nasa sera placé entre la Terre et le Soleil. Son rôle ? Apporter la preuve qu'une mission spatiale d'observation des ondes gravitationnelles est possible. Si c'est un succès, une telle mission pourrait voir le jour d'ici à 2034. En jeu, pas moins que l'avènement d'une nouvelle astronomie, « gravitationnelle », qui permettra de détecter la fusion de trous noirs aux confins de l'Univers, de comprendre le rôle de ces derniers dans la formation des grandes structures, voire d'obtenir des renseignements sur la nature même de la gravité.
Que sont les ondes gravitationnelles ? Ce sont des déformations de l'espace-temps. Lorsque Einstein établit, en 1915, la théorie de la relativité générale, l'espace et le temps deviennent une entité unique et déformable. En particulier, la présence de masses déforme l'espace-temps. Dans cet espace-temps déformable, la matière ne se propage plus en ligne droite, mais « tombe » en suivant des lignes de plus court chemin, baptisées géodésiques. De plus, ces déformations peuvent se propager dans le cosmos, à la manière des ondes à la surface de l'eau. Dès 1916, Einstein prédit l'existence de ces ondes gravitationnelles. En même temps qu'il fait cette prédiction, il calcule leur intensité pour différentes configurations d'astres pouvant les produire. Sa conclusion ? Dans notre environnement proche, les principales sources d'ondes gravitationnelles - mouvement des planètes ou oscillations du Soleil - ne sont pas détectables.
Toutefois, la situation change lorsqu'on considère le mouvement rapide de corps massifs et denses, tels les étoiles à neutrons (*) ou les trous noirs, astres qui étaient alors inconnus d'Einstein. La déformation de l'espace-temps engendrée par le mouvement de ces systèmes devient alors suffisamment importante pour qu'il soit envisageable de la mesurer sur Terre. Comment cette déformation se traduit-elle ? Par des variations de longueur de l'espace-temps. Ainsi, si vous disposez d'une règle capable de mesurer précisément une longueur (par exemple entre deux miroirs), vous pourrez voir varier périodiquement cette longueur au passage d'une onde gravitationnelle.
Du moins en théorie. Car en pratique, il faut des événements violents, cataclysmiques, pour espérer déceler un changement de longueur au niveau de la Terre. Et même ainsi, les variations de longueurs induites sont extrêmement petites. Par exemple, la fusion de deux étoiles à neutrons dans une galaxie proche de la nôtre entraînerait sur Terre des distorsions mille fois plus petites qu'un atome (10-19 mètre) mesurées sur une longueur de quelques kilomètres.
Pour relever ce défi, la communauté des scientifiques travaillant sur les ondes gravitationnelles
a construit des détecteurs, dont Ligo aux États-Unis et Virgo en Italie. Le principe consiste à mesurer, à l'aide de lasers, des variations de distance entre des miroirs situés à plusieurs kilomètres les uns des autres. Leurs performances attendues rendent probable une détection d'ondes gravitationnelles d'ici à quelques années. Toutefois, ces observatoires terrestres ont une limite : ils ne peuvent détecter que les ondes gravitationnelles dont la fréquence est supérieure à 1 hertz, et qui correspondent àdeux étoiles à neutrons en rotation l'une autour de l'autre par exemple. En effet, les signaux d'ondes gravitationnelles à des fréquences inférieures seront noyés par des ondes sismiques qui surviennent en permanence à la surface de notre planète.

AMBITIEUX PROJET SPATIAL
Pour les ondes dont la fréquence est comprise entre 10-5 et 10-1 hertz, seule une détection à partir de l'espace, environnement plus calme, est envisageable. Les sources susceptibles de produire des ondes détectables à cette fréquence sont multiples : trous noirs binaires massifs tapis au centre des galaxies, astres doubles constitués d'un objet compact (étoile à neutrons ou trou noir) en orbite autour d'un trou noir massif. Les astres binaires constitués d'une étoile à neutrons et d'une naine blanche, étoile en fin de vie bien plus petite que le Soleil, seraient aussi détectables par des instruments spatiaux. Autre avantage de l'espace, on peut placer des objets très éloignés les uns des autres et mesurer leur distance, ce qui augmente les chances de détection.
De là est né l'ambitieux projet spatial eLisa : trois satellites seront positionnés dans l'espace à un million de kilomètres les uns des autres. Le passage d'une onde gravitationnelle modifiera la distance entre les satellites. Pour les sources d'ondes envisagées - par exemple deux trous noirs massifs fusionnant il y a 7,9 milliards d'années -, la distance entre les satellites sera modifiée de quelques centaines de picomètres (10-12 mètre). Cela reste certes tout petit, mais mesurable avec des techniques élaborées.
Bien évidemment, les satellites et sondes spatiales ne sont pas fixes dans l'espace. Dès lors, comment évaluer si la distance entre deux de ces objets change ? Grâce au concept de « chute libre ». Un corps en chute libre se propage librement à la surface de l'espace-temps. Il tombe, uniquement soumis à la gravitation ambiante. Sa chute suit donc, comme nous l'apprend la relativité générale, une géodésique. Deux objets tombant côte à côte suivent chacun leur propre géodésique. On peut donc considérer qu'ils sont à distance fixe l'un de l'autre. Ainsi, si entre ces deux objets vient à passer une onde gravitationnelle, leur distance fluctuera. Cette distance sera mesurée à l'aide de faisceaux laser que les satellites s'échangeront. L'utilisation de laser répond à une logique : la vitesse de la lumière est indépendante du champ gravitationnel et est toujours la même. En utilisant le laser, on s'assure donc que la règle de mesure ne change pas en même temps que les distances que l'on cherche à évaluer.

La détection de ces ondes gravitationnelles reste cependant techniquement délicate. Les variations de distance induites par leur passage étant minuscules, beaucoup d'autres sources de perturbations peuvent masquer la mesure. En particulier, il faut s'assurer que les satellites soient tout le temps en chute libre. C'est là le principal défi de la mission : être capable de mettre en orbite des satellites dont la trajectoire est suffisamment proche d'une géodésique, ce qui équivaut à être soumis uniquement à la gravité.
Un objet dans l'espace est soumis à bien d'autres influences que la gravité. Ainsi, un satellite en orbite autour du Soleil ou de la Terre, subit, entre autres, la pression de radiation (*) du Soleil, ce qui le dévie de sa trajectoire géodésique. Les particules du rayonnement cosmique modifient également la charge électrique du satellite. Couplée au champ magnétique environnant, cette charge perturbe le mouvement du satellite. Afin de détecter des ondes gravitationnelles, il est donc nécessaire de mettre en orbite une « sonde gravitationnelle », qui devra rester insensible à tout autre effet.
On le voit, les défis technologiques de la mission eLisa sont nombreux : mesurer des distances infimes, contrôler les influences extérieures afin que les satellites restent bien sur une géodésique. C'est pourquoi, avant de se lancer dans une telle mission, les chercheurs ont décidé de s'entraîner sur un démonstrateur. C'est l'objectif de Lisa Pathfinder, conçu par la communauté eLisa dans le cadre des programmes spatiaux
de l'ESA. Ce satellite devra faire la preuve de sa précision afin d'aborder le projet eLisa
avec confiance.

UN MODÈLE TRÈS RÉDUIT
Lisa Pathfinder est un satellite de près de 2 tonnes. Il sera mis en orbite héliocentrique autour du point de Lagrange L1(*), un point d'équilibre situé entre la Terre et le Soleil. Le coeur du satellite comporte deux cubes de 5 centimètres de côté, alliage d'or et de platine, qui constituent ce qu'on appelle les masses d'épreuve, placées à environ 30 centimètres l'une de l'autre. Chaque masse d'épreuve est dans une enceinte à vide sans contact mécanique avec les parois. Des actuateurs et des senseurs électrostatiques permettent de déplacer ces masses et de déterminer leur position et leur orientation. Ces mesures électrostatiques sont complétées, sur l'axe joignant les deux masses d'épreuve, par un système d'interférométrie laser (*) de très grande précision.
Sur les faces extérieures du satellite, 6 micropropulseurs à gaz froid (azote) contrôlent son mouvement en s'assurant qu'une des deux masses d'épreuve est en permanence au centre de son enceinte. Il s'agit de l'élément le plus délicat de Lisa Pathfinder, car il garantit que cette masse d'épreuve est bien maintenue en chute libre, exempte de toute autre influence.

Les actuateurs électrostatiques de l'autre masse d'épreuve ont pour objectif de la maintenir au centre de son enceinte durant plusieurs milliers de secondes. Sur des intervalles de temps plus courts, cette masse d'épreuve est autorisée à évoluer librement et sera donc également en chute libre. Les deux masses d'épreuve étant placées au sein du satellite, il est également primordial que les forces gravitationnelles propres à Lisa Pathfinder ne les fassent pas dériver. Pour cela, la répartition des masses au sein du satellite est très précisément connue afin d'évaluer et de minimiser le champ gravitationnel résiduel au niveau des masses d'épreuve, grâce à des masses judicieusement positionnées. Avec une telle configuration, Lisa Pathfinder représente un modèle, très réduit, de deux satellites de eLisa !
L'objectif principal de Lisa Pathfinder est de mesurer, grâce au système interférométrique laser, la distance entre les deux masses d'épreuve et de démontrer que leur accélération relative est compatible avec les exigences du programme scientifique de eLisa. Ce programme impose donc les performances que le satellite doit démontrer en vol (lire p. 78).
Lisa Pathfinder doit être lancée le 2 décembre. Afin de parvenir à son point de destination, le satellite subira une série de poussées lui conférant des orbites de plus en plus elliptiques autour de la Terre. Une dernière poussée libérera le satellite de l'attraction terrestre qui rejoindra alors le point L1. Ce voyage, qui durera trois mois, se terminera par le largage du moteur principal et une mise en orbite autour de L1.

TROIS MISSIONS D'ENVERGURE
Une fois sa position atteinte, six mois seront consacrés à la mesure des performances de Lisa Pathfinder et à des améliorations. Lisa Pathfinder est un instrument complexe et les équipes de physiciens travaillent depuis plus de dix ans à comprendre son fonctionnement détaillé afin d'améliorer, en vol, la qualité de ses mesures. Ces équipes de physiciens, provenant de nombreux pays européens et des États-Unis, ont mis au point et répété ces procédures d'optimisation lors de plus d'une vingtaine d'exercices au sol, en utilisant de nombreux simulateurs provenant de la communauté scientifique, des industriels participants et de l'ESA (1). Ces exercices ont lieu aussi bien dans les centres de l'ESA que dans les laboratoires des pays participants dont le laboratoire astrophysique particules cosmologie, à l'université Paris-Diderot. En se fondant sur ces exercices et sur les mesures en laboratoire, la communauté a bon espoir que les performances attendues soient non seulement atteintes mais probablement dépassées.

La mission eLisa n'est pas encore certaine de voir le jour. Dans le cadre de son programme de « grandes missions », l'ESA a en effet prévu trois missions d'envergure. Les deux premières devraient partir vers 2022 et 2028 pour explorer les principaux satellites de Jupiter (Juice), et pour observer le ciel dans les domaines des rayons X (Athena). La troisième mission n'a pas encore été sélectionnée, mais son thème sera « l'Univers gravitationnel » avec un lancement au plus tard en 2034. La sélection définitive de cette troisième mission devrait intervenir d'ici à la fin de la présente décennie. La réussite attendue du démonstrateur devrait faire pencher la balance en sa faveur, en validant le concept de mission proposé par la communauté eLisa. Cette dernière pourra alors se consacrer à sa construction et à l'analyse de ses futurs résultats. Il faudra attendre encore quelques années avant d'être fixés, mais pour un objectif aussi ambitieux que celui d'ouvrir une nouvelle fenêtre astronomique - gravitationnelle - sur l'Univers, la patience est de rigueur.

(*) Une étoile à neutrons est un astre très dense et de quelques kilomètres de diamètre composé de neutrons maintenus ensemble par la gravitation.
(*) La pression de radiation est la pression exercée par le rayonnement du Soleil sur le satellite.
(*) Les points de Lagrange , au nombre de 5, sont les points d'équilibre du système Terre-Soleil. Situé entre ces deux astres, le point L1 est à environ 1,5 million de kilomètres de la Terre.
(*) L'interférométrie laser est un système de mesure de distance très précis fondé sur l'interférence de deux rayons laser ; une modification de distance des sources modifie la figure d'interférence observée.
REPÈRES
- Les astronomes envisagent pour les années 2030 un observatoire spatial d'ondes gravitationnelles.
- Pour convaincre de la faisabilité de ce type d'observatoire, complètement novateur, le satellite Lisa Pathfinder sera lancé en décembre.
- La trajectoire de masses en chute libre y sera suivie avec précision.

À LIRE AUSSI
« L'ESPOIR DE VOIR BOUGER L'ESPACE-TEMPS », dans le hors-série n° 16 de La Recherche, en vente à partir du 10 décembre.
LES CINQ PERFORMANCES À ATTEINDRE
Pour que la mission Lisa Pathfinder soit un succès et que l'on puisse envisager un détecteur spatial d'ondes gravitationnelles, le satellite devra accomplir plusieurs performances.

1. Maintenir les deux masses d'épreuve (des cubes de 5 centimètres de côté) situées à l'intérieur du satellite en chute libre pendant environ 1 000 secondes avec des perturbations n'excédant pas un millionième de milliardième de la gravité terrestre.
2. Mesurer la position des deux masses d'épreuve avec une précision meilleure que quelques picomètres (10-12 mètre).
3. Vérifier que le système de micropropulseurs est capable de maintenir les deux masses d'épreuve en chute libre et que le système de contrôle fonctionne avec la précision nécessaire.
4. Maintenir une stabilité thermique et électromagnétique de l'environnement des deux masses d'épreuve compatibles avec les exigences ci-dessus.
5. Maintenir les masses d'épreuve électriquement neutres en éliminant, grâce à des lampes à ultraviolets, les charges parasites déposées par les rayons cosmiques.

 

  DOCUMENT      larecherche        LIEN  

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google