ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

HORLOGE

 


 

 

 

 

 

horloge

(latin horologium, du grec hôrologion, de hôra, heure, et legein, dire)

Consulter aussi dans le dictionnaire : horloge
Appareil horaire fixe, de grandes dimensions, possédant un dispositif d'indication de l'heure sur un cadran, et souvent un dispositif de sonnerie des heures et des demi-heures. (→ comtoise.)
Il est difficile de dater avec précision l'apparition de l'horlogerie mécanique : c'est en 996 que le moine Gerbert d'Aurillac, futur pape Sylvestre II, aurait inventé l'horloge à poids, à moins que ce ne soit Guillaume de Hirschau en 1091, à Cluny, ou encore d'anonymes Italiens du xive s. Il est certain que les premiers essais d'horloges mécaniques – elles étaient constituées d'une corde enroulée sur un tambour et lestée d'un objet pesant – ne donnèrent pas de résultats probants, car le mouvement du poids doit se faire à vitesse constante. Des horloges mécaniques seront construites et installées dans des clochers un peu avant l'an 1300, mais leur fonctionnement posa sans doute de nombreux problèmes.

UNE INVENTION DÉTERMINANTE : LE FOLIOT

Il fallait associer au simple treuil des premières horloges un dispositif régulateur du mouvement, l'échappement. Ce n'est qu'au début du xive s. qu'apparaîtra le premier régulateur, le foliot, dont l'histoire de la mise au point est encore totalement inconnue. On sait seulement que le physicien et astronome italien Giovanni Dondi construisit, de 1344 à 1350, une horloge à poids et foliot pour la ville de Padoue. Le principe en est simple : il s'agit d'arrêter le mouvement du mécanisme pendant un laps de temps très court et à intervalles réguliers, de sorte que sa vitesse moyenne soit suffisamment ralentie, et surtout constante.
Dans une horloge de ce type, le foliot est lancé à droite et à gauche par une roue dentée, la roue de rencontre – entraînée par un poids –, qui agit sur deux palettes portées par l'axe du système, la verge. Lorsqu'une de ces palettes est en appui contre une dent de la roue de rencontre, elle arrête son mouvement ainsi que celui de l'ensemble du mécanisme, mais elle est repoussée par la dent en sens inverse, qui est alors libérée ; à son tour, l'autre palette entre en contact avec une dent diamétralement opposée et immobilise la roue. Le processus, qui se répète ainsi, régulé par le mouvement de rotation alternatif de la verge et du foliot, dépend des frottements de l'axe dans ses pivots et de l'inertie du foliot. Des masselottes, ou régules, peuvent être déplacées aux extrémités de ce dernier afin d'ajuster le mouvement de l'ensemble.

Cependant, la maîtrise approximative des différents paramètres et l'état d'imperfection du dispositif ne permettaient pas d'obtenir un mouvement précis : le battement étant d'autant plus rapide que le poids est lourd, le foliot fonctionnait plus comme un ralentisseur de la chute du poids que comme un régulateur. Néanmoins, il est toujours considéré comme une invention de génie, car c'est le premier mécanisme d'échappement de l'histoire de l'horlogerie.
Ces premières horloges mécaniques sont surveillées en permanence par un « horlogeur », chargé de remonter les poids, de chauffer l'huile en hiver, et de les remettre à l'heure solaire du lieu à l'aide de clepsydres et de cadrans solaires. Le cadran, apparu vers la fin du xve s., ne possède qu'une aiguille – cette indication est largement suffisante, compte tenu de la précision de ces instruments. L'aiguille des minutes n'apparaîtra qu'à la fin du xviie s.

PRÉMICES DE L'INDUSTRIE HORLOGÈRE
Au début installées uniquement dans les clochers et les beffrois, les horloges se répandent vers la fin du xve s. dans les châteaux et les demeures bourgeoises : plus fiables et plus petites, elles n'ont plus besoin d'un serveur permanent.
Les horlogers du Moyen Âge sont tout à la fois des astronomes, des astrologues, des forgerons, des serruriers et des armuriers. La recherche d'une précision toujours meilleure de leurs horloges les conduit à inventer les premières machines-outils, qui seront ensuite utilisées en armurerie, en serrurerie et dans l'industrie textile : les tours à fileter, les machines à fraiser et à tailler les roues dentées apparaissent au xvie s. À cette époque, il n'y avait dans l'ensemble de l'Europe qu'une centaine d'horlogers ; à partir de 1550 les premières corporations voient le jour, qui ne regroupent qu'une quinzaine de spécialités.
L'horlogerie est alors une activité de pointe qui va bientôt donner naissance à une véritable industrie. Les fabriques horlogères vont se concentrer dans les régions où le commerce est actif et où existent des ressources en matières premières : l'Angleterre, l'Allemagne (Forêt-Noire) ou l'Italie du Nord, puis dans des cités comme Blois – François Ier fait installer un atelier d'horlogerie dans son château –, Paris, Genève, Amsterdam et Londres.

HORLOGE ATOMIQUE
Une horloge moléculaire ou atomique est une horloge de haute précision fonctionnant à partir de molécules d'ammoniac, d'atomes de césium, de rubidium, d'hydrogène, dont les vibrations servent d'étalon de temps.
Un atome isolé peut absorber ou émettre des signaux électromagnétiques dont la fréquence, quantifiée, est uniquement définie par les interactions fondamentales entre le noyau et les électrons. Comme ces interactions fondamentales sont supposées être invariantes au cours du temps, les fréquences de résonance atomiques sont intrinsèquement stables. Un ou plusieurs atomes de même espèce peuvent dès lors constituer une référence de fréquence (ou de période) et donc une référence de temps.

Depuis 1967, une résonance de l'atome de césium définit l'unité de temps, la seconde.

Dans une horloge atomique, la résonance des atomes est excitée par un signal électromagnétique fourni par un oscillateur externe (oscillateur à quartz, laser…). Soumis à ce signal, l'atome peut absorber un photon, avec une probabilité qui dépend de l'écart entre la fréquence du signal et la fréquence de résonance atomique. La probabilité devient maximale lorsque les deux fréquences coïncident. Comme il est relativement facile de mesurer la proportion d'atomes ayant absorbé un photon, on obtient une information qui représente l'écart entre les deux fréquences. Cette information est alors utilisée pour corriger la fréquence de l'oscillateur et la maintenir constamment égale à la fréquence de résonance atomique. L'oscillateur externe fournit dès lors un signal périodique ultrastable qui peut définir une référence de temps. En 2005, les meilleures horloges atomiques, les fontaines atomiques à césium de l'Observatoire de Paris, atteignent une exactitude de 6.10−16 en valeur relative, soit une erreur de 1 seconde en 50 millions d'années.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…

    
A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?

Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

    
Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Les ondes lectromagntiques dans le domaine de la communication

 



 

 

 

 

 

Les ondes électromagnétiques dans le domaine de la communication

Publié le 31 mai 2018

Qu’est-ce qu’une onde électromagnétique ? Quelles sont les ondes qui nous permettent de communiquer quasi instantanément d’un bout à l’autre du monde ? En quoi les ondes radio jouent-elles un rôle fondamental dans les télécommunications ? Comment fonctionne un système mobile sans fil ? Quelles sont les différentes générations de réseaux mobiles ? Quels sont les enjeux et promesses de la 5G ? L’essentiel sur… les ondes électromagnétiques utilisées dans le domaine de la communication.
QU’EST-CE QU’UNE ONDE ÉLECTROMAGNÉTIQUE ?
Une onde électromagnétique est une catégorie d’ondes qui peut se déplacer dans un milieu de propagation comme le vide ou l’air, avec une vitesse avoisinant celle de la lumière, soit près de 300 000 kilomètres par seconde. Ces ondes sont par exemple produites par des charges électriques en mouvement. Elles correspondent aux oscillations couplées d’un champ électrique et d’un champ magnétique, dont les amplitudes varient de façon sinusoïdale au cours du temps.


Les ondes électromagnétiques transportent de l’énergie mais elles sont aussi capables de transporter de l’information. C’est pourquoi elles sont utilisées dans le domaine de la communication.
Concrètement, les ondes électromagnétiques servent à faire fonctionner les smartphones, les postes de radio, ou encore sont utilisées pour faire des radiographies du corps humain.  De même, la lumière visible est une onde électromagnétique ; elle nous permet de voir les couleurs.
Ces différentes ondes électromagnétiques se différencient et sont caractérisées par leur fréquence, c’est-à-dire le nombre d’oscillations en une seconde. La fréquence est exprimée en Hertz. Une autre caractéristique des ondes électromagnétiques est la longueur d’onde, c’est-à-dire la distance qui sépare deux oscillations de l'onde. Elle est inversement proportionnelle à la fréquence.
Les ondes électromagnétiques sont classées en fonction de leur fréquence dans ce que l’on appelle le « spectre électromagnétique ».


Dans l’ordre des longueurs d’ondes croissantes, on trouve :

Longueur d’onde (mètre)    Fréquence (Hertz)    Catégorie d'onde électromagnétique
< 10 picomètres (ie 1 000 milliards de fois plus petit qu’un mètre)    30 x 1018 Hz    Les rayons gamma, produits par des transitions nucléaires
10 picomètres – 10 nanomètres (ie 1 000 millions de fois plus petit qu’un mètre)    30 x 1018 – 30x1015 Hz    Les rayons X, qui permettent de faire des radiographies  du corps humain
10 nanomètres – 400 nanomètres    30x1015 - 750x1012 Hz    Les rayons ultra-violet (UV), qui proviennent majoritairement du Soleil et sont responsables par exemple du bronzage ou des coups de soleil.
400 – 800 nanomètres    750x1012 – 375x1012 Hz    La lumière visible avec toutes les couleurs de l’arc-en-ciel.
800 nanomètres – 0,1 millimètre    375x1012 – 3x1012 Hz    Les rayons infrarouges, qui captent la chaleur des objets, de l’environnement.
1 millimètre - 30 kilomètres    300x109Hz - 10Hz    Les ondes radio, responsables des moyens de télécommunications qu’on connaît aujourd’hui : les radars et satellites, le réseau Wi-Fi, le téléphone portable, la télévision hertzienne et la radio.


L’HISTOIRE DES SYSTÈMES ET RÉSEAUX
DE TÉLÉCOMMUNICATION
L’histoire des télécommunications commence en 1794, quand Claude Chappe met au point le télégraphe optique. Deux tours d’observations éloignées de plusieurs dizaines de kilomètres s’échangent des messages codés par les différentes positions d’un bras articulé placé en haut de la tour.
Il faudra attendre la fin du 19e siècle et la découverte de l’existence des ondes électromagnétiques par le physicien allemand Heinrich Hertz pour que se développe la transmission d’informations sans fil.
Depuis vingt ans, nous sommes entrés dans un monde où tout devient sans fil. Après la radio et la télévision, le téléphone a d’abord lâché son fil à la maison pour devenir mobile, nos ordinateurs communiquent aujourd’hui via le wi-fi. Début 2018, le monde compte plus de 4 milliards d’utilisateurs d’Internet et plusieurs millions de mails sont envoyés chaque seconde. Et ce n’est pas fini ! L’Internet des Objets se développe, et part à l’assaut de nouveaux secteurs comme la domotique, la santé connectée, l’usine du futur et les véhicules autonomes.
Le réseau 5G qui devrait être disponible en France vers 2020 connectera toujours plus d’objets sans fil, avec un meilleur débit et plus de rapidité. A la clé : une plus grande fiabilité de transmission.

Vidéo
L'histoire des systèmes et réseaux de télécommunications
SD    <div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     



LE PRINCIPE DE FONCTIONNEMENT
DE LA RADIO
Les ondes radio, qui servent à transmettre des informations, ont des fréquences comprises entre quelques kilos Hertz et 300 giga Hertz, c’est-à-dire 300 milliards d’oscillations par seconde.

Parmi les ondes qui passent par les postes de radio, on trouve :

*         La radio AM avec une fréquence de 106Hz et une portée de plusieurs centaines de kilomètres, autrefois très utilisée.
*         La radio FM avec une fréquence de 108Hz et une portée de quelques dizaines de kilomètres. La radio FM est la plus écoutée aujourd’hui.

Les antennes permettent de rayonner les ondes radio se propageant dans l’air. Pour diffuser une émission de radio par exemple, la voix de l'animateur est transformée en signal électrique par le micro. Ce signal électrique oscille au même rythme que la voix, on dit qu'ils ont la même fréquence. Cependant, cette fréquence est beaucoup trop basse pour que le signal soit transmis sous forme d'onde électromagnétique. Il est donc nécessaire de fabriquer un signal électrique alternatif à très haute fréquence transmis à l’antenne pour qu'elle émette d'abord une onde porteuse. Pour transporter la voix par exemple, il faut alors mélanger notre signal électrique de basse fréquence, celui qui correspond à la voix de l’animateur, au signal électrique de haute fréquence.

Il existe par exemple deux façons de faire :

*         Pour la radio AM, on change l’amplitude, c’est à dire la hauteur des oscillations du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en amplitude.
*        
*         Pour la radio FM, on change la fréquence, c’est à dire le nombre d’oscillations par secondes du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en fréquence. La modulation en fréquence est beaucoup plus fiable ; il y aura moins de grésillements qu'avec la modulation d'amplitude.

Dans les deux cas, l’antenne émet une onde électromagnétique modulée qui se propage jusqu'à une antenne réceptrice, comme celle intégrée dans les postes de radio. Ensuite, elle fait le travail inverse de l'antenne émettrice : elle transforme l'onde électromagnétique en signal électrique, ce dernier est démodulé, soit en amplitude soit en fréquence, puis amplifié et transformé en son par les enceintes.
Vidéo
Qu'est-ce qu'une onde électromagnétique ?
SD    <div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>    VOIR DANS LA MÉDIATHÈQUE     


COMMENT FONCTIONNE UN SYSTÈME MOBILE SANS FIL ?

Pour que nos fichiers ou SMS puissent parvenir jusqu’à leur destinataire, l’information à envoyer est d’abord codée en langage binaire (combinaisons de zéro et un) puis présentée en entrée de la carte électronique de l’émetteur du système de communication sans fil, par exemple un téléphone.

Ensuite, le signal numérique correspondant au message binaire est transformé en signal analogique à haute fréquence (fréquences radio). Ce dernier est envoyé à une antenne, qui se met alors à rayonner une onde électromagnétique se propageant dans l’air pour atteindre l’antenne relais la plus proche. L'onde est ensuite encore transformée en signal électrique, pour être transmise via des câbles ou des fibres optiques sur de très grandes distances, jusqu’à enfin atteindre l’antenne relais la plus proche du destinataire. Le processus de réception est le même que celui d’envoi, en inversé. La carte électronique du système de communication du récepteur décode le langage binaire pour afficher le SMS, l’image ou bien la vidéo.




LES DIFFÉRENTES GÉNÉRATIONS
DE RÉSEAUX MOBILES
De la 2G à la 5G
La fin des années 1990 sonne le début de l’ère des téléphones portables, le réseau dit « 2G » (ou GSM) est lancé. Il permet de transmettre la voix mais aussi des données numériques comme les SMS ou des messages multimédias, avec du contenu léger (MMS). Les réseaux GPRS et EDGE offrent un accès à Internet mais avec un débit très bas.

La 3G se commercialise au début des années 2000. Le débit est alors plus rapide que pour la 2G et les téléphones peuvent alors accéder à Internet beaucoup plus rapidement, même en mouvement.


En 2012, la 4G fait son arrivée en France, le débit maximal est multiplié par 100, ce qui permet le développement des objets connectés et des réseaux sociaux.

Le réseau 5G est prévu pour être disponible vers 2020. Il constituera une véritable rupture technologique, présentant de nombreuses innovations.
Il aura un débit 50 fois plus important que la 4G et le temps
d’acheminement des données sera beaucoup plus court qu’actuellement (jusqu’à 1ms, contre 10ms). La 5G pourra occuper des bandes de fréquence entre 800MHz et 56GHz. Les fréquences les plus hautes appartiennent au domaine des ondes millimétriques (allant de 30 à 300 GHz).
A ces fréquences-ci, l’atténuation des ondes avec la distance parcourue est plus importante mais les antennes sont plus petites que celles utilisées pour la 4G. Dans un même espace, il sera donc possible d'en associer beaucoup plus pour augmenter la puissance reçue (ou émise) dans certaines directions et ainsi, suivre plusieurs utilisateurs mobiles tout en limitant les interférences.

Le développement d’applications telles que les voitures autonomes ou les objets connectés devrait être facilité par la 5G.

 

 DOCUMENT     cea         LIEN

 
 
 
 

LA MICROLECTRONIQUE L'histoire de la microlectronique

 

 

 

 

 

 

 

LA MICROÉLECTRONIQUE
L'histoire de la microélectronique


En un siècle, la miniaturisation a permis le passage du tube à vide au transistor sur matériau solide d'un micromètre carré. Parallèlement, le passage du signal analogique (à variation continue) au signal numérique (codé en une succession de 0 et de 1) a facilité le développement de circuits électroniques aux fonctions de plus en plus performantes.

Publié le 18 octobre 2018
 
NAISSANCE DES COMPOSANTS
De la résistance au transistor, du circuit intégré simple au microprocesseur complexe en passant par les convertisseurs ou les diodes électroluminescentes… les composants de la microélectronique sont nombreux et remplissent des fonctions variées.

De la diode à la triode
En 1904, John Alexandre Fleming, ingénieur anglais, invente la diode, un dispositif sous vide comprenant un filament émetteur d’électrons et une plaque, collectrice d’électrons lorsqu’elle est polarisée positivement. Ce dispositif laisse passer le courant électrique dans un seul sens et le bloque dans l’autre. Il suffit de faire varier la tension (positive ou négative) de la plaque pour permettre ou interrompre le passage du courant.

Ce premier dispositif est utilisé dans les postes de radio. Il existe de nombreuses variétés de diodes, selon les propriétés des matériaux utilisés. Les diodes électroluminescentes (Leds) sont désormais largement utilisées pour produire de la lumière en consommant très peu d’énergie.

En 1907, Lee de Forest, chercheur américain, améliore le principe en inventant la triode dans laquelle une grille est ajoutée entre le filament et la plaque. C’est le premier système amplificateur d'un signal électronique. Elle se compose d’une cathode  semi-conductrice à chaud, émettrice d’électrons, d’une anode  réceptrice, et d’une grille positionnée entre les deux. Celle-ci joue le rôle de « modulateur d’électrons » : selon sa polarisation, elle les bloque ou accélère leur passage (amplification du courant).

Dans les années 40, les triodes et autres tubes à vide sont utilisés dans les tout premiers ordinateurs. Plus les calculs à effectuer sont complexes, plus le besoin de tubes à vide est grand. Or, ceux-ci sont volumineux, chauffent beaucoup et « claquent » facilement. Ce manque de fiabilité freine le développement de l'informatique.

L'ère du transistor

En 1948, John Bardeen, Walter Brattain et William Shockley, trois physiciens américains, inventent le transistor bipolaire et ouvrent ainsi l'ère de la microélectronique. Il comprend un émetteur d'électrons, un collecteur et un dispositif de modulation appelé base. Le déplacement des électrons ne s'effectue plus dans le vide mais dans un matériau solide, semi-conducteur, qui permet de contrôler le courant électrique (l'interrompre, l'amplifier ou le moduler). Ce transistor a supplanté rapidement le tube électronique : démarrant quasi instantanément, sans temps de chauffe, beaucoup plus petit et léger. Les transistors sont réalisés directement à la surface du silicium, leurs connexions sont fabriquées par dépôt de couches métalliques. Ils ont pu être fabriqués industriellement dès les années 50. Rapidement, leur taille va passer de celle d'un dé à celle d'un grain de sel !

Circuit imprimé et circuit intégré
Un circuit est un assemblage de composants. Il est appelé « circuit imprimé » lorsqu'il est fabriqué par dépôts de matériaux conducteurs sur des matériaux isolants (exemple : du cuivre  sur l'époxy) comme dans le cas de la carte mère des ordinateurs. Il est appelé « circuit intégré » lorsqu'il rassemble, plusieurs composants permettant de réaliser différentes fonctions. Dans les années 70, une technologie est développée permettant de réaliser des transistors qui consomment moins et de faciliter l'intégration de composants passifs (résistances, capacités) sortant des circuits intégrés. La taille des circuits augmente régulièrement ainsi que celle des plaques de silicium, qui passent de 200 à 300 mm de diamètre. Dans le même temps, la taille des transistors diminue.
Ils peuvent être gravés dans du silicium massif ou sur une couche mince de quelques centaines de nanomètres déposée sur un isolant ; le SOI (silicium sur isolant) permet de réaliser des circuits plus rapides et moins gourmands en énergie.

Le tout sur une puce
Cette petite pastille de silicium supporte un circuit intégré. L'accroissement exponentiel du nombre de transistors par puce, aussi appelé « loi de Moore », a entraîné une nouvelle révolution industrielle, en liaison avec le développement des logiciels et des communications.  Début des années 2000, un microprocesseur (le circuit intégré le plus complexe) est une puce en silicium d'environ 2,5 cm de côté. Il peut comporter plusieurs centaines de millions de composants. Il est enfermé dans un boîtier protecteur muni de « pattes » (d'où le nom de « puce ») pour assurer les connexions avec les autres organes de l'appareil dans lequel il s'insère.

DES COMPOSANTS À MATURITÉ
L'omniprésence des CMOS et du FDSOI
Les premiers dispositifs MOS (Metal Oxide Semiconductor) apparaissent dans les années 60. Aujourd'hui, le transistor MOS constitue, grâce à sa simplicité de fabrication et à ses dimensions réduites, l'élément fondamental des circuits intégrés numériques.
Le développement des composants CMOS (Complementary Metal Oxide Semiconductor) industriels a été rendu possible par les progrès enregistrés dans le domaine des transistors bipolaires, en particulier la résolution des problèmes d'interface oxyde-semiconducteur. Sur un substrat de silicium faiblement dopé , un circuit CMOS est constitué de transistors nMOS et pMOS, placés de manière symétrique et interconnectés par des fils métalliques. Chaque transistor MOS ayant la même fonction, l'un est passant tandis que l'autre est bloquant, ils sont complémentaires.  

COMMENT FONCTIONNE UN TRANSISTOR MOS ?
Un transistor MOS comprend une source et un drain, entre lesquels les électrons peuvent circuler via un canal de conduction. Ce canal fonctionne comme un interrupteur, en fonction de la charge électrique de la grille. Selon la polarité de cette grille, le canal de conduction est ouvert ou fermé. La performance du transistor dépend principalement de la taille de la grille : plus celle-ci est petite, moins les électrons ont de chemin à parcourir dans le canal, plus le système est rapide.


Dans la technologie FDSOI (Fully Depleted - Silicium On Insulator ou Transistor entièrement deplété sur silicium sur isolant), une très fine tranche de silicium est collée sur une fine couche d'oxyde de silicium isolant. Le substrat de silicium ne nécessite plus d'être dopé. Les performances du transistor sont augmentées en appliquant une tension sur sa face arrière. La combinaison de cette tension et de la couche d'isolant agit alors comme une seconde grille.


En fonction des tensions relatives appliquées sur les faces avant et arrière du transistor, ses propriétés peuvent être modifiées et améliorées : il est soit très peu gourmand en énergie (30 à 40 % moins énergivore), soit très rapide (25 % plus rapide). Le FDSOI équipe déjà des téléphones et des montres intelligentes et s'annonce incontournable pour l'électronique mobile, la voiture autonome ou encore l'Internet des objets. Le CEA-Leti développe aujourd'hui encore de nouveaux substrats et composants FDSOI. Il étudie également des structures de transistors originales comme le transistor SET (Single Electron Transistor) ou les transistors à nanofils de semi-conducteurs.


ZOOM SUR LA LOI DE MOORE
Des composants de plus en plus petits, de moins en moins chers.

Durant les années 70, Gordon Moore, un des cofondateurs de la société Intel et inventeur du premier microprocesseur (Intel 4004, en 1971), prédit le doublement de la densité des puces électroniques tous les deux ans. Depuis cette époque, chercheurs et industriels de la microélectronique suivent donc scrupuleusement une « feuille de route » qui établit avec précision des objectifs de réduction de taille des transistors. Les progrès constants qu'ils ont réalisés, associés à une production massive, ont permis de réduire radicalement les coûts des composants microélectroniques et donc de tous les produits qui y ont recours : ordinateurs, smartphones, téléviseurs, caméras, appareils photos... Cette loi, qui prévoyait une miniaturisation continue, touche néanmoins à sa fin et laisse place au « More than Moore », une approche axée sur les fonctions (par exemple électro-optiques ou électromécaniques), et au « beyond CMOS » qui explore les propriétés de nouveaux matériaux, de nouvelles structures de transistors, d'architectures de circuits, ou de modes de fabrication.

 

 DOCUMENT     cea         LIEN

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google