ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

GORBATCHEV

 

Mikhaïl Sergueïevitch Gorbatchev
Mikhaïl Gorbatchev, 1988

Mikhaïl Gorbatchev, 1988Démission de Mikhaïl Gorbatchev, décembre 1991
Homme d'État russe (Privolnoïe, territoire de Stavropol, 1931).
Premier secrétaire du territoire de Stavropol de 1970 à 1978, il entre à cette date au secrétariat du Comité central du parti communiste de l'Union soviétique (PCUS), où il est chargé de l'agriculture. Élu membre du Bureau politique en 1980, il devient, après la mort de Konstantine Tchernenko, en mars 1985, secrétaire général du PCUS. À partir d'octobre 1988, il cumule cette fonction avec la présidence du Praesidium du Soviet suprême. En mars 1990, il est élu président de l'URSS par le Congrès des députés du peuple. Soulignant, dès son arrivée au pouvoir, la nécessité pour son pays d'un tournant décisif et dénonçant la stagnation (zastoï) et le dogmatisme de la période brejnévienne, M. Gorbatchev lance une série de réformes qui visent à la restructuration (perestroïka) de la société, à la réforme de l'économie, à la transparence (glasnost) et à la démocratisation.
Pour en savoir plus, voir les articles glasnost, perestroïka.
En politique extérieure, il inaugure un style dynamique et médiatique, multipliant les appels au désarmement. Lors du sommet de Washington (décembre 1987), il signe avec Donald Reagan un accord sur l'élimination des missiles à moyenne portée en Europe. Il ne s'oppose pas aux changements qui affectent l'Europe de l'Est depuis la fin de 1989 et accepte l'unification de l'Allemagne (traité de Moscou, septembre 1990). Perçu par de nombreux Occidentaux comme le libérateur de l'Europe de l'Est, le champion du désarmement et l'initiateur d'une révolution non violente, il se voit attribuer le prix Nobel de la paix en 1990. Au même moment, la situation économique désastreuse, la montée des tensions interethniques et des revendications indépendantistes des républiques conduisent M. Gorbatchev à se rapprocher des conservateurs. Il apparaît dès lors à beaucoup de Soviétiques comme le représentant et le défenseur d'un système en faillite. En décembre 1990, M. Gorbatchev renforce ses pouvoirs présidentiels et s'entoure d'une nouvelle équipe conservatrice, qui tente de le renverser par un coup d'État (19-21 août 1991). L'échec de cette tentative de reprise en main provoque le démantèlement de l'URSS. Les réformateurs, avec à leur tête Boris Ieltsine, composent désormais la principale force politique. Rétabli dans ses fonctions, M. Gorbatchev démissionne du secrétariat du PCUS (24 août), qui est suspendu deux jours après. Plaidant pour la constitution d'une nouvelle Union d'États souverains qui garantisse le maintien d'un système commun de défense et d'échanges économiques, M. Gorbatchev se fait déposséder de tout pouvoir par les présidents des Républiques qui décident la disparition de l'URSS et la constitution, en décembre, d'une Communauté des États indépendants (CEI).
Sa participation à l'élection présidentielle de Russie en juin 1996, se solde par un grave échec avec moins de 1 % des voix.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

KHROUCHTCHEV

 

Nikita Sergueïevitch Khrouchtchev

Homme d'État soviétique (Kalinovka, province de Koursk, 1894-Moscou 1971).
Les origines

Né aux confins russo-ukrainiens, Nikita Khrouchtchev est d'origine modeste. Il ne reçoit pas d'éducation secondaire et passera pour ne pas savoir lire à l'âge de dix-sept ans. D'abord berger, il travaille ensuite comme ouvrier, puis comme mineur dans le bassin du Donets. En 1918, il entre dans la garde rouge de Iouzvka (aujourd'hui Donetsk) et rejoint le parti communiste.
Inscrit pendant trois ans aux cours de la faculté ouvrière, puis, de 1929 à 1931, à l'académie industrielle de Moscou, Khrouchtchev bénéficie des conditions de l'époque postrévolutionnaire, marquée par un recrutement intensif des cadres. Il suit la carrière d'un petit apparatchik (secrétaire de cellule, puis secrétaire de district) et se montre un fonctionnaire modeste et sérieux. L'époque des purges staliniennes crée de nombreux vides dans l'appareil du parti : il devient alors le protégé et l'adjoint, puis, en 1935, le successeur de Lazar Moisseïev Kaganovitch à la tête du parti communiste de la région de Moscou.
D'un premier mariage, il a une fille et un fils, qui mourra comme aviateur pendant la Seconde Guerre mondiale. D'un second mariage avec Nina Pretrovna, il aura un fils et une fille.
En 1938, Khrouchtchev devient secrétaire du comité central du parti communiste de la république d'Ukraine, où il applique la politique stalinienne d'épuration et de russification. Les services qu'il rend lui permettent de devenir suppléant au bureau politique du parti communiste de l'Union soviétique, puis membre titulaire en 1939. Il est alors pleinement stalinien et entonne avec les autres dirigeants les louanges du « phare et guide de l'humanité progressiste » (article de Khrouchtchev dans la Pravda de 1937).
La montée vers le pouvoir

Nikita Khrouchtchev, mars 1946Nikita Khrouchtchev, mars 1946
Après la conquête de l'Ukraine par l'Allemagne nazie, Khrouchtchev organise un groupe de partisans, devient général et remplit les fonctions de commissaire politique pendant la bataille de Stalingrad. Revenu à Kiev après la victoire contre l'Allemagne, il prend avec Kaganovitch la responsabilité de la reconstruction de la république d'Ukraine (1945 à 1949), puis il retourne à Moscou, où il réintègre le secrétariat du parti pour la capitale. Il devient alors secrétaire du comité central. En 1951, il se heurte à Malenkov en proposant le regroupement des kolkhoses : son projet est repoussé par la direction du parti.
Le 5 mars 1953, Staline meurt. Molotov, Beria et surtout Malenkov, l'adversaire de Khrouchtchev, sont les mieux placés pour la succession. Après une courte période où Beria exerce le pouvoir (il est destitué en juin, arrêté en juillet et exécuté le 23 décembre 1953), c'est Malenkov, président du Conseil des ministres d'U.R.S.S., qui devient le numéro un soviétique. Et, dès le 29 mars, Khrouchtchev a abandonné son poste à la section régionale moscovite pour se consacrer au secrétariat général du parti, alors que Malenkov a quitté sa place au comité central le 14. Khrouchtchev est désormais le maître de l'appareil du parti, alors que Malenkov tient l'appareil d'État. Or, l'expérience stalinienne a prouvé la suprématie de l'appareil du parti sur celui du gouvernement : les cadres du parti, exilés en province par la nouvelle direction officielle, deviennent les soutiens de Khrouchtchev. À la session de septembre du comité central, il devient premier secrétaire du parti communiste de l'U.R.S.S.
De la fin 1953 à 1955, Khrouchtchev renforce la puissance de l'appareil du parti. Il l'emporte ainsi sur Malenkov, qui démissionne en 1955 et est remplacé par N. A. Boulganine.
La déstalinisation et la politique intérieure

Khrouchtchev avait été un fidèle stalinien, et les débuts de la déstalinisation s'étaient faits contre lui : dès mars 1953, Beria annulait les dernières mesures de Staline. Malenkov mettait l'accent sur la production des biens de consommation, alors que Khrouchtchev restait fidèle à la doctrine stalinienne de priorité à l'industrie lourde.
Mais, arrivé au pouvoir, Khrouchtchev va être l'homme de la déstalinisation. Il a déjà critiqué, en septembre 1953, la politique agricole stalinienne. Mais c'est au XXe Congrès du parti communiste de l'Union soviétique, en présentant en séance secrète son rapport sur le culte de la personnalité et ses dangers, qu'il lance véritablement l'attaque (1956). Ce rapport est la première reconnaissance officielle de ce que recouvrait la dictature de Staline. L'ensemble des partis communistes se trouve d'un seul coup plongé dans un débat sans précédent. Il semble bien que ce soit vraiment la fin de l'ère stalinienne.
En Europe orientale, la critique du stalinisme déclenche la tempête. La révolte hongroise (1956) contraint l'U.R.S.S. à l'intervention armée, car la critique du stalinisme ne doit pas amener la fin de l'hégémonie soviétique. Le responsable du désordre est alors quelque peu mis à l'écart ; Molotov et Malenkov reprennent l'essentiel du pouvoir.
Mais, avec l'appui de certains partis communistes (dont le P. C. chinois), Khrouchtchev rétablit sa position. Il réorganise la vie intérieure de l'U.R.S.S., faisant sauter les verrous staliniens : il développe les biens de consommation, se fait l'apôtre de la croissance, du bien-être ; il préside à une refonte de l'administration, assouplissant la vieille machine stalinienne. Il lance une politique agricole ambitieuse de « conquête des terres vierges » (depuis 1954), qui sera un échec retentissant, contraignant pour de longues années l'U.R.S.S. à acheter du blé à l'Amérique du Nord. Enfin, il commence la conquête de l'espace (lancement du premier « Spoutnik » en octobre 1957) et allège les contraintes qui pèsent sur les intellectuels et les artistes (publication des œuvres de Soljenitsyne).
La coexistence pacifique

En juin 1957, les adversaires de Khrouchtchev, qui forment, réunis, la majorité au Praesidium du Comité central, tentent de l'éliminer. Khrouchtchev convoque alors le Comité central et fait condamner la majorité du Praesidium comme « groupe antiparti ». Le 27 mars 1958, il devient chef du gouvernement à la place de Boulganine. Pendant environ six années, son autorité bruyante et pleine d'imprévus sera incontestée.
Il lance alors une politique étrangère qui rompt totalement avec l'isolationnisme stalinien. Depuis 1948, la Yougoslavie a été exclue par Staline du camp socialiste. Dès mai 1955, Khrouchtchev s'est rendu à Belgrade. En 1955 et 1956 sont signées avec Tito les déclarations de Belgrade et de Moscou normalisant les rapports entre les deux pays. Mais Khrouchtchev, par un énergique ultimatum lors de l'expédition franco-anglaise contre Nasser (1956), a aussi montré sa force. Avec lui, l'U.R.S.S. s'implante dans le tiers-monde : au Proche-Orient, mais aussi à Cuba. En dépit de la crise permanente de Berlin (1953-1961), il multiplie les voyages à l'étranger, utilisant largement la télévision, répandant une nouvelle image de l'U.R.S.S. Il va aux États-Unis, où il remporte un immense succès, en Angleterre et en France. Il participe aux conférences au sommet à Genève (1955), à Paris (1960), à la session de l'O.N.U. en 1960, où il frappe sur la table avec son soulier, déclenchant un scandale. Il prend part à la conférence de Vienne en 1961. Au XXIIe Congrès du parti communiste de l'Union soviétique (1961), il renouvelle ses attaques contre Staline. En dépit d'une certaine remontée du néostalinisme dans l'appareil, sa position semble solide.

John Fitzgerald Kennedy, le 22 octobre 1962John Fitzgerald Kennedy, le 22 octobre 1962
Certes, la crise de Cuba en octobre 1962, où l'U.R.S.S. est obligée de reculer devant les États-Unis en enlevant ses fusées de l'île, porte un coup à son prestige. Mais, grâce à ses entretiens avec les présidents Kennedy et Johnson, Khrouchtchev peut continuer à se présenter comme l'artisan de la paix dans le monde par la coexistence pacifique. En 1963 est signé le traité sur la limitation des expériences nucléaires.
Depuis 1959, cependant, Khrouchtchev s'est brouillé avec la Chine : la critique de Staline (dont le corps est retiré du mausolée lors du XXIIe Congrès) et surtout la stratégie de coexistence pacifique, où la victoire du socialisme devient l'enjeu d'une concurrence économique avec le capitalisme, sont pour les Chinois le signe de l'abandon d'une position révolutionnaire. Khrouchtchev leur apparaît comme l'homme qui a renoncé à l'espoir d'une victoire du socialisme par le soutien aux révolutions.
La chute

De plus en plus coupé de la réalité russe (il s'absente longuement de Moscou), atteint par les échecs de la politique agricole et par la reculade de Cuba, Khrouchtchev est contraint en octobre 1964 de présenter sa démission de secrétaire général du parti communiste de l'Union soviétique et de président du Conseil. Dès lors, il vivra dans une retraite absolue.
Son activité brouillonne et contradictoire est alors ouvertement critiquée, ainsi que sa manière très personnelle d'exercer le pouvoir. Les libéraux lui reprochent d'avoir gâché les chances de la déstalinisation par les incohérences de sa politique. L'appareil du parti lui préfère des hommes plus effacés, Kossyguine et Brejnev. Il meurt le 11 septembre 1971, d'une maladie du cœur. Ses obsèques, discrètes, se déroulent en l'absence de tout représentant du parti.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

TLVISION

 

télévision
(anglais television)
Fonctionnement de la télévision en couleurs

Cet article fait partie du dossier consacré à l'information et du dossier consacré à la lumière.
Application de ce procédé pour la transmission au grand public de programmes visuels, avec les sons associés, ou dans le domaine industriel, scientifique, médical.
TECHNIQUE

La transmission des images et des sons

Le mot « télévision » évoque d'abord la diffusion d'émissions par ondes hertziennes ou leur distribution par câble. Or, cette technique permet aussi soit de visualiser instantanément une image sur un écran, soit de la transmettre à distance, soit encore de l'enregistrer sur une bande magnétique. La télévision trouve ainsi de nombreuses applications telles que la télésurveillance : surveillance à distance de travaux ou de manœuvres (plates-formes pétrolières en mer), de locaux (banques), d'espaces extérieurs (pistes d'aéroport), et la télécommunication : transmission d'images issues de milieux inaccessibles (certaines interventions chirurgicales, travaux effectués à des températures élevées ou sous atmosphère hostile), etc.
La chaîne d'opérations nécessaires à la radiodiffusion de la télévision doit assumer trois fonctions : la production (c'est-à-dire la fabrication) du programme, rôle dévolu au centre de production ; la diffusion vers les téléspectateurs, assurée soit par réseau terrestre, soit par satellite ; la réception, qui consiste à transformer l'onde hertzienne reçue en images et en sons.
Dates clés de la télévision

DATES CLÉS DE LA TÉLÉVISION
1926    Première démonstration de télévision en couleurs par le Britannique John Logie Baird.
1931    Le Français René Barthélemy fait la première démonstration publique de son système de télévision à 180 lignes.
1934    L'Américain Vladimir Zworykin présente son iconoscope, qui permet d'analyser une image selon un balayage de 450 lignes.
1937    Premier reportage télévisé en direct, lors de l'Exposition internationale, à Paris.
1938    Diffusion depuis la tour Eiffel d'émissions régulières de télévision (455 lignes).
1951    La Columbia Broadcasting System (CBS) fait à Paris une démonstration de télévision en couleurs.
1952    Retransmission dans cinq pays du couronnement de la reine d'Angleterre Élisabeth II.
1956    Présentation du magnétoscope par la société américaine Ampex.
Brevet du procédé de télévision en couleurs SECAM, mis au point par les Français Henri de France et Henri Peyrolles.
1962    Échange d'images entre les États-Unis et l'Europe par le satellite américain Telstar (première liaison transatlantique de télévision par satellite).
1969    Premiers pas de l'homme sur la Lune retransmis en direct en Mondovision.
1981    Première présentation d'un concept de télévision haute définition par les Japonais à San Francisco.
1991    Mise en service, au Japon, de la 1re chaîne de télévision à haute définition (Hi-Vision).
1994    Élaboration d'une norme internationale de compression des images animées (MPEG 2).
1997    Premiers bouquets diffusés par satellite.
 
Comment fonctionne la télévision hertzienne

Fonctionnement de la télévision en couleurs

Fonctionnement de la télévision en couleurs  DéviateurTélévision, tube image trichrome
Ce sont les limitations de la vision humaine qui ont conduit au système d'analyse et de synthèse d'une image. L'œil perçoit simultanément tous les points constituant une image. Or, il n'est pas possible de transmettre instantanément tous ces points ; la transmission ne peut être que séquentielle. Mais, à cause de la persistance rétinienne, l'œil ne peut distinguer deux illuminations successives espacées de moins de 1/20 de seconde. On fait donc se succéder pendant une seconde un nombre suffisant d'images (25 en Europe, 30 aux États-Unis et au Japon). Par ailleurs, l'œil ne peut pas séparer deux points dont la distance angulaire est inférieure à une minute, ce qui permet de limiter le nombre d'informations à transmettre. L'analyse de l'image s'effectue en lignes horizontales, au nombre de 625 en Europe et de 525 aux États-Unis et au Japon. Les signaux de synchronisation, ajoutés au signal d'image, sont de deux natures : les « tops lignes », pour le retour horizontal, et les « tops trames », pour le retour vertical.
Une image couleur est décomposée en trois images, respectivement rouge, verte et bleue. Les signaux correspondants R, V et B sont transformés en trois composantes, la luminance Y (dégradé du noir au blanc), pour être compatibles avec les récepteurs noir et blanc, et deux composantes de couleur R-Y et B-Y constituant la chrominance.
Ces composantes ont des caractéristiques différentes. En effet, l'œil est beaucoup plus sensible aux variations de luminance qu'aux variations de couleurs. Les bandes de fréquence nécessaires s'étendent de 0 à 6 MHz pour la luminance et de 0 à 1,5 MHz pour la chrominance. En production, deux solutions sont possibles : soit constituer un signal unique, dit « composite » (PAL [Phase Alternative Line], SECAM [système séquentiel à mémoire] ou NTSC [National Television System Committee]), soit conserver ces composantes séparées pour obtenir, après divers traitements, la meilleure qualité possible.
Le centre de production

Caméras

Caméra de télévision couleur
Le studio de production est constitué de deux parties. D'une part, le plateau, où se produisent les présentateurs, comédiens, chanteurs, dans des décors appropriés ; il est équipé des microphones et des caméras nécessaires à la prise de son et à la prise de vues. D'autre part, la régie, dans laquelle mélangeurs images et mélangeurs son servent à réaliser les mixages et les enchaînements des sources. Le mélangeur images traite soit des signaux composites (dans le système PAL), soit des signaux composantes (Y, R-Y, B-Y). Associé au mélangeur images, le truqueur numérique permet, après avoir mémorisé une image, de lui faire subir différents traitements : rotation, zoom avant ou arrière, renversement d'image, etc.
Les autres matériels sont regroupés dans une salle des équipements, climatisée en général. Les magnétoscopes reçoivent un signal vidéo soit en composite (PAL, SECAM) et enregistré sur une piste, soit en composantes enregistrées sur deux pistes, l'une pour la luminance Y, l'autre pour la chrominance (successivement R-Y et B-Y). Le second procédé, plus récent, évite les interférences entre luminance et chrominance. Le télécinéma sert à transformer l'image présente sur un film en un signal vidéo. La régie de postproduction comprend un pupitre de montage qui pilote deux (ou plusieurs) magnétoscopes en lecture et un en enregistrement afin de réaliser les enchaînements souhaités. On leur associe un truqueur numérique, un générateur de caractères (titres sur image) et une palette graphique, véritable outil électronique de dessins (certaines palettes peuvent réaliser des animations).
Tous les signaux transitent par le « nodal » : liaisons internes au centre de production, arrivées de l'extérieur (reportage), départ vers les émetteurs.
Les réseaux de diffusion et de transmission

Télécommunication à grande distance

Télécommunication à grande distance  Diffusion de la télévision
Les signaux image et son sont « transportés » par des ondes électromagnétiques qui se propagent en espace libre jusqu'aux récepteurs. La fréquence de ces ondes doit être incluse dans les bandes de fréquences réservées à la diffusion terrestre : ondes métriques (O. m) de 174 à 230 MHz, ondes décimétriques (O. dm) de 470 à 860 MHz.
Les émetteurs de diffusion de forte puissance (50 kW) ont une portée maximale de l'ordre de 100 km. Pour assurer une couverture nationale, il est nécessaire d'utiliser un réseau d'émetteurs (une centaine pour un pays comme la France). Des obstacles naturels (montagnes) ou artificiels (immeubles), ainsi que des interférences entre des signaux émis (échos), limitent la couverture d'un pays. Des réémetteurs, équipements de faible puissance (1 W à 250 W), alimentent les zones d'ombre et de brouillage. Très nombreux en montagne, ils complètent la couverture recherchée (il y en a 3 000 dans un pays comme la France).
Le réseau de transmission terrestre (faisceaux hertziens) assure le transport des signaux image et son du centre de production aux émetteurs (liaisons directives de point à point : 52 000 km pour le réseau français). Ce transport peut aussi être réalisé par une liaison satellite de télécommunication, d'un point (centre de production) à de nombreux points (centres de diffusion). Le réseau de transmission terrestre est utilisé pour acheminer des reportages, retransmissions en direct des régions vers le centre de production national ou entre plusieurs centres régionaux. Un réseau de transmission international mixte (faisceaux hertziens et satellites) permet des échanges dans le cadre de l'U.E.R. (Union européenne de radiodiffusion). Les réseaux câblés distribuent les programmes de télévision nationaux et internationaux en zones urbaines et, à terme, en zones rurales. Les émissions des satellites de diffusion directe peuvent être captées avec des antennes de faible dimension.
Antennes, propagation et réception

Antenne parabolique

Antenne paraboliqueTélévision, analyse de l'image par balayage
Une antenne élémentaire (doublet), permettant d'émettre des ondes, est constituée de deux tiges de gros diamètres placées bout à bout et dont la longueur totale est une demi-longueur d'onde. Le diagramme de rayonnement (répartition dans l'espace de la puissance émise) est un tore dont l'axe est parallèle à celui du doublet. Plusieurs doublets placés devant un plan réflecteur constituent un panneau directif. Plusieurs panneaux, placés sur chaque face d'un pylône, constituent l'antenne d'émission. Le retard entre les signaux appliqués à chaque panneau ainsi que leur puissance permettent de façonner le diagramme de rayonnement en fonction de la zone à couvrir. Les ondes métriques et décimétriques se propagent en ligne droite ; elles ne franchissent pas les obstacles. Les antennes d'émission sont donc placées au sommet des montagnes ou des pylônes. Ces ondes se réfléchissent sur les obstacles (montagnes, immeubles) et créent des échos sur l'image. Le récepteur sélectionne le signal radiofréquence correspondant au programme choisi. Après transposition dans une bande de fréquence plus faible (F.I., fréquence intermédiaire), les signaux image et son sont démodulés. Les signaux composites (PAL ou SECAM) sont décodés puis appliqués, avec les tops de synchronisation, au tube cathodique.
Les antennes paraboliques servent à recevoir les programmes de télévision directe.
Les nouveaux systèmes de télévision

La télévision à haute définition (T.V.H.D.)

Écran plat
Les recherches en vue d'améliorer la qualité des images, notamment sur les écrans de grandes dimensions, ont conduit à la télévision à haute définition (T.V.H.D.), dont les images ont un nombre de lignes et un nombre de points par ligne bien plus importants ainsi qu'un format parfaitement adapté à la diffusion de films cinématographiques (rapport largeur/hauteur de 16/9), contrairement à celles des systèmes classiques (rapport largeur/hauteur de 4/3). Alors que la définition d'une image de télévision standard est aujourd'hui de 720 x 576 (576 lignes et 720 pixels par ligne), celle d'une image de télévision haute définition est de 1 280 x 720 (720 lignes, 1 280 pixels par ligne) au format 720p (à balayage progressif) et de 1 920 x 1 080 (1 080 lignes, 1 920 pixels par ligne) au format 1 080i (à signaux entrelacés, chaque trame ne comportant que la moitié des lignes).
De plus en plus de téléviseurs haut de gamme bénéficient d'un écran panoramique (à plasma ou LCD), au format 16/9. Associés à une chaîne haute-fidélité assurant une excellente restitution de tous les effets sonores, ils permettent de recréer à domicile l'ambiance d'une salle de cinéma (home cinéma ou cinéma à domicile).
La télévision numérique

Télévision numérique
Les systèmes de télévision classiques sont des systèmes analogiques, où la modulation du signal vidéo est proportionnelle à celle des intensités lumineuses balayées par le faisceau d'électrons. L'évolution technologique en cours conduit au développement de la télévision numérique, fondée sur le principe non pas de la variation continue de l'intensité lumineuse des lignes mais de la mesure de l'intensité de chaque point. La valeur du signal est découpée, échantillonnée en une succession d'impulsions, exprimées en nombres binaires et qui restent identiques quelles que soient les variations intervenues dans le signal premier. Le système numérique permet l'obtention d'un signal très stable, facilite le transcodage, offre de multiples possibilités de composition, dont les images de synthèse.
L'avènement de la télévision numérique provoque un bouleversement du paysage audiovisuel mondial. En effet, grâce aux techniques de compression numérique des images, il devient possible de diffuser plusieurs programmes (de 4 à 12 suivant la qualité de l'image et le type de programme) sur un même répéteur de satellite ou sur un même canal hertzien ou câblé. Il en résulte une multiplication des chaînes et des services : chaînes thématiques, programmes interactifs, téléachat, jeux vidéo ou éducatifs, formation professionnelle, systèmes de réservation, etc. La diffusion numérique engendre alors de nouveaux modes de consommation de la télévision, fondés sur l'interactivité ; la télévision de flux cède peu à peu la place à une télévision de stock, constituée de banques de programmes audiovisuels dans lesquelles le téléspectateur vient puiser selon ses centres d'intérêt.
Équipé d'un décodeur, intégrant un disque dur destiné à la sauvegarde de programmes (ce qui remplace le magnétoscope) et d'un modem relié à une ligne téléphonique, le téléviseur de la nouvelle génération se transforme en terminal intelligent. Cette intelligence repose pour l'essentiel sur un guide électronique de programmation qui tient compte du profil de chaque utilisateur (âge, sexe, passions, disponibilités horaires…), donnant ainsi accès à une véritable télévision à la carte.
La télévision numérique diffusée par voie hertzienne, ou télévision numérique terrestre (T.N.T.) s'inscrit dans le mouvement général de numérisation des technologies de l'information et de la communication. Elle vient compléter l'offre numérique offerte par le satellite, le câble et maintenant l'ADSL. À terme, la T.N.T. a vocation à se substituer à la diffusion analogique. Cette dernière pourra alors être arrêtée, ce qui libérera d'importantes ressources en fréquences pour de nouveaux services ou de nouveaux usages. En France, l'extinction de la télévision analogique a commencé à Coulommiers, le 4 février 2009, et doit progressivement s'étendre à tout le territoire métropolitain d'ici le 30 novembre 2011. Pour recevoir les 18 chaînes numériques gratuites, les foyers devront alors être équipés soit d'un adapteur T.N.T. branché sur le téléviseur, soit d'un nouveau téléviseur intégrant la T.N.T.
En France, deux normes de compression numérique ont été retenues pour la T.N.T. : pour la diffusion de chaînes gratuites (inaugurée le 31 mars 2005), la norme MPEG 2, déjà utilisée notamment pour les DVD ; pour la diffusion de chaînes payantes (depuis le 1er septembre 2005) et pour certains programmes en haute définition (depuis le 30 octobre 2008), la norme MPEG 4, qui permet globalement de diviser par deux le débit de données nécessaire pour la numérisation des images animées sans perte notable de qualité, et qui autorisera, à terme, le passage à la télévision à haute définition.
La télévision sur Internet

Un nombre croissant de sites Web produisent et diffusent des émissions de télévision interactive sur Internet. Ces « Web-TV » viennent concurrencer l'offre des bouquets de chaînes de télévision traditionnelles. Les données associées (textes, photos, etc.) complètent l'émission, elle-même diffusée en direct ou consultable à la demande, sans contrainte horaire. Les réseaux à haut débit devraient accélérer la croissance de ces nouveaux opérateurs de télévision dont les grilles de programmes thématiques s'adressent pour l'essentiel à des communautés de « télénautes » animés par une même passion. À terme, la convergence des techniques de diffusion devrait donner naissance à une génération de terminaux communs aux deux mondes de l'Internet (donc, de l'ordinateur personnel) et de la télévision.
La télévision sur téléphone mobile

En expérimentation depuis 2005, la télévision sur téléphone mobile (ou télévision mobile personnelle [TMP] ) suscite un indéniable engouement à travers le monde. L’arrivée de technologies de diffusion de masse, tel que le standard DVB-H (Digital Video Broadcasting-Handheld), contribue à accélérer le développement de ce mode de télévision nomade. Mais, en France, où des fréquences ont été attribuées à 16 chaînes, le lancement effectif de ce mode de télévision nomade a dû être différé, faute d'un accord entre les différents acteurs sur le modèle économique à appliquer, et il n'est attendu qu'en 2010.
MÉDIAS

Le système télévisuel : de l’analogique au numérique

La télévision est la transmission et la réception par voie électrique d’images et de sons de sujets fixes ou mobiles. Le récepteur de télévision, ou téléviseur, dont l’origine remonte aux recherches du physicien Michael Faraday dans les années 1830, a été mis au point au début du xxe siècle, essentiellement à partir de l’utilisation du tube cathodique. Les antennes hertziennes, le câble et les transmissions satellitaires ont successivement été employés pour la distribution des images. Les premières émissions datent des années 1930, mais la Seconde Guerre mondiale a enrayé le développement des programmes si bien que l’explosion de la production ne se produit qu’au cours des années 1950 dans les pays occidentaux, au cours des années 1980 dans le reste du monde. La libéralisation et la multiplication des chaînes sont allées de pair, comme dans le cas français.
De multiples innovations techniques ont bouleversé le système classique télévisuel (analogique) en rendant les attentes plus fortes et plus sélectives : apparition de la télécommande, de la vidéo puis du DVD, élargissement des écrans au profit du format 16/9, apparition de la télévision haute définition, combinaison de la télévision et de la hi-fi afin de rendre l'ambiance d'une salle de cinéma (home cinéma ou cinéma à domicile), etc. Mais c’est le big bang récent des technologies numériques qui modifie le plus en profondeur les conditions de production, de distribution et de réception des programmes (télévision numérique hertzienne ou terrestre [T.N.T.]).
La télévision française

Le monopole de l'État sur les ondes a été institué dès 1927 pour la radiodiffusion, au nom de l'objectivité et de l'intérêt général.
Les mutations du statut

Les réformes du statut de la radiotélévision française se sont succédé, au rythme des changements politiques les plus importants :
– en 1964, création de l'Office de la radiodiffusion-télévision française (O.R.T.F.) ;
– en 1968, assouplissement de la tutelle du ministère de l'Information ;
– en 1969, création de rédactions autonomes pour chacune des deux chaînes ;
– en 1974, fin de l'O.R.T.F. et institution de sept sociétés distinctes ;
– en 1982, suppression formelle du monopole de programmation et création d'une Haute Autorité ;
– en 1986, remplacement de la Haute Autorité par la Commission nationale de la communication et des libertés (C.N.C.L.) ;
– en 1989, remplacement de la C.N.C.L. par le Conseil supérieur de l'audiovisuel (C.S.A.).
Le P.A.F.

Le paysage audiovisuel français (P.A.F.) se compose de chaînes publiques et de chaînes privées. Depuis 2009, France Télévisions est une entreprise unique chargée de concevoir et de programmer les services qui étaient jusqu'à présent édités par les sociétés France 2, France 3, France 4, France 5 et Réseau France Outre-mer (R.F.O.). L'ancienne première chaîne de télévision, TF 1, a été privatisée dès 1987. Également privé, Canal Plus fut en 1984 la première chaîne à fonctionner par abonnement et avec décodeur. Une autre chaîne privée non cryptée, M6, diffuse sur le territoire national. Arte est une chaîne européenne.
Les chaînes thématiques (cinéma, sport, musique, voyages, séries…) sont des chaînes payantes, généralement transmises par le câble ou par satellite (bouquets de programmes).
En 2005, la télévision numérique terrestre (T.N.T.) a fait son apparition dans les foyers. Moyennant l'usage d'un décodeur, elle donne accès à de nombreuses chaînes gratuites. Depuis 2006, France 24 – une chaîne d'information internationale en continu – est transmise par le câble et par satellite.
Entre monopole et système commercial

Dans la plupart des pays européens, le développement de la télévision s’est fait selon le principe du service public. La France illustre bien ce principe puisqu’elle institue dès 1927 le monopole de l'État sur les ondes pour la radiodiffusion. L’organisme chargé de gérer les chaînes de télévision est la RTF (Radio-Télévision française) devenue l’O.R.T.F. (Office de la radiodiffusion-télévision française) en 1964, organisme « tenu » par le ministère de l’information. L’O.R.T.F est dissocié en sept sociétés distinctes en 1974, alors que le monopole public de programmation n’est aboli qu’en 1982. La première chaîne est créée en 1947, la seconde en 1964, avant l’apparition de la chaîne régionale FR3 en 1973.
En Italie, la RAI est fondée au sortir de la guerre sur un modèle de proximité avec le pouvoir politique. La première chaîne émet en 1954, la seconde en 1961, la troisième, enfin, en 1979. En RFA, la télévision publique est fondée, au sortir de la guerre là encore, sur le principe du fédéralisme. La première chaîne, l’ARD, est une fédération d’une dizaine de stations régionales. La seconde chaîne publique, la ZDF, est fondée en 1963 sur une base centralisée. La Belgique lance sa première chaîne publique en 1953 en la faisant reposer sur deux organismes, l’un wallon (la RTBF), l’autre flamand (la BRT).
Le Royaume-Uni se distingue par l’antériorité et la cohérence de sa démarche. La BBC, service public de radiodiffusion naît dès 1922. Ce service propose rapidement une télévision et est confronté à la concurrence du privé dès 1955 (apparition de ITV, par ailleurs BBC 2 est créée en 1964). Les pouvoirs publics ne mettent pas la BBC sous tutelle, ce qui contribue à son essor et à la qualité de ses programmes.
Alors que la démarche européenne a consisté généralement à instaurer des monopoles publics et à multiplier par la suite des autorisations d’émettre pour le privé, celle des États-Unis a reposé entièrement sur la création d’un secteur privé, complété par un réseau public en 1966 (PBS). Les modèles se rejoignent aujourd’hui : domination du secteur privé, importance néanmoins des services publics. Il est à noter que des différences existent dans les modes de financement des télévisions publiques : pas de publicité au Royaume-Uni pour la BBC, importance de la publicité historiquement pour les chaînes publiques françaises et italiennes. Mais le passage d’un modèle de financement à un autre, comme envisagé en France (suppression de la publicité sur France Télévisions), n’a jamais été expérimenté.
« Le » média de masse

Du point de vue social, la télévision est le média de masse par excellence. Dans les pays occidentaux, plus de trois individus sur quatre la regarde tous les jours. La consommation quotidienne de télévision avoisine à elle seule 3 h 30 par personne en 2008 en France, 4 h 00 aux États-Unis et en Grande-Bretagne.
La pratique télévisuelle est si présente et si visible qu’elle suscite des interrogations sur ses fonctions, ses effets, son utilité sociale. Mais il faut penser la télévision comme une pratique culturelle, qui a du sens y compris dans ses activités de zapping ou de « tapisserie ». Elle soude une communauté nationale et internationale partageant les mêmes rites puisqu’il n’existe pas dans nos sociétés de pratique où les différences de comportements soient aussi faibles : 96 % des foyers possèdent un téléviseur et les contenus de ce média sont le second objet de discussion dans l’entreprise (après le travail) et à l’école. Elle demeure toutefois inégalitaire car surconsommée par une forte minorité de la population, plus âgée, plus populaire et plus féminine que la moyenne. 10 % des publics représentent près de 30 % de l’écoute, 30 % des publics 60 % de l’écoute alors que les plus réfractaires représentent moins de 1 % de l’écoute pour 10 % de la population.
Le public de gros consommateurs de télévision, ou « grand public », ne peut être vu cependant comme aliéné par opposition aux autres. Quelques éléments statistiques suffisent à contredire cette thèse : le grand public est plus sélectif que les « élites » (les Parisiens diplômés sont ceux qui savent le moins ce qu’ils vont regarder), il attend de la diversité des programmes (il consomme tous les types d’émissions). S’il y a des téléspectateurs pour les journaux télévisés, les magazines, les documentaires, les émissions culturelles, c’est parce qu’ils sont regardés par ceux qui utilisent beaucoup la télévision. Ceux qui la regardent moins n’ont pas une pratique centrée sur les émissions prestigieuses. Les diplômés regardent proportionnellement plus que les gros consommateurs les programmes de cinéma et de sport…
La télévision est-elle en déclin ?

Deux grandes mutations menaceraient la télévision. L’avènement du web fait imaginer un déclin du média de masse au profit d’Internet (la fin de l’écoute massive de télévision, la montée de l’interactivité). La diffusion numérique et la multiplication des supports, rendant possibles de nouveaux modes de consommation de la télévision fondés sur l'interactivité, fait évoquer un éclatement des pratiques télévisuelles.
La concurrence d’Internet

Les enquêtes sur les pratiques démontrent cependant qu’il n’existe pas de concurrence nette entre la télévision et les autres médias, sauf pour des populations très précises. Internet prend place dans le paysage préexistant des médias sans expulser ses devanciers, contrairement à la thèse de substitution des médias. La concurrence exercée à l’égard de la télévision était au départ réelle au niveau de la perception : le rejet de la télévision est en effet plus élevé dans les catégories sociales qui se sont appropriées les premières Internet. Mais la hausse continue et significative de la consommation horaire de télévision depuis le lancement d’Internet vient démentir la thèse du déclin du grand média d’images. Celui-ci est ancré dans des routines familiales et répond à des attentes de sociabilité et de culture non satisfaites par le Net. L’écoute télévisuelle est d’autre part profondément polymorphe : près de 50 % des gens déclarent faire autre chose en regardant la télévision, manger, parler, dormir, repasser, lire, etc. Elle absorbe des usages nouveaux comme ceux liés à Internet : 40 % des jeunes internautes écoutent la télévision tout en jouant, surfant sur le web ou en consultant leurs courriers.
La convergence technologique des supports

La convergence programmée de la télévision et de l’Internet était au départ envisagée avec une fusion des écrans et la possibilité de gestion interactive des programmes télévisuels (du choix des contenus jusqu’au choix des caméras). Cette convergence se heurte cependant à des obstacles : les publics, qui estiment dans leur majorité que l’offre de contenus est déjà suffisante et assez coûteuse, ne s’intéressent pas aux outils de filmage (pourquoi sélectionner avec difficulté les caméras pour une course de F1 quand un réalisateur fait cela très bien ?) et ne sont pas profondément séduits par l’interactivité (la formule du télé-achat est la seule à s’être imposée depuis les années 1950 à la télévision). Les essais de fusion ordinateur/téléviseur n’ont guère satisfait les utilisateurs qui n’avaient pas envie de regarder la télévision sur ce qu’ils percevaient avant tout comme un poste de travail et de jeu. Au total, l’empilement des technologies à la maison, et non leur réduction, montre que la divergence technologique reste paradoxalement plus forte que la convergence.
L’identité télévisuelle face à la dissémination des images

La thèse de la diversification des supports de réception voit dans la dissémination avancée des images la vraie raison de la disparition de la télévision. Noyée dans un océan d’écrans, désarticulée par la vidéo et le DVD, le téléchargement sur Internet, le mobile, le podcasting, la télévision perdrait de sa centralité dans la production du sens commun : pour le spécialiste des médias Jean-Louis Missika, « il y a toujours plus d’images et moins de télévision ». La baisse des audiences des grandes chaînes au profit des chaînes thématiques ajouterait à la « démédiatisation ». À cette thèse s’opposent de nombreux faits et arguments. L’audience télévisuelle stricto sensu ne baisse pas, celle des grands networks s’est stabilisée et demeure élevée à 40 % environ. L’écoute en famille ne diminue pas, seule progresse l’écoute individualisée. Si la télévision a eu pour effet de consolider la famille nucléaire dans les années 1950-1960, en fournissant un support pour des pratiques partagées, si elle fournit un vocabulaire commun et sert de lieu d’échange, elle n’a jamais coïncidé avec l’idéal d’une société célébrant son unité par une culture commune. Les mutations qui l’affectent sont celles de l’individualisme, compatible avec la recherche de sens en commun. La dissémination des images, indéniable, ne signifie pas la disparition de l’identité télévisuelle : les médias ne sont jamais des entités isolées, pures, ils se définissent les uns par rapport aux autres et enregistrent des cycles complexes d’échange de propriétés. L’impact de la technologie est une redéfinition des frontières entre médias et non une disparation des frontières. Il est même possible de soutenir que se produit l’invention véritable de la télévision. Parvenue à la maturité du point de vue créatif, comme en attestent le genre le plus décrié, la télé-réalité, et le plus loué, les séries, elle propose des œuvres qui par leur format et le rythme de réception qu’elles supposent, inscrit dans la quotidienneté, ne peuvent plus être assimilées par les autres médias (notamment le cinéma). Les programmes les plus regardés sont désormais produits pour le « petit écran », ce qui signifie que la télévision s’est autonomisée comme média.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

LA LUMIRE

 


LUMIÈRE

OPTIQUE
1. Historique de la notion de lumière
1.1. Les conceptions antiques et médiévales de la lumière
1.2. Les premières théories scientifiques de la lumière
1.2.1. La lumière selon Descartes, Huygens et Malebranche
1.2.2. La lumière selon Newton
1.3. L'optique moderne
1.4. La conception quantique de la lumière
2. Sources et récepteurs de lumière
2.1. Les sources primaires de lumière
2.2. Les sources secondaires et la diffusion de la lumière
2.3. Les récepteurs de lumière
3. Propagation de la lumière
3.1. Diffusion et réflexion de la lumière
3.2. Absorption et réfraction de la lumière
4. Interaction lumière-matière
4.1. Niveaux d’énergie des atomes
4.2. Émission ou absorption d’une radiation par un atome
5. Spectres lumineux
5.1. Les spectres d’émission
5.2. Les spectres d’absorption
6. La vitesse de la lumière
7. Applications de la lumière
BOTANIQUE
Voir plus
lumière
(latin ecclésiastique luminaria, du latin classique lumen, -inis)
Lumière du soleil dans les feuilles d'un arbre

Cet article fait partie du dossier consacré à la lumière.
Rayonnement électromagnétique dont la longueur d'onde, comprise entre 400 et 780 nm, correspond à la zone de sensibilité de l'œil humain, entre l'ultraviolet et l'infrarouge.
OPTIQUE

1. Historique de la notion de lumière

1.1. Les conceptions antiques et médiévales de la lumière

Lumière du soleil dans les feuilles d'un arbreLumière du soleil dans les feuilles d'un arbre
La théorie de la lumière a introduit, tout au long de l'histoire des sciences, un questionnement fondamental sur la nature des objets que la physique étudie : ondes ou particules ? Dans les premières descriptions mythiques du monde, la lumière est une sorte de « brume claire », opposée à la « brume sombre » des ténèbres qui, le soir, montent du sol. Puis les Grecs commencent à s'interroger sur la nature physique du monde. Parménide, remarquant que la partie brillante de la Lune est toujours tournée vers le Soleil, en déduit que la lumière vient du Soleil, c'est-à-dire qu'elle se déplace. Les ténèbres, elles, sont une absence de lumière. La propagation de la lumière est expliquée par l'émission de petites particules, conception qui sera largement développée au Moyen Âge. Pour Aristote, les couleurs résultent d'un mélange de lumière et d'obscurité.
1.2. Les premières théories scientifiques de la lumière

1.2.1. La lumière selon Descartes, Huygens et Malebranche

René Descartes, Discours de la méthodeLois de Descartes
Au début du xviie s., avec R. Descartes, s'amorce vraiment une théorie scientifique de la propagation de la lumière. Si Descartes conçoit la lumière comme un ébranlement d'une matière subtile se transmettant instantanément, donc avec une vitesse infinie et sans transport de matière, on rencontre aussi chez lui une conception corpusculaire. Ces idées seront reprises et améliorées par deux théories longtemps rivales : la théorie ondulatoire et la théorie corpusculaire.
Christiaan HuygensChristiaan Huygens
La première ne reçoit un véritable développement scientifique qu'avec C. Huygens. Selon celui-ci, chaque point d'une surface lumineuse émet une onde sphérique qui se propage à une vitesse finie dans un milieu non vraiment matériel, l'éther, d'une manière analogue au son. Huygens explique ainsi les phénomènes de réflexion de la lumière, de réfraction (déviation d'un rayon lumineux lors de son passage d'un milieu à un autre), etc. (→ optique). Toutefois, sa théorie ondulatoire ignore les notions de fréquence et d'amplitude des vibrations lumineuses et donc n'explique ni la diversité des couleurs, ni les phénomènes d'interférence, ni la propagation rectiligne de la lumière.
Au début du xviiie s., N. de Malebranche, partisan lui aussi de la théorie ondulatoire présente une conception plus précise des vibrations lumineuses de l'éther et de leur fréquence qu'il distingue de leur amplitude, ce qui le conduit à la reconnaissance de la diversité continue des couleurs. Mais, pour lui, comme pour Huygens, la vibration est longitudinale.
1.2.2. La lumière selon Newton
Isaac NewtonIsaac Newton
La théorie de la lumière d'I. Newton est mixte, bien qu'y domine l'explication corpusculaire, qui sera la source d'une vive polémique avec R. Hooke, défenseur de la pure théorie ondulatoire. Pour Newton, la lumière est constituée par des corpuscules qui se déplacent dans l'éther à une vitesse finie, où ils produisent des vibrations. Comme Malebranche, il introduit la notion de fréquence variant avec les couleurs, mais, à la différence de celui-ci, il ne la distingue pas clairement de l'amplitude des vibrations. Cette fréquence est expliquée par la variation du comportement des corpuscules durant leur parcours, et la diversité des couleurs, par des différences de taille des corpuscules. La théorie corpusculaire de Newton rend bien compte de la propagation rectiligne de la lumière, mais ce n'est que par des raisonnements mécaniques imaginatifs et peu scientifiques qu'il explique la diffraction (phénomène typiquement de nature ondulatoire).
1.3. L'optique moderne

Interférences lumineuses
C'est seulement au début du xixe s., avec T. Young, qu'est introduit le principe fondamental d'interférences des ondes lumineuses, au cours de l'expérience dite des « fentes de Young », qui constitue une preuve patente du caractère ondulatoire de la lumière. Cette théorie ne sera vraiment développée que par A. Fresnel, qui substitue, le premier, la vibration transversale à la vibration longitudinale. Toutefois, à la même époque, de nombreux savants demeurent attachés à la théorie corpusculaire, principalement Laplace et J.-B. Biot, qui la défendent sur la base de la mécanique newtonienne. Mais, lorsque les mesures de H. Fizeau (1849) et de L. Foucault (1850) démontrent, ainsi que l'avait prévu Fresnel, que la lumière se propage plus vite dans l'air que dans l'eau, la théorie corpusculaire, qui affirmait le contraire, est abandonnée.

Dualité onde particule
En 1865, J. C. Maxwell établit la nature électromagnétique de la lumière, théorie que H. A. Lorentz développe à la fin du xixe s., démontrant notamment que l'on peut expliquer la réflexion et la réfraction par les théories électromagnétiques de Maxwell.
1.4. La conception quantique de la lumière


L'effet photoélectriqueL'effet ComptonAlbert EinsteinLouis de Broglie
Avec la découverte du photon et l'interprétation de l'effet photoélectrique par A. Einstein en 1905, et avec la mécanique ondulatoire de L. de Broglie en 1924, qui associe onde et corpuscule, les deux théories – corpusculaire et ondulatoire – se trouvent « réconciliées », mais sous un mode qui les modifie l'une et l'autre. Comme toute révolution scientifique, celle-ci entraîne un dépassement des théories précédentes. Aujourd'hui, dans le cadre de la physique quantique, le photon n'est plus ni une onde ni une particule mais un quanton, objet d'étude de la théorie quantique. Cependant, lorsque celle-ci peut être approchée par la théorie classique, un quanton manifeste un comportement soit corpusculaire (effet photoélectrique), soit ondulatoire (interférences lumineuses). La théorie quantique relie les aspects corpusculaire et ondulatoire de la lumière par la relation E = hν = hc/λ (l'énergie d'un photon E est proportionnelle à la fréquence ν de l'onde (ou inversement proportionnelle à la longueur d'onde λ) qui lui est associée, h étant la constante de Planck dont la valeur est 6,626 176 × 10−34 J s et c la célérité de la lumière).
2. Sources et récepteurs de lumière

Les grandeurs photométriques (relatives à la lumière) usuelles sont l'intensité lumineuse, le flux lumineux, la luminance et l'éclairement, les unités correspondantes étant la candela, le lumen, la candela par mètre carré et le lux.
2.1. Les sources primaires de lumière


Lampe à halogène  Soleil
Les sources primaires produisent de la lumière par elles-mêmes en convertissant de l’énergie (chimique pour les bougies, électrique pour les lampes, nucléaire pour les étoiles) en énergie lumineuse.
2.2. Les sources secondaires et la diffusion de la lumière

la face visible de la Lune
Les sources secondaires sont des objets éclairés qui renvoient dans toutes les directions une partie de la lumière qu’ils reçoivent (la Lune, les planètes, les objets qui nous entourent) : on dit que la lumière est diffusée par l’objet. Seuls les objets totalement noirs ne réfléchissent pas de lumière.
2.3. Les récepteurs de lumière


Fonctionnement de l'œil
L’œil humain est un récepteur de lumière particulièrement sophistiqué : il s’adapte aux conditions de luminosité, permet de voir de près comme de loin et distingue les couleurs. Mais il en existe de plus simples comme la pellicule d’un appareil photo (photographie) qui convertit la lumière en énergie chimique, ou une cellule photoélectrique qui convertit la lumière en signal électrique (→ capteur, CCD).
Pour en savoir plus, voir les articles œil [zoologie], vision [zoologie], vision [médecine].
3. Propagation de la lumière

Labyrinthe de verre
Le trajet de la lumière dans un milieu peut être représenté par un segment de droite appelé rayon lumineux. La lumière se propage en ligne droite dans les milieux homogènes (les milieux qui ont la même composition en tout point) ; si le milieu est également transparent (comme l’eau, l’air, le verre, etc.), la lumière se propage en ligne droite sans être atténuée, ou très peu. Néanmoins, l'intensité lumineuse par unité de surface diminue avec le carré de la distance à la source. Lorsque la lumière rencontre un corps, elle est absorbée, réfléchie ou transmise (l'un des cas n'excluant pas les autres).
3.1. Diffusion et réflexion de la lumière

Réflexion d'un rayon lumineuxRéflexion d'un rayon lumineux
Lorsqu’elle rencontre un objet, la lumière est partiellement diffusée par cet objet (qui devient une source secondaire de lumière) : c’est la réflexion de la lumière. La lumière réfléchie par une surface irrégulière est renvoyée dans toutes les directions. Certaines fréquences sont réfléchies plus fortement que d'autres, donnant ainsi aux objets leur couleur caractéristique. Les surfaces blanches réfléchissent la lumière de façon égale pour toutes les longueurs d'onde ; les surfaces noires absorbent pratiquement toute la lumière.
3.2. Absorption et réfraction de la lumière


PrismeTrajet d'un rayon lumineux dans un prisme
L’autre partie du rayon lumineux est absorbée par l’objet. Si l’objet est opaque, la lumière absorbée ne peut traverser l’objet. Si l’objet est translucide ou transparent, une partie de la lumière absorbée traverse l’objet en changeant généralement de direction : c’est la réfraction de la lumière. C’est la raison pour laquelle il est difficile de déterminer l’emplacement exact d’un objet plongé dans l’eau : il semble plus proche de la surface qu’il ne l’est vraiment, du fait de la réfraction des rayons lumineux.
4. Interaction lumière-matière

4.1. Niveaux d’énergie des atomes

Atome, modèle planétaire
Au début du xxe siècle, la physique quantique transforme radicalement la vision que l'on a jusque-ici de l'énergie ainsi que de la matière. En effet, dans un atome, les électrons gravitent autour du noyau. Chaque électron possède une énergie qui est d’autant plus faible qu’il se trouve proche du noyau. Par définition, l’énergie de l’atome est égale à la somme des énergies de tous ses électrons. Ainsi, l’énergie qui était jusque-ici considérée comme une grandeur continue, devient discontinue à l’échelle atomique : Niels Bohr parle de quantification de l’énergie des atomes dès 1913.
Niveaux d'énergie d'un atomeNiveaux d'énergie d'un atome
Pour représenter les différents niveaux d’énergie associés à un atome, on utilise un diagramme avec un axe vertical où sont spécifiés les niveaux d’énergie associés à l’atome : l’état de plus basse énergie est appelé état fondamental ; les états d’énergie supérieurs sont des états excités. À chaque état est associé une énergie (notée E) : l’atome ne peut prendre que des niveaux d’énergie bien déterminés (E1, E2, E3, E4…).
 

4.2. Émission ou absorption d’une radiation par un atome

Pour passer d'un niveau d'énergie à un autre, un atome doit absorber un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité et l’énergie de l’état fondamental. Si l’énergie du photon est supérieure ou inférieure à la différence d’énergie, l’atome ne peut pas absorber le photon et reste dans son état d’énergie fondamental :


Prenons l’exemple de la transition entre le niveau 1 (fondamental) et le niveau 2. Pour être absorbé, le photon doit avoir une énergie E strictement égale à la différence entre E2 et E1 :
E = E2 – E1 = hν, soit E = ΔE = hν.

Tous les photons qui ne possèdent pas cette énergie ne pourront pas être absorbés par l’atome et la transition de niveaux d’énergie ne se fera pas.
Inversement, un atome (ou une molécule) excité(e) retourne à son état fondamental (ou à un état d’énergie inférieur) en émettant un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité de départ et l’énergie de l’état fondamental (ou d’un état d’énergie inférieur).
 

5. Spectres lumineux

Spectre des ondes électromagnétiquesSpectre des ondes électromagnétiques
Produite par incandescence ou par luminescence, la lumière est généralement composée d'une infinité de radiations de longueurs d'onde (ou de fréquences) différentes, dont l'ensemble constitue le spectre lumineux. Le spectre d’une lumière peut être obtenu en décomposant cette lumière à l’aide d’un prisme. Lors de la traversée du prisme, la lumière est déviée par réfraction. Chaque radiation lumineuse constituant la lumière est déviée différemment selon sa longueur d’onde, formant ainsi le spectre de cette lumière.
5.1. Les spectres d’émission

Lampe fluorescente
En fonction de la source lumineuse, le spectre d’émission sera continu pour des solides et des liquides chauffés (le filament d’une lampe par exemple) ou discret (spectre de raies) pour des gaz portés à haute température (une lampe à vapeur de mercure par exemple). Les raies d’émission sont caractéristiques des éléments chimiques présents dans le gaz.
Si le spectre obtenu est constitué de plusieurs radiations lumineuses, il s’agit d’une lumière polychromatique (lumière émise par une lampe à incandescence par exemple). En revanche, si la lumière n’est constituée que d’une seule radiation lumineuse, il s’agit alors d’une lumière monochromatique (lumière émise par un laser par exemple).
5.2. Les spectres d’absorption

Spectres d'absorption et d'émissionSpectres d'absorption et d'émission
L'étude d'un spectre (spectrométrie) renseigne ainsi non seulement sur la nature chimique de la source, mais aussi sur la nature du milieu traversé par la lumière, qui absorbe certaines radiations. Le spectre de la lumière ayant traversé ce milieu est appelé spectre d’absorption : les raies noires représentent les radiations absorbées. Elles sont caractéristiques des éléments chimiques présents dans le gaz. Le spectre d’absorption et le spectre d’émission d’un même élément chimique sont complémentaires (voir les spectres d’absorption et d’émission du mercure). En effet, les raies d’absorption et d’émission d’une même espèce chimique ont la même longueur d’onde : un élément chimique absorbe les radiations qu’il est capable d’émettre.

Analyse spectroscopique
Par exemple, l’analyse du spectre de la lumière provenant du Soleil a permis d’identifier les éléments chimiques présents dans l’atmosphère solaire : toutes les raies noires observées correspondent aux radiations absorbées par les atomes présents. Cette analyse, réalisée dès 1814 par J. von Fraunhofer, puis complétée successivement par R. Bunsen et G. Kirchhoff (en 1851) a permis de trouver les éléments chimiques responsables des raies noires du spectre solaire (476 raies au total). En particulier, ces travaux ont mené à la découverte en 1868 d’un élément chimique encore inconnu à cette époque sur Terre : l’hélium. Cette méthode d’analyse spectroscopique est encore utilisée pour étudier l’atmosphère des étoiles.
6. La vitesse de la lumière

Vitesse de la lumière
La lumière se déplace à une vitesse finie. Par exemple, la lumière émise à la surface du Soleil met environ 8 minutes pour parvenir jusqu'à nous, autrement dit elle se déplace à une vitesse d'environ 300 000 kilomètres par seconde dans le vide. À l’échelle humaine, cette vitesse est vertigineuse – les sondes spatiales envoyées dans l’espace ne se déplacent qu’à environ 20 km/s ; mais à l’échelle de l’Univers, elle devient « manipulable » : il faut par exemple 4 ans à la lumière de l'étoile la plus proche du Soleil (Proxima Centauri) pour nous parvenir et plus de 2 millions d'années pour celle émanant de la galaxie d'Andromède…
Proportionnalité
La vitesse (ou célérité) de la lumière dans le vide est une constante fondamentale de la physique : c = 299 792 458 m/s. Le premier à montrer expérimentalement que la lumière se déplace à une vitesse finie fut l'astronome O. Römer, en 1676, à partir d'observations des éclipses de certains satellites de Jupiter réalisées à l'Observatoire de Paris. Les premières déterminations précises de la vitesse de la lumière ont été effectuées au xixe s. par H. Fizeau (1849) et L. Foucault (1850). En 1887, les physiciens américains A. Michelson et E. Morley réalisèrent une expérience qui fit date dans l’histoire des sciences : leur objectif était de comparer par interférométrie la vitesse de la lumière se propageant dans le sens de révolution de la Terre et perpendiculairement à ce mouvement, de manière à mettre en évidence l’existence de l’éther dans lequel était censée se déplacer la lumière (comme le son dans l’air). Les résultats de l’expérience de Michelson-Morley permirent d’affirmer que la vitesse de la lumière était la même dans toutes les directions. Cette invariance de la vitesse de la lumière fut interprétée par certains physiciens comme une preuve de l’inexistence du fameux éther. En 1905, A. Einstein interpréta cette expérience dans le cadre de sa théorie de la relativité restreinte : la vitesse de la lumière est indépendante du référentiel, c’est une constante universelle de la physique.

Fuite des galaxies
Ainsi, quand une source de lumière s'approche ou s'éloigne, la lumière qui parvient à l'observateur a toujours la même vitesse, mais sa fréquence augmente ou diminue : c’est l’effet Doppler-Fizeau. Cet effet permet notamment de mesurer la vitesse d'éloignement des galaxies dans l'Univers (mesure de décalage vers le rouge ou redshift en anglais).
→ expansion de l'Univers.

Par ailleurs, si la vitesse de la lumière c est invariante dans le vide, elle décroît dans les milieux matériels, ce qui se manifeste par un changement de l'indice de réfraction (noté n) en fonction du milieu (n = c/v, où v est la vitesse de la lumière dans le milieu considéré). Par exemple, la vitesse de la lumière est d’environ 225 000 km/s dans l’eau, de 200 000  km/s dans le verre, le diamant à 125 000 km/s, etc. De plus, l’indice de réfraction (et donc la vitesse) dépend également de la longueur d'onde de la lumière : le bleu est plus dévié que le rouge… Ceci explique la dispersion de la lumière blanche dans un prisme ou dans les gouttes d'eau d'un arc-en-ciel.
Enfin, la vitesse de lumière (et l’indice de réfraction) dépend également de la température du milieu traversé : par exemple, dans l’expérience réalisée en 2000 par Lene Hau (université de Harvard, États-Unis), la vitesse de la lumière traversant un condensat de Bose-Einstein (milieu particulier dans lequel les atomes sont refroidis à une température très proche du zéro absolu, environ –273 °C) a été ralentie à 1,5 km/h.
7. Applications de la lumière

L'énergie du rayonnement lumineux peut être convertie en énergie thermique (fours solaires, effet de serre, etc.), en énergie chimique (photosynthèse, réactions photochimiques utilisées en photographie argentique) et surtout en énergie électrique (cellules photoélectriques, photopiles). L’énergie solaire constitue d’ailleurs une source d’énergie renouvelable intéressante pour répondre au défi énergétique de cette fin de siècle, en raison de l’épuisement rapide des énergies fossiles.
Par ailleurs, la lumière peut être amplifiée et rassemblée en un étroit faisceau dit cohérent, formant la lumière laser, utilisée dans l’ensemble des domaines de la recherche fondamentale (médecine, astrophysique, métrologie, etc.) ainsi que dans l’industrie (lecture de DVD ou de code-barres, découpe de matériaux, armement, etc.).
BOTANIQUE

Influence de la lumière sur la floraisonInfluence de la lumière sur la floraison
Comme source d'énergie, la lumière est absorbée principalement au niveau des feuilles (photosynthèse). La lumière verte seule n'est pas absorbée, mais réfléchie, d'où l'aspect vert des feuilles. Comme stimulus efficace, la lumière favorise la germination de certaines espèces et gêne celle d'autres espèces, ralentit la croissance des tiges, faisant s'incliner l'axe vers le côté le plus éclairé (phototropisme), règle l'ouverture des stomates foliaires et gouverne par sa durée la date de la floraison (photopériodisme).

 

DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google