ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

NEUTRONS

 

Les sauts quantifiés des neutrons


et aussi - par Cécile Michaut dans mensuel n°353 daté mai 2002 à la page 16 (1127 mots) | Gratuit
Einstein, père de la relativité générale, qui décrit la gravitation, et important contributeur à l'élaboration de la mécanique quantique, ne s'en est jamais satisfait : les deux principales théories physiques du XXe siècle sont incompatibles. Cela n'empêche toutefois pas la réalisation d'expériences où les deux phénomènes se manifestent simultanément.

Prenez une balle et faites-la rebondir sur le sol. La hauteur des rebonds dépend évidemment de l'énergie que vous donnez à la balle, et diminue progressivement, sans limite théorique : une balle bien choisie pourrait rebondir à seulement quelques micromètres, voire quelques nanomètres. En revanche, si vous remplacez la balle par une particule élémentaire, vous n'obtiendrez que des rebonds à des hauteurs bien précises, qui ne dépendent que de la masse de la particule : 15 micromètres au minimum pour un neutron*. C'est ce que vient de montrer une équipe franco-germano-russe, dirigée par Valery Nesvizhevsky à l'institut Laue-Langevin de Grenoble1.

Pourquoi le neutron ne rebondit-il pas à n'importe quelle hauteur ? Parce qu'il est très petit, et qu'il obéit aux lois de la mécanique quantique. En particulier, son énergie dans un champ de force* ne peut prendre que des valeurs bien précises : elle est quantifiée. Ce phénomène avait été observé à maintes reprises pour les trois autres forces fondamentales de l'Univers : électromagnétique, nucléaire faible et nucléaire forte. Par exemple, les électrons plongés dans le champ électromagnétique créé par le noyau d'un atome ne peuvent avoir que des énergies bien définies. On l'observe lorsque l'on chauffe un élément chimique : il émet des raies de lumière, à des fréquences précises, correspondant aux passages d'électrons d'une énergie à une autre2. Mais c'est la première fois que la quantification de l'énergie est associée à la gravitation.

Force faible. Le choix de Valery Nesvizhevsky et ses collègues s'est porté sur le neutron, notamment à cause de sa neutralité électrique. Il n'est presque pas soumis aux forces électromagnétiques, qui sont infiniment plus intenses que la gravité et masquent généralement les effets de celle-ci dans les expériences de physique des particules dans certaines conditions, le neutron subit tout de même l'influence du champ magnétique.

Toutefois, habituellement, les faisceaux de neutrons ne sont pas non plus piégés par le champ de gravité terrestre : les particules vont si vite qu'elles ne retombent jamais sur Terre. Pour observer les effets quantiques dus à la gravitation terrestre, les physiciens de Grenoble ont donc utilisé un faisceau de neutrons extrêmement ralentis à environ 8 mètres par seconde. Ils ont fait pénétrer ceux-ci entre deux surfaces horizontales : la surface inférieure réfléchit tous les neutrons qui tombent dessus, tandis que celle située au-dessus les absorbe.

Des neutrons traversent alors ce dispositif en rebondissant. Du moins tant que la surface absorbante, dont la hauteur est variable, est assez haute. Car dès qu'elle se trouve à moins de 15 micromètres, plus aucun neutron ne passe : ils sont tous absorbés. Autrement dit, les neutrons ne peuvent pas rebondir à moins de 15 micromètres : leur énergie dans le champ de gravitation est quantifiée.

Un tel résultat était attendu. L'énergie correspondant à ce saut minimal est même calculable par un étudiant : 1,41 pico-électronvolt, mille milliards de fois plus faible que l'énergie d'un photon de lumière visible. La performance réside dans la précision de l'expérience, qui a détecté un phénomène aussi ténu. Les sources potentielles d'erreurs expérimentales sont nombreuses et, dans le faisceau source, assez peu de neutrons possèdent la bonne énergie pour pénétrer dans le dispositif. Les physiciens ont donc dû accumuler énormément de données pour obtenir un résultat sûr.

Sauts énormes. Si l'énergie du saut est très faible, sa hauteur, elle, peut surprendre les habitués de la mécanique quantique. Ces 15 micromètres l'épaisseur d'une feuille d'aluminium alimentaire sont gigantesques par rapport aux distances généralement rencontrées dans ce domaine : la distance minimale entre le noyau de l'atome d'hydrogène et son électron est, par exemple, 300 000 fois plus petite. En outre, d'autres rebonds, plus élevés, sont possibles, aussi à des hauteurs bien précises. Et sur la Lune, où la gravitation est plus faible, le rebond minimal serait environ deux fois plus grand.

Ces effets quantiques de la gravitation ne se limitent bien sûr pas aux neutrons : l'énergie de tous les objets soumis à un champ gravitationnel est quantifiée. Les niveaux diffèrent toutefois selon la masse. Ainsi, plus une particule est massive, plus ses niveaux d'énergie sont resserrés. Pour un objet macroscopique comme une balle, on passe continûment de l'un à l'autre, et le mouvement n'est pas limité. En revanche, Valery Nesvizhevsky annonce qu'« une prochaine étape sera d'étudier ces niveaux pour des atomes très ralentis ». Contrairement aux neutrons, qui se désintègrent en moyenne au bout d'un quart d'heure, les atomes ont une durée de vie quasi illimitée. En les gardant très longtemps dans le dispositif, les physiciens obtiendront des résultats bien plus précis.

Théories inconciliables. Cette expérience permettrait-elle de réconcilier les deux grandes théories physiques du XXe siècle, notoirement incompatibles, la mécanique quantique et la relativité générale, qui décrit la gravitationI ? Pas directement : dans l'expérience de Valery Nesvizhevsky et ses collègues, le comportement de la matière est quantique, mais celui du champ gravitationnel, lui, ne l'est pas. Dans une théorie de la « gravitation quantique », encore à construire, la gravitation serait véhiculée par des particules appelées gravitons, analogues aux photons pour la lumière. Toutefois, selon Valery Nesvizhevsky : « La gravitation quantique requiert l'échange de gravitons entre niveaux d'énergie gravitationnels. En observant ces niveaux d'énergie, nous avons déjà réalisé un premier pas. »

Bien qu'ils confirment des phénomènes prévus, les résultats des physiciens grenoblois soulèvent des interrogations. Car, formellement, ils remettent en cause des applications du principe d'équivalence, énoncé par Galilée, et selon lequel la masse gravitationnelle qui intervient dans les phénomènes de gravitation est égale à la masse inertielle utilisée lorsque l'on applique une force sur une masse, par exemple pour la mettre en mouvement. L'une des conséquences de ce principe est en effet que tous les objets tombent de la même façon, quelle que soit leur masse. Or, nous venons de voir que la chute des objets se fait par paliers dépendant de la masse. « Aujourd'hui, il s'agit plus d'une reformulation du principe d'équivalence, pour tenir compte de la quantification, que d'un vrai changement dans la théorie », relativise Valery Nesvizhevsky. Mais le principe d'équivalence, qui n'a jamais été testé dans le domaine quantique, n'a même été vérifié qu'avec une précision de 0,1 % à 1 % dans le domaine classique. D'où l'importance de mesures plus précises pour confirmer que l'action d'une force et celle de la gravitation sont bien équivalentes.

Ce n'est pas rien : cette équivalence est l'un des postulats fondateurs de la théorie de la relativité générale bâtie par Einstein, pour qui la gravité n'est qu'une accélération. Ainsi, paradoxalement, la mécanique quantique, incompatible avec la relativité générale, permettrait de confirmer les fondements de celle-ci !

Par Cécile Michaut

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
 

LES NEUTRINOS DFIENT LES PHYSICIENS

 

LA PHYSIQUE DU XXIE SIÈCLE
Les neutrinos défient les physiciens


LA PHYSIQUE du XXIe siècle - par Gilles Cohen-Tannoudji, Étienne Klein dans mensuel n°466 daté juin 2012 à la page 38 (2255 mots) | Gratuit
Les neutrinos, infimes particules, n'en finissent pas d'intriguer. De nouvelles expériences cherchent à mettre à l'épreuve des théories divergentes quant à leur nature et à ouvrir la voie à une « nouvelle physique ».

Le 23 septembre 2011, des chercheurs de l'expérience Opera, installée dans le laboratoire souterrain du Gran Sasso, en Italie, présentaient un résultat intrigant : les neutrinos semblaient pouvoir aller plus vite que la lumière !

Cette annonce, qui laissa les physiciens plutôt sceptiques, déclencha un enthousiasme médiatique considérable : Einstein se serait donc trompé ?

Opera est une expérience internationale, destinée à observer le phénomène d'« oscillation de neutrinos » dont on attend qu'il nous renseigne sur la masse encore inconnue de ces particules. Elle utilise un faisceau de neutrinos de haute énergie produit par l'un des accélérateurs du CERN, à Genève, dirigé vers un détecteur installé à Gran Sasso, à environ 730 kilomètres de distance. L'avance de 60 nanosecondes affichée par les neutrinos, révélée par ses mesures, était donc sans rapport direct avec son objectif principal.

Depuis, à l'issue d'un long travail de détective, deux sources d'erreur expérimentale ont été découvertes : une mauvaise connexion entre un GPS et un ordinateur avait réduit le temps de vol des neutrinos de 75 nanosecondes, tandis qu'une horloge vibrant plus vite que prévu l'avait augmenté de 15 nanosecondes... La somme des deux effets explique les 60 nanosecondes d'avance, indûment constatées.

Icarus, une autre expérience installée au Gran Sasso, et ayant des objectifs voisins de ceux d'Opera, n'avait d'ailleurs pas confirmé l'anomalie détectée par sa consoeur. Quelques mois auront donc suffi pour que les choses « rentrent dans le rang », c'est-à-dire pour qu'on ait l'assurance que les neutrinos, comme toutes les autres particules, respectent le droit canon mis en place en 1905 par la théorie de la relativité restreinte. En d'autres termes, la vitesse de la lumière demeure toujours cohérente avec son anagramme : elle « limite les rêves au-delà ».

Le rôle de l'anomalie
Cet épisode n'est pas dénué d'enseignements. D'abord, il rappelle, s'il en était encore besoin, que les erreurs sont possibles en science, notamment lorsque les expériences sont d'une très grande complexité. Il montre également qu'il peut toujours arriver que des données nouvelles obligent les chercheurs à réexaminer leurs connaissances les mieux établies. Même lorsqu'il ne s'agit finalement que d'une fausse alerte, cet exercice n'est jamais inutile.

L'annonce des résultats d'Opera a suscité de nombreux échanges entre physiciens de différentes spécialités. Les uns ont expliqué que ces résultats ne pouvaient être pris au sérieux. Soit pour des raisons théoriques, comme les physiciens américains Andrew Cohen et Sheldon Glashow, qui ont très vite montré que de tels neutrinos supraluminiques auraient de toute façon perdu la quasi-totalité de leur énergie, par une sorte de rayonnement de freinage, avant d'atteindre le détecteur d'Opera [1]. Soit parce que ces résultats étaient en contradiction flagrante avec d'autres observations, notamment celles faites lors de l'explosion d'une supernova nommée 1987A [2].

D'autres chercheurs ont traqué les failles possibles ou les biais éventuels de l'expérience, concernant par exemple la synchronisation des horloges, la prise en compte des erreurs statistiques, les incertitudes sur les instants d'émission des neutrinos... D'autres ont proposé des interprétations alternatives du résultat, s'interrogeant en particulier sur la notion de temps de vol en théorie de la relativité générale.

D'autres encore ont tenté de « recycler » d'anciennes théories, notamment celle des « tachyons », particules hypothétiques supraluminiques satisfaisant malgré tout aux postulats de la relativité restreinte [3], ou bien ont réexaminé le statut du principe de causalité dans un cadre relativiste. D'autres enfin ont cherché à rendre compte des résultats d'Opera, soit à partir d'une nouvelle physique impliquant des neutrinos authentiquement supraluminiques, soit à partir de théories physiques encore à l'ébauche, comme la théorie des supercordes qui envisage des dimensions supplémentaires d'espace-temps que les neutrinos auraient pu emprunter entre Genève et l'Italie...

Ces diverses réactions, mises ensemble, sont venues enrichir une sorte de leçon d'épistémologie que l'histoire de la physique nous a déjà largement enseignée : d'une façon générale, lorsque le résultat d'une expérience ou d'une observation constitue une « anomalie » au sens où il contredit les prédictions d'une théorie par ailleurs solidement éprouvée, trois sortes d'hypothèse peuvent être simultanément envisagées :

1 - Le résultat expérimental tient à une erreur de mesure, ou à une mauvaise interprétation des données, comme cela fut le cas pour Opera.

2 - Il existe une « entité » ou une « substance » non encore découverte dont l'existence permettrait d'annuler le désaccord entre la théorie et l'expérience. La solution consiste alors à compléter le mobilier ontologique de l'Univers au nom de l'universalité de lois physiques bien établies par ailleurs. C'est ainsi qu'a été formulée l'hypothèse de la « matière noire » (lire « L'insaisissable nature de la matière noire », p. 48), censée expliquer que les galaxies subissent l'effet gravitationnel de masses plus importantes que les seules masses visibles. Et comme nous allons le voir - ironie de l'histoire -, c'est précisément ce type d'hypothèse qui a permis la prédiction de l'existence du neutrino en 1930.

3 - Les lois physiques sur lesquelles s'étaient appuyées les prédictions théoriques ne sont pas aussi exactes qu'on l'avait cru. Dans ce cas, la solution du problème est de nature législative : il faut corriger les lois physiques, peut-être même bâtir une nouvelle théorie, radicalement différente de la précédente. Ainsi, l'anomalie de l'avance du périhélie de Mercure constatée au XIXe siècle n'a été résolue que grâce à l'élaboration, en 1915, d'une nouvelle théorie de la gravitation, la relativité générale d'Einstein. Aujourd'hui, certains physiciens tentent d'ailleurs de corriger cette théorie afin de rendre compte du mouvement des galaxies sans faire l'hypothèse qu'une matière noire existe.

Aucun de ces trois types d'hypothèse ne peut être écarté a priori. L'histoire de la physique montre en effet qu'il n'existe pas de recette systématique permettant de prévoir laquelle se révélera finalement être la bonne : des crises ont été résolues de façon législative, d'autres par des ajouts ontologiques, d'autres enfin se sont évanouies lorsqu'il a été constaté qu'elles provenaient d'erreur de mesure ou d'interprétation.

Reste que les mésaventures d'Opera - qui sont en réalité l'aventure même de la recherche - ne retirent rien au parfum de mystère qui continue d'entourer les neutrinos, ni aux enjeux fondamentaux qui leur sont aujourd'hui associés et qui ont trait, pour la plupart d'entre eux, à des questions liées à leur masse, que l'on cherche toujours à déterminer. Il faut dire que, depuis qu'ils sont entrés dans le champ de la physique, les neutrinos ont toujours eu le statut de particules un peu « à part ».

Le petit du neutron
Tout commença avec l'épineux problème que constituait à la fin des années 1920 l'un des trois types de radioactivité, celle dite « ß » : lorsqu'un noyau contient trop de neutrons pour être stable, il se transforme en un autre noyau en émettant un électron. Au cours de l'année 1930, cette transformation nucléaire semblait encore très énigmatique. Les mesures indiquaient que l'énergie de l'électron émis n'est pas chaque fois la même.Elle peut prendre une valeur quelconque, tantôt grande, tantôt petite, alors qu'on s'attendait à ce qu'elle ait une valeur bien précise, toujours la même, celle qui correspond précisément à la différence d'énergie entre le noyau initial et le noyau final.

Ces résultats semblaient violer la loi de conservation de l'énergie qui, dans une telle situation, indique que l'énergie de l'électron doit être parfaitement déterminée. Pour sauver cette loi essentielle de la physique, Wolfgang Pauli fit une hypothèse audacieuse : contrairement aux apparences, le noyau ne se désintègre pas en deux corps (un autre noyau et un électron), mais en trois. Une troisième particule, pensa-t-il, est émise simultanément, qui emporte l'énergie manquante.

Le premier physicien à prendre cette idée au sérieux fut Enrico Fermi, qui baptisa « neutrino » la particule de Pauli, ce qui signifie en italien quelque chose comme « petit du neutron ». En 1933, quelques mois après la découverte du neutron par James Chadwick, il mit à profit ces deux nouvelles particules - le neutron et l'hypothétique neutrino - pour élaborer l'une de ses plus belles oeuvres, la théorie de la désintégration ß, qui s'appuie sur deux hypothèses : le proton et le neutron sont deux états différents d'un même objet fondamental ; quant à l'électron expulsé, il ne préexiste pas dans le noyau mais il est créé en même temps que le neutrino, lors du processus de transformation d'un neutron du noyau en un proton. Ce « modèle de Fermi » ouvrira un chapitre très important de la physique de l'interaction nucléaire « faible », cette force responsable de la désintégration ß et de bien d'autres phénomènes qui ont cours dans le monde de l'infiniment petit. Il est le précurseur de ce que l'on appelle aujourd'hui le « modèle standard » de la physique des particules.

Peu à peu, au gré des discussions entre physiciens, les caractéristiques du neutrino s'affinèrent : il s'agit d'abord d'une particule de masse très faible, peut-être nulle, de même spin* que l'électron ; elle interagit, en outre, à peine avec la matière, ce qui la rend très difficilement détectable. De fait, l'existence de cette particule presque insaisissable ne sera confirmée que vingt-cinq ans plus tard, en 1956, par deux Américains, Frederick Reines et Clyde Cowan, qui sauront profiter du très haut flux de neutrinos émis par le coeur d'un des premiers réacteurs nucléaires américains, à Savannah River, en Caroline du Sud, pour en capturer quelques-uns.

Masse exacte
Et aujourd'hui encore, les neutrinos (car il y en a de plusieurs espèces, capables d'osciller de l'une à l'autre dès lors que leur masse est non nulle) continuent de défier les physiciens. Certaines de leurs propriétés nous échappent encore. Quelle est leur masse exacte ? Sont-ils leurs propres antiparticules ? Cette dernière énigme, vieille de quatre-vingts ans, attend toujours sa réponse, avec une impatience grandissante

Neutrino et antineutrino ?
Dans les années 1930, un jeune prodige de la physique, Ettore Majorana, a proposé une alternative séduisante à la théorie de l'antimatière que Paul Dirac avait formulée en 1931. Sa « théorie symétrique de l'électron et du positron » demeure au coeur de certaines études expérimentales menées aujourd'hui sur les neutrinos, qui pourraient déboucher sur des résultats révolutionnaires. Pour Paul Dirac, à chaque particule de matière, même dépourvue de charge électrique, est associée une antiparticule qui ne lui est pas identique. Majorana, lui, envisage les choses autrement : il propose une équation, différente de celle de Dirac, pour laquelle les particules neutres, sans charge électrique donc, sont nécessairement identiques à leurs propres antiparticules.

À ce jour, personne ne sait lequel de ces deux génies avait vu juste. Mais le neutrino, parce qu'il est la seule particule de matière qui soit à la fois élémentaire et électriquement neutre, pourrait trancher le débat. S'il avait une masse nulle, comme le supposait Pauli, le fait qu'il soit « de Dirac » ou « de Majorana » importerait peu, car cela ne conduirait à aucune différence de comportement. Mais on sait depuis 2001 que ce n'est pas le cas : Raymond Davis et Masatoshi Koshiba ont reçu en 2002 le prix Nobel pour avoir établi que les neutrinos sont bel et bien massifs, sans pouvoir toutefois préciser la valeur exacte de leur masse. Il n'est donc plus indifférent de savoir si les neutrinos sont identiques ou non à leur propre antiparticule, dès lors qu'on peut imaginer des expériences qui conduiraient à des résultats différents dans l'un et l'autre cas.

Mais comment faire ? Il arrive que des paires de neutrinos soient produites lors d'événements extrêmement rares, comme la « double désintégration ß » où, au lieu d'un électron et un neutrino comme dans la désintégration ß classique, ce sont simultanément deux électrons et deux neutrinos (en fait deux antineutrinos) qui sont émis par un noyau atomique [fig.1]. Cette désintégration, spécifique de certains noyaux tels le calcium 48, le germanium 76, le sélénium 82 et quelques autres, ne survient que très rarement (les demi-vies* radioactives de ces noyaux sont de l'ordre de 1020 ans ). Mais des physiciens essaient aujourd'hui de détecter des événements encore plus rares où seuls deux électrons seraient émis, c'est-à-dire sans émission d'aucun neutrino. Leur idée est que, si le neutrino était identique à sa propre antiparticule, il devrait pouvoir s'annihiler dès qu'il rencontre l'un de ses congénères, neutrino ou antineutrino, de sorte que les deux neutrinos émis par désintégration ß pourraient disparaître de l'état final.

Plusieurs expériences internationales sont actuellement sur les rangs pour traquer cette « double désintégration ß sans émission de neutrino ». Le premier démonstrateur de Supernemo devrait être installé au laboratoire de Modane dans le tunnel du Fréjus à la fin 2014. Gerda est déjà en développement dans le souterrain du Gran Sasso qui doit aussi héberger sa consoeur Cuore. D'autres expériences, Exo et Majorana, devraient démarrer aux États-Unis... Le principe est de rassembler la plus grande quantité d'atomes candidats, par exemple du sélénium 82 pour Supernemo, ou du germanium 76 pour Gerda, de les protéger du rayonnement cosmique dans un souterrain, et d'attendre patiemment qu'un tel phénomène se produise et se laisse détecter.

Cette nouvelle génération d'expériences vise à atteindre la centaine de kilogrammes de l'élément choisi, soit un ordre de grandeur de plus que la génération précédente. Selon la théorie de Dirac, cette nouvelle forme de radioactivité est rigoureusement impossible, alors qu'elle doit pouvoir être observée, selon la théorie de Majorana. Sans aucun doute, sa mise en évidence serait une découverte cruciale puisqu'elle obligerait à modifier le statut des neutrinos dans l'actuel modèle standard de la physique des particules et ouvrirait la voie à une « nouvelle physique ».

Par Gilles Cohen-Tannoudji, Étienne Klein


 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

UN PC DANS LA POCHE

 

HIGH-TECH
PC stick, un ordinateur dans la poche
Henri-Pierre Penel

Connecté à un écran ou à un téléviseur (comme ici) via la prise HDMI, le PC stick est piloté avec un clavier et une souris grâce à sa liaison sans fil Bluetooth. La puce Wi-Fi assure la connexion avec Internet et le cloud où sont stockés les contenus de l'ordinateur, celui-ci ayant une mémoire à la capacité très limitée.
Guère plus gros qu'une clé USB, peu coûteux à l'achat, ce nouvel équipement nomade se branche sur un moniteur ou une télévision. Effet de mode ou révolution informatique ?

Avec leur aspect de grosse clé USB sans clavier ni écran, les PC sticks constituent une nouvelle famille d'ordinateurs. Ils témoignent d'une nouvelle vision de l'informatique qui, profitant de la miniaturisation, pourrait bien révolutionner l'équipement personnel à un prix défiant toute concurrence. Flexibles, totalement adaptés au mode vie nomade, ces microordinateurs poids légers (environ 60 grammes) se glissent en effet dans une poche ou un sac. Il suffit ensuite, une fois arrivé à destination -- chez soi, sur son lieu de vacances, à l'hôtel, chez des amis... -- de les brancher sur un téléviseur ou un écran1
60 gLe poids d'un PC stick.2 cmSa taille en moyenne

équipé d'une prise HDMI standard pour être aussitôt connecté à Internet et retrouver tous ses documents.
Le géant américain des microprocesseurs Intel, en partenariat avec Microsoft, a ainsi commercialisé en juillet son Compute Stick fonctionnant sous système d'exploitation Windows 8 pour 149 , tandis que Google, en association avec le taïwanais Asus, lançait au même moment le Chrome Bit, tournant sous Chrome OS, pour 99 . Sur ce marché naissant, la France n'est pas en reste puisque Archos a présenté en juin son PC Stick fonctionnant sous Windows 10, qui sera commercialisé très prochainement, également à 99 .
Plusieurs systèmes d'exploitation sont proposés sur les PC stick : Windows 8, Chrome OS ou Linux. Il faut prendre en compte ce point lors de l'acquisition de l'appareil, car il détermine les applications qu'il acceptera ainsi que les services auxquels il pourra accéder. Par exemple, un PC stick fonctionnant sous Chrome OS pourra accéder à la bibliothèque d'applications et de services proposée par Google mais pas à celle de Microsoft. La situation inverse prévaut pour un équipement fonctionnant sous Windows 8.
Il en est de même pour les suites bureautiques : Microsoft Office n'est pas compatible avec Chrome OS. Il faudra utiliser Google Doc qui, en revanche, peut exploiter les fichiers issus de Microsoft Office et produire des documents compatibles avec ce dernier. Toutefois, l'ergonomie des deux univers est assez différente ce qui peut dérouter. Heureusement, beaucoup de services en streaming sont compatibles avec les différents OS et les applications sont le plus souvent elles aussi déclinées en plusieurs versions.
Première différence donc, mais de taille, avec les ordinateurs « classiques », fixes ou portables : ces PC sticks ne disposent d'aucun écran et doivent être connectés à un téléviseur ou un écran par le biais leur prise HDMI pour fonctionner. L'image affichée est de bonne qualité puisque la résolution peut atteindre 1920 x 1080 pixels, soit l'équivalent de celle d'un moniteur informatique conventionnel ou d'une image en TV HD pour les vidéos.
De même, aucun clavier ni aucune souris ne sont fournis avec l'appareil, il faut utiliser la liaison Bluetooth pour associer ces différents périphériques qui peuvent aussi comprendre micro, casque ou imprimante. La liaison Internet étant assurée, elle, par Wi-Fi. En somme, les PC sticks ne conservent que les éléments constitutifs indispensables du coeur d'un ordinateur, à savoir un microprocesseur et un peu de mémoire. D'origine, la capacité de celle-ci reste très limitée, mais elle peut être étendue par adjonction d'une carte Micro SD, identique à celle qu'utilisent les téléphones mobiles.
Des machines qui misent tout sur le « cloud »

Même si les performances restent bien moindres que celles d'un disque dur d'ordinateur portable pouvant atteindre de un à plusieurs téraoctets, ce point n'a, paradoxalement, qu'une importance secondaire. Car les PC Sticks misent tout sur le cloud (« informatique en nuage ») : les contenus sont stockés, non directement sur l'appareil, mais dans des serveurs à distance. Une stratégie que Google avait déjà testée avec succès pour ses chromebooks, ces ordinateurs portables proposés à un prix serré et dont le succès a été immédiat (voir Sciences et Avenir n° 807, mai 2014). Ceux-ci exploitaient déjà massivement Google Drive (le cloud de Google) pour fonctionner.
Microsoft propose désormais un concept comparable avec OneDrive. Ainsi, les fichiers, voire les logiciels, sont téléchargés « à la volée » dans le PC stick en fonction des besoins du moment, ce qui réduit beaucoup son coût de fabrication et permet aux constructeurs de proposer ces prix attractifs. Équipés des mêmes logiciels que les ordinateurs personnels, ces micro-ordinateurs fonctionnent dès lors aussi efficacement que les autres. Ainsi, le Compute Stick d'Intel -- sous Windows -- exploite toute la suite Office de Microsoft (Word, Excel, Power Point, etc.) tandis que le Chrome Bit, géré par Chrome OS,dispose d'une suite bureautique équivalente. En déplacement, l'utilisateur retrouve son environnement informatique habituel et peut rédiger un texte ou une présentation puis les partager avec d'autres usagers comme il l'aurait fait depuis son ordinateur de bureau.
L'écran familial transformé en « media center »

Ces ordinateurs d'un nouveau genre visent aussi un public de jeunes technophiles, fans de musique et de vidéo à la demande car ils sont parfaitement adaptés aux nouvelles plates-formes de services en ligne. Leurs utilisateurs peuvent accéder à l'ensemble des services auxquels ils ont sous-crit -- les vidéos en streaming sur Netflix par exemple --, puisque les codes d'accès et l'identification sont stockés dans le stick.
Ces nouveaux appareils visent aussi un public de jeunes technophiles, fans de musique et de vidéo à la demande

Seuls les amateurs de jeux vidéo seront pénalisés en raison de la faiblesse de la carte graphique entraînant des performances d'affichage limitées, en particulier sur les animations 3D complexes. Si les téléviseurs de dernière génération connectables à Internet (Smart TV) offrent aussi de tels services, la navigation des sticks apparaît plus intuitive. En outre, ces derniers peuvent également, en se connectant au réseau domestique, exploiter directement les contenus des différents périphériques pour diffuser, par exemple, de la musique dans les différentes pièces de l'habitation. Ils pourraient bien ainsi bouleverser le marché de la télévision connectée puisqu'ils transforment en un clin d'oeil l'écran familial en « media center »
.

 

Sciences > High-tech > Informatique > PC stick, un ordinateur dans la poche
PC stick, un ordinateur dans la poche
Henri-Pierre PenelPar Henri-Pierre Penel

Publié le 14-10-2015 à 13h34

Guère plus gros qu’une clé USB, peu coûteux à l’achat, ce nouvel équipement nomade se branche sur un moniteur ou une télévision. Effet de mode ou révolution informatique ?
Connecté à un écran ou à un téléviseur (comme ici) via la prise HDMI, le PC stick est piloté avec un clavier et une souris grâce à sa liaison sans fil Bluetooth. La
puce Wi-Fi assure la connexion avec Internet et le cloud où sont stockés les contenus de l’ordinateur, celui-ci ayant une mémoire à la capacité très limitée. ©Sciences et Avenir / Betty LafonConnecté à un écran ou à un téléviseur (comme ici) via la prise HDMI, le PC stick est piloté avec un clavier et une souris grâce à sa liaison sans fil Bluetooth. La puce Wi-Fi assure la connexion avec Internet et le cloud où sont stockés les contenus de l’ordinateur, celui-ci ayant une mémoire à la capacité très limitée. ©Sciences et Avenir / Betty Lafon


NUMÉRIQUE. Cet article est extrait du magazine Sciences et Avenir n°824, en vente en octobre 2015. Le magazine est également disponible à l'achat en version numérique via l'encadré ci-dessous.


Avec leur aspect de grosse clé USB sans clavier ni écran, les PC sticks constituent une nouvelle famille d’ordinateurs. Ils témoignent d’une nouvelle vision de l’informatique qui, profitant de la miniaturisation, pourrait bien révolutionner l’équipement personnel à un prix défiant toute concurrence. Flexibles, totalement adaptés au mode vie nomade, ces microordinateurs poids légers (environ 60 grammes) se glissent en effet dans une poche ou un sac. Il suffit ensuite, une fois arrivé à destination — chez soi, sur son lieu de vacances, à l’hôtel, chez des amis… — de les brancher sur un téléviseur ou un écran équipé d’une prise HDMI standard pour être aussitôt connecté à Internet et retrouver tous ses documents. Le géant américain des microprocesseurs Intel, en partenariat avec Microsoft, a ainsi commercialisé en juillet son Compute Stick fonctionnant sous système d’exploitation Windows 8 pour 149 €, tandis que Google, en association avec le taïwanais Asus, lançait au même moment le Chromebit, tournant sous Chrome OS, pour 99 €. Sur ce marché naissant, la France n’est pas en reste puisque Archos a présenté en juin son PC Stick fonctionnant sous Windows 10, qui sera commercialisé très prochainement, également à 99 €.

Première différence donc, mais de taille, avec les ordinateurs "classiques", fixes ou portables : ces PC sticks ne disposent d’aucun écran et doivent être connectés à un téléviseur ou un écran par le biais leur prise HDMI pour fonctionner. L’image affichée est de bonne qualité puisque la résolution peut atteindre 1920 x 1080 pixels, soit l’équivalent de celle d’un moniteur informatique conventionnel ou d’une image en TV HD pour les vidéos. De même, aucun clavier ni aucune souris ne sont fournis avec l’appareil, il faut utiliser la liaison Bluetooth pour associer ces différents périphériques qui peuvent aussi comprendre micro, casque ou imprimante. La liaison Internet étant assurée, elle, par Wi-Fi. En somme, les PC sticks ne conservent que les éléments constitutifs indispensables du coeur d’un ordinateur, à savoir un microprocesseur et un peu de mémoire. D’origine, la capacité de celle-ci reste très limitée, mais elle peut être étendue par adjonction d’une carte Micro SD, identique à celle qu’utilisent les téléphones mobiles.

Des machines qui misent tout sur le "cloud"

Même si les capacités de stockage restent bien moindres que celles d’un disque dur d’ordinateur portable pouvant atteindre de un à plusieurs téraoctets, ce point n’a, paradoxalement, qu’une importance secondaire. Car les PC Sticks misent tout sur le cloud ("informatique en nuage") : les contenus sont stockés, non directement sur l’appareil, mais dans des serveurs à distance. Une stratégie que Google avait déjà testée avec succès pour ses chromebooks, ces ordinateurs portables proposés à un prix serré et dont le succès a été immédiat (voir Sciences et Avenir n° 807, mai 2014). Ceux-ci exploitaient déjà massivement Google Drive (le cloud de Google) pour fonctionner. Microsoft propose désormais un concept comparable avec OneDrive. Ainsi, les fichiers, voire les logiciels, sont téléchargés "à la volée" dans le PC stick en fonction des besoins du moment, ce qui réduit beaucoup son coût de fabrication et permet aux constructeurs de proposer ces prix attractifs. Équipés des mêmes logiciels que les ordinateurs personnels, ces micro-ordinateurs fonctionnent dès lors aussi efficacement que les autres. Ainsi, le Compute Stick d’Intel — sous Windows — exploite toute la suite Office de Microsoft (Word, Excel, Power Point, etc.) tandis que le Chromebit, géré par Chrome OS, dispose d’une suite bureautique équivalente. En déplacement, l’utilisateur retrouve son environnement informatique habituel et peut rédiger un texte ou une présentation puis les partager avec d’autres usagers comme il l’aurait fait depuis son ordinateur de bureau.

L'écran familial transformé en "Media Center"

Ces ordinateurs d’un nouveau genre visent aussi un public de jeunes technophiles, fans de musique et de vidéo à la demande car ils sont parfaitement adaptés aux nouvelles plates-formes de services en ligne. Leurs utilisateurs peuvent accéder à l’ensemble des services auxquels ils ont souscrit — les vidéos en streaming sur Netflix par exemple—, puisque les codes d’accès et l’identification sont stockés dans le stick. Seuls les amateurs de jeux vidéo seront pénalisés en raison de la faiblesse de la carte graphique entraînant des performances d’affichage limitées, en particulier sur les animations 3D complexes. Si les téléviseurs de dernière génération connectables à Internet (Smart TV) offrent aussi de tels services, la navigation des sticks apparaît plus intuitive. En outre, ces derniers peuvent également, en se connectant au réseau domestique, exploiter directement les contenus des différents périphériques pour diffuser, par exemple, de la musique dans les différentes pièces de l’habitation. Ils pourraient bien ainsi bouleverser le marché de la télévision connectée puisqu’ils transforment en un clin d’oeil l’écran familial en "media center".

Attention au choix du système d’exploitation

Plusieurs systèmes d’exploitation sont proposés sur les PC stick : Windows 8, Chrome OS ou Linux. Il faut prendre en compte ce point lors de l’acquisition de l’appareil, car il détermine les applications qu’il acceptera ainsi que les services auxquels il pourra accéder. Par exemple, un PC stick fonctionnant sous Chrome OS pourra accéder à la bibliothèque d’applications et de services proposée par Google mais pas à celle de Microsoft. La situation inverse prévaut pour un équipement fonctionnant sous Windows 8. Il en est de même pour les suites bureautiques : Microsoft Office n’est pas compatible avec Chrome OS. Il faudra utiliser Google Doc qui, en revanche, peut exploiter les fichiers issus de Microsoft Office et produire des documents compatibles avec ce dernier. Toutefois, l’ergonomie des deux univers est assez différente ce qui peut dérouter. Heureusement, beaucoup de services en streaming sont compatibles avec les différents OS et les applications sont le plus souvent elles aussi déclinées en plusieurs versions.

 

DOCUMENT        sciencesetavenir.fr      N° 824
 

 
 
 
 

UNE NOUVELLE LECTRODE ...

 

Paris, 30 septembre 2015
Une nouvelle électrode multiplie par mille la capacité de stockage des micro-supercondensateurs

Développés depuis une dizaine d'années, les micro-supercondensateurs constituent une alternative intéressante aux micro-batteries en raison de leur puissance élevée et de leur longue durée de vie. Mais jusqu'à présent, ils stockaient considérablement moins d'énergie que les micro-batteries, ce qui limitait leur utilisation. Or, des chercheurs du Laboratoire d'analyse et d'architecture des systèmes (LAAS-CNRS)1, à Toulouse, et de l'INRS2, au Québec, viennent de mettre au point un matériau d'électrode qui permet à ces condensateurs électrochimiques de se rapprocher des résultats des batteries, sans pour autant perdre leurs avantages. Ces travaux sont publiés le 30 septembre 2015 dans la revue Advanced Materials.
Avec le développement des systèmes électroniques embarqués3 et des technologies sans fil, la miniaturisation des dispositifs de stockage d'énergie est devenue nécessaire. Très répandues, les micro-batteries engrangent une grande quantité d'énergie grâce à leurs propriétés chimiques. Elles craignent par contre les écarts de température et souffrent d'une faible puissance électrique et d'une durée de vie limitée, souvent aux alentours de quelques centaines de cycles de charge/décharge. À l'inverse, les micro-supercondensateurs disposent d'une grande puissance et d'une durée de vie théoriquement infinie, mais ne peuvent stocker qu'une faible quantité d'énergie.

S'ils font l'objet d'un nombre croissant de travaux depuis une dizaine d'années, les micro-supercondensateurs n'ont pas encore trouvé d'applications concrètes. En effet, leur faible densité d'énergie, c'est-à-dire la quantité d'énergie qu'ils peuvent emmagasiner sur un volume ou une surface donnés, ne leur permet pas d'alimenter durablement des capteurs ou des composants électroniques. Des chercheurs de l'équipe Intégration de systèmes de gestion de l'énergie du LAAS-CNRS, en collaboration avec l'Institut national de la recherche scientifique du Québec, ont réussi à lever cette limitation en alliant le meilleur des micro-supercondensateurs et des micro-batteries.

Ils ont ainsi mis au point un matériau d'électrode dont la densité d'énergie surpasse tous les systèmes proposés jusqu'à présent. L'électrode est constituée d'une structure en or extrêmement poreuse, synthétisée par un procédé électrochimique, dans laquelle de l'oxyde de ruthénium a été inséré. Ces matériaux onéreux restent ici utilisables, car la taille des composants est de l'ordre du millimètre carré. Cette électrode a ensuite servi à fabriquer un micro-supercondensateur d'une densité d'énergie de 0,5 J/cm², soit environ 1000 fois celle des micro-supercondensateurs existants, et un résultat très proche des caractéristiques des micro-batteries Li-ion actuelles.

Avec cette nouvelle densité d'énergie, leur longue durée de vie, leur forte puissance et leur tolérance aux écarts de température, ces micro-supercondensateurs pourraient enfin être utilisés sur des microsystèmes embarqués autonomes et intelligents.

électrode
© Anaïs Ferris – LAAS
Cliché obtenu par microscopie électronique à balayage d'une structure 3D poreuse en or.


Télécharger le communiqué de presse : CP microsupercondensateur

Notes :
1 Le LAAS fait partie des Instituts Carnot, label qui souligne sa capacité à mener des activités de recherche propres à renouveler leurs compétences scientifiques et technologiques, et une politique volontariste en matière de recherche partenariale au profit du monde socio-économique.
2 Institut national de la recherche scientifique
3 Les systèmes embarqués sont des systèmes électroniques autonomes. Ils doivent souvent répondre à des contraintes de taille et de consommation.

Références :
3D RuO2 Micro-Supercapacitors with Remarkable Areal Energy, Anaïs Ferris, Sébastien Garbarino, Daniel Guay et David Pech. Advanced Materials, 30 septembre 2015.
DOI : 10.1002/adma.201503054
Consulter le site web

 

 DOCUMENT         cnrs        LIEN  

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Prcdente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google