ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

PUCES ET BIOPUCES

 

 

 

 

 

 

 

PUCES ET BIOPUCES

La puce est un carré en silicium (seul matériau avec lequel on soit arrivé à faire des semiconducteurs), plus petit que l’ongle du petit doigt, avec de très nombreuses petites pattes qui font penser à une puce. On peut se faire une idée de la révolution qu’a introduit la puce, en consultant par exemple Internet, qui est de loin la manifestation la plus spectaculaire des possibilités. Il y a des microprocesseurs partout, c’est à dire l’intelligence ; il y a des mémoires. Je n’ai inventé que la carte à puces. Les biopuces sont une sorte de fantasme journalistique : il n’y en a pas qui fonctionne. Les grands de l’informatique comme Intel, Texas Instrument ne travaillent pas dessus. C’est trop différent des circuits intégrés.

Il y a une différence spectaculaire entre mémoire informatique et mémoire humaine.
Comment se fait-il qu’il est si difficile d’apprendre ? Qu’il soit impossible d’oublier sur commande ? Aujourd’hui j’ai une veste jaune, si demain vous voulez chasser cette image de votre mémoire, ça vous sera complètement impossible. Il n’y a pas d’intersection entre la volonté et la mémoire. La mémoire artificielle la plus simple : une feuille de papier, une vitre embuée sont des mémoires, au sens où l’on peut inscrire une information et elle reste. Toutes ces mémoires sont effaçables. Il suffit de frotter avec un chiffon et l’information s’évapore. Rien de tel n’est concevable avec notre mémoire. La mémoire humaine est infinie ; ce soir ayant déjà dans notre tête tout ce que nous avons, nous allons voir un film d’action, on sort avec le film dans la tête mais ça n’a pas chassé de précédent souvenir. Les mémoires artificielles sont finies, elles ont un espace délimité. Une cassette de magnétoscope, une fois remplie, ne peut prendre une seconde d’images supplémentaires. Sur cet étonnement, j’ai voulu créer une mémoire artificielle ayant les traits de fonctionnement de la mémoire humaine, son irréversibilité. Une information enregistrée est irréversiblement enregistrée. Les informaticiens adorent ce type de situation stable...

Texte de la 251e conférence de l'Université de tous les savoirs donnée le 7 septembre 2000.
PUCES ET CARTES A PUCES par Roland MORENO
La puce est un carré en silicium (seul matériau avec lequel on soit arrivé à faire des semi- conducteurs), plus petit que l’ongle du petit doigt, avec de très nombreuses petites pattes qui font penser à une puce. On peut se faire une idée de la révolution qu’a introduit la puce, en consultant par exemple Internet, qui est de loin la manifestation la plus spectaculaire des possibilités. Il y a des microprocesseurs partout, c’est à dire l’intelligence ; il y a des mémoires. Je n’ai inventé que la carte à puces.
Les biopuces sont une sorte de fantasme journalistique : il n’y en a pas qui fonctionne. Les grands de l’informatique comme Intel, Texas Instrument ne travaillent pas dessus. C’est trop différent des circuits intégrés.
Il y a une différence spectaculaire entre mémoire informatique et mémoire humaine. Comment se fait-il qu’il est si difficile d’apprendre ? Qu’il soit impossible d’oublier sur commande ? Aujourd’hui j’ai une veste jaune, si demain vous voulez chasser cette image de votre mémoire, ça vous sera complètement impossible. Il n’y a pas d’intersection entre la volonté et la mémoire.
La mémoire artificielle la plus simple : une feuille de papier, une vitre embuée sont des mémoires, au sens où l’on peut inscrire une information et elle reste. Toutes ces mémoires sont effaçables. Il suffit de frotter avec un chiffon et l’information s’évapore.
Rien de tel n’est concevable avec notre mémoire. La mémoire humaine est infinie ; ce soir ayant déjà dans notre tête tout ce que nous avons, nous allons voir un film d’action, on sort avec le film dans la tête mais ça n’a pas chassé de précédent souvenir.
Les mémoires artificielles sont finies, elles ont un espace délimité. Une cassette de magnétoscope, une fois remplie, ne peut prendre une seconde d’images supplémentaires.
Sur cet étonnement, j’ai voulu créer une mémoire artificielle ayant les traits de fonctionnement de la mémoire humaine, son irréversibilité. Une information enregistrée est irréversiblement enregistrée. Les informaticiens adorent ce type de situation stable.
Si mon adresse est inscrite sur ma carte et que je déménage, on va juste pouvoir ajouter ma nouvelle adresse, mais sans effacer la précédente. Dans le quotidien, la carte téléphone qui a 50 unités, ne peut être rechargée. Une unité consiste à inscrire un point mémoire.
La surface d’une puce correspond à quelques bits de mémoires. Comment réaliser une telle fonction ?
Le processus comprend plus de 100 étapes. On part d’un disque de silicium, on vient le graver en une centaine d’étapes, des gravures de l’ordre de un millième de millimètre. On dope cette puce avec des matériaux rares : bore, phosphore, antimoine, arsenic, on creuse des galeries, on édifie des fortifications d’un millionième de millimètre de hauteur, et à la fin on a une mémoire ou plutôt un microprocesseur, capable d’intelligence, c'est à dire de faire de la traduction automatique, de la reconnaissance de forme.
La carte à puces dans ce décor ne représente qu’un dix millième des utilisations que l’on fait de la microélectronique, mais occupe une grande place dans la vie quotidienne : carte bancaire, carte téléphone, carte sim ; chez vous carte du décodeur Canal plus.
Cette banalité de l’objet constitue un précédent dans l’histoire industrielle, car cet objet est uniforme ; par exemple le velcro de mes chaussures n’a pas la même forme sur votre vêtement.
Les cartes à puces sont un identifiant qui transporte de l’argent – et non de l’information. La carte est si complexe à faire, elle ne peut être contrefaite, elle correspond à deux de nos préoccupations : l’identification ou notre portefeuille :
L’identification se fait par un code à quatre chiffres. Une fois la puce autorisée à travailler, elle révèle la véritable identité du porteur, par exemple son RIB.
Beaucoup de gens réclament la carte d’identité à puce, ou la carte d’électeur. La carte d’identité interdit (selon un traité réunissant 17 pays dans le monde) qu’une information d’état civil ne soit pas directement lisible par l’homme. Sinon, nous transporterions un objet avec des secrets sur nous-même. Quant à la carte d'élécteur, la démocratie est une chose si ancienne qu’il ne faudrait pas l’acoquiner avec une trouvaille des années soixante-dix ; pour gagner quoi ?
La carte à puces se résume donc à deux fonctions : identité et argent.
La carte à puces est inconnue aux États-Unis, depuis son invention il y a 26 ans. Or, les Américains font tout les objets qui comptent : polaroid, blue-jean, Macintosh, pilule, Tampax, Viagra. Toutes les grandes mutations depuis 1945 sont américaines. Le progrès vient des États-Unis, un peu du Japon (photo), marginalement d’Allemagne.
Internet ressemble à Big Brother. Napster, qui permet à chacun la musique d’écouter la musique des autres internautes. Aux États-Unis, il existe le credit scoring, votre score en termes de solvabilité. Les ordinateurs tournent avec vos performances de crédit. En France, les cartes bleues sont les seules à connaître vos données.
La carte à puce est implantée au Japon, en Europe du Nord de l’Est, Moyen-Orient, Amérique latine. La France est encore leader dans ce domaine : 25.000 emplois directs liés à la carte à puces. Le leader de la carte à puces, la société marseillaise Gem plus, réalise 85% de son chiffre d’affaires à l’exportation. L’Allemagne nous talonne, les Allemands ont un porte- monnaie à puce, diffusé à 60 000 millions d’exemplaires ; en Chine, il y a 4 usines Schlumberger de cartes à puces.
La carte à puces est un objet utile, citoyen, joue un rôle dans notre système économique, mais n’est pas un gadget. Elle Remplit des fonctions que ne pourraient remplir d’autres supports, comme les pistes magnétiques,
Le téléphone cellulaire ou portable, révolutionne notre vie et très récemment. Avec un téléphone portable, pour la première fois, les gens sourient dans la rue ; c’est toujours bon à prendre.
Que sera notre société dans 15 ans, lorsqu’il y aura 1 500 fois plus d’Internet ? Ce n’est pas une mode.
Le minitel est derrière nous, mais il a facilité la pédagogie de l’informatique. Il marque un des rendez-vous manqué de la carte à puce, car l’industrie n’a pas été assez réactive. Le minitel aurait pu être payée par carte à puce. Le 3615 fut une grosse erreur, coûtait très cher (60 francs de l’heure). La connexion télécommunication /carte à puce sera par Internet –même s’il y a des fraudes au numéro de carte. Le commerce électronique, le e-buisness se développe. Mes brevets tombent dans le domaine public le 13 septembre 2000, et les Américains risquent de s’approprier la découverte. Mais est-ce pour une raison de coût ? Sur une carte de téléphone de 50 francs, l’objet coûte 2 francs à faire, on met 3 francs de publicité, le buraliste gagne 2,50 francs et l’inventeur touche 4 centimes par carte. Mais il s’agit plutôt du syndrome NIH, not invented here, le truc qui n’a pas été inventé ici. J’aurais été italien, je n’aurais pas imposé la carte en France ; j’ai été ici accueilli à bras ouverts par les gouvernements car j’étais français. Le lendemain de mon idée, toute la communauté bancaire française était partante. Vous connaissez peut-être la formule d’Edison, qui dit que l’invention c’est 10%
d’inspiration et 90 % de transpiration. J’ajouterais ; et trois quart de chance. Je n’aurais pas rencontré un banquier le lendemain matin de mon idée, je ne serais peut-être pas devant vous ce soir. On commence par récompenser l’inventeur avec un brevet, et après 20 ans abandonne le brevet.
Une source de malentendu est de confondre la carte à puces avec la mémoire informatique, qui est dépourvue de moyen de protection. La carte à puce rend l’information secrète (code confidentiel) et irréversible.
Mars dernier, un ingénieur informaticien a contourné le système de sécurité bancaire et a fait une fausse carte à puces, pour acheter des tickets de métro. Il a fait les gros titres de la presse. Libération titrait « la puce n’était pas inviolable ». C’était faux, j’ai offert un million de francs à qui lirait le code secret d’une carte ou écrirait une information sur une carte dans les zones qui sont protégée par mes brevet : personne n’a pu le faire.

 

  VIDEO       CANAL  U         LIEN  
 

 
 
 
 

Les événements climatiques extrêmes

 


 

 

 

 

 

Les événements climatiques extrêmes

« Ouragan du siècle », « Canicule extrême » ou encore « Événement Cévenol ». Depuis quelques années, ces termes sont à la une des médias face à la survenance de phénomènes météorologiques extrêmes. Ces événements de natures très variées, le plus souvent inattendus et violents, nous semblent survenir bien plus fréquemment. Mais est-ce vraiment le cas ? Et si oui, peut-on établir un lien avec le réchauffement climatique ?

LES EXTRÊMES MÉTÉOROLOGIQUES
Même parmi les scientifiques, la notion d’événement météorologique extrême reste difficile à définir. En effet, statisticiens, physiciens et spécialistes des sciences sociales ont chacun leur définition d’événement météorologique extrême. Bien que ces trois définitions soient complémentaires, elles ont chacune une dimension propre.
Pour les statisticiens, un extrême sera nommé ainsi si une mesure (température, vitesse du vent) dépasse les valeurs communément rencontrées. Ce sont les chiffres qui déterminent si oui ou non un événement est extrême.

Une seconde définition est donnée par les physiciens : l’extrême correspond à une catégorie d’événement (cyclone tropical, tempête extra-tropicale, vague de chaleur, sécheresse, etc.) qui dépend de la région et de sa description phénoménologique.

Enfin, les spécialistes des sciences sociales définissent l’événement par les dégâts causés. En ce sens, un événement sera dit extrême lorsqu’il touche la société. Un événement aura plus tendance à être qualifié d’extrême dans ce cas que s’il se déroulait dans un lieu sans habitation (par exemple dans le désert) car il n’est à l’origine ni de dégât matériel, ni de perte humaine. Aussi, un événement climatique sera considéré comme extrême s’il se déroule dans un lieu où la population n’est pas habituée à se protéger contre un type d’événement particulier. Par exemple, en France, la population est moins habituée à recevoir beaucoup de chutes de neige, contrairement au Canada où la population est préparée et habituée à faire face à ce type d’événement.

Les critères de détermination d’un événement extrême diffèrent en fonction du lieu. Par exemple, on parle de canicule à Toulouse quand pendant au moins trois jours, les températures la nuit sont au-dessus de 21 °C et quand en journée les températures dépassent les 36 °C. Alors qu’à Brest, une canicule est avérée si pendant au moins trois jours il fait plus de 16 °C la nuit et plus de 28 °C en journée.

Classement des extrêmes
Les extrêmes météorologiques peuvent se classer en deux catégories en fonction de leur durée : des phénomènes longs persistant plusieurs semaines ou plusieurs mois (telle une sécheresse) et d’autres, souvent très intenses, dont la durée se limite à quelques heures voire quelques jours.

LES ROUAGES DES EXTRÊMES
Les mécanismes des extrêmes météorologiques sont complexes. Par exemple, la canicule de l’été 2003 est la conséquence de mouvements de masses d’air sur une très vaste étendue spatiale (plusieurs milliers de kilomètres de rayon). Les conditions à réunir pour provoquer une vague de chaleur sont multiples et peuvent être annulées par quelques jours de précipitations. D’où l’extrême difficulté à prévoir leur occurrence quelques semaines à l’avance même s’il est clair qu’une augmentation des températures augmente le risque de survenue des canicules.
L’apparition des autres phénomènes climatologiques extrêmes (vagues de froid, tornades, tempêtes, etc.) est la résultante également de multiples facteurs et de leurs interactions, qu’il peut être très compliqué de modéliser et de prévoir.

COMPRENDRE LE PASSÉ POUR DÉTERMINER LES CAUSES DES PHÉNOMÈNES CLIMATIQUES EXTRÊMES
L’étude du climat du passé est l’une des pistes qui permet aux scientifiques d’établir un lien entre les extrêmes météorologiques (sécheresse, vagues de froid par exemple) et l’évolution des températures moyennes.
Certains historiens comme E. Le Roy Ladurie se sont penchés sur les archives, à la fois nationales mais aussi parfois très localisées et détaillées telles que des registres paroissiaux, dans lesquelles on trouve la trace de certains événements météorologiques ayant particulièrement marqué la population (tempêtes, épisodes de chaleur ou de froid, destruction de bâtiments, récoltes dévastées, etc.). La description des effets et des dégâts causés donne une approximation du niveau de violence de ces phénomènes subis par nos ancêtres. Des documents relatent que la sécheresse était particulièrement redoutée par les sociétés rurales car celle-ci mettait en danger les récoltes. Cette frayeur de la sécheresse était si grande que des processions pro pluvia s’organisaient pour implorer l’arrivée de la pluie.
Grâce à ces données et à celles que l’on peut analyser aujourd’hui (analyse de cernes de croissance des arbres, carottes glaciaires etc.), les chercheurs peuvent en savoir plus sur les événements extrêmes du passé et ainsi les comparer à ceux d’aujourd’hui. Par exemple, des historiens suisses (O. Wetter et C. Pfister) ont reconstruit, après avoir étudié de nombreuses archives, une canicule potentiellement pire que celle de 2003 qui aurait touché l’Europe… en 1540.

QUEL LIEN AVEC LE RÉCHAUFFEMENT CLIMATIQUE ?

Aujourd’hui, certains extrêmes météorologiques sont liés à la température moyenne du globe, et à son augmentation en raison du réchauffement climatique. Si le lien n’est pas encore totalement élucidé et fait l’objet de nombreux débats scientifiques, il est bien possible, dans certains cas, d’affirmer que le réchauffement climatique est responsable de l’augmentation de l’intensité des précipitations de pluie et de neige. Ceci s’explique par la relation thermodynamique de Clausius-Clapeyron, qui dit que la quantité d’eau sous forme de vapeur présente dans l’atmosphère augmente avec la température.

Ce phénomène se ressent notamment au sud de l’Italie où des vagues de froid entraînent d’importantes précipitations neigeuses depuis le début des années 2000, alors que l’on sait que par le passé il ne neigeait pas autant dans cette région. La mer Méditerranée étant plus chaude, elle crée une évaporation d’eau qui vient ensuite se transformer en chutes de neige une fois sur les terres. Le cycle de l’eau se voit impacté par le réchauffement climatique. 

Mais le réchauffement climatique n’a, a priori, aucun effet sur le déclenchement des cyclones. On constate d’ailleurs que le nombre de tempêtes extratropicales et de cyclones tropicaux n’a pas augmenté au cours des dernières décennies. Cependant, le réchauffement climatique participe à l’augmentation des précipitations survenues pendant les cyclones (c’est la relation de Clausius-Clapeyron).

En revanche, l’augmentation du nombre de canicules est clairement corrélée au réchauffement climatique. En effet, il y a plus de canicules au 21e siècle qu’au début du 20e siècle.  L’explication de cette corrélation est toujours débattue.

La question du lien entre réchauffement climatique et la multiplication des événements climatiques extrêmes enregistrés par les météorologues ne trouve donc pas de réponse définitive ni absolue. Elle diffère selon le type d’événement concerné. Si elle ne fait guère de doute pour certains événements, pour d’autres, elle nécessite encore de nombreuses données avant d’établir un éventuel lien de causalité.

Le lien entre le développement de nos connaissances sur le climat et la prévision des impacts météorologiques extrêmes reste un défi posé aux scientifiques s’intéressant au climat. Cela nécessite un travail en étroite collaboration entre des disciplines qui se sont ignorées pendant des décennies. Plusieurs initiatives nationales et internationales comblent ces fossés, entre sciences du climat, droit, économie et sciences sociales d’une manière générale.

 

 DOCUMENT     cea         LIEN

 
 
 
 

HORLOGE

 


 

 

 

 

 

horloge

(latin horologium, du grec hôrologion, de hôra, heure, et legein, dire)

Consulter aussi dans le dictionnaire : horloge
Appareil horaire fixe, de grandes dimensions, possédant un dispositif d'indication de l'heure sur un cadran, et souvent un dispositif de sonnerie des heures et des demi-heures. (→ comtoise.)
Il est difficile de dater avec précision l'apparition de l'horlogerie mécanique : c'est en 996 que le moine Gerbert d'Aurillac, futur pape Sylvestre II, aurait inventé l'horloge à poids, à moins que ce ne soit Guillaume de Hirschau en 1091, à Cluny, ou encore d'anonymes Italiens du xive s. Il est certain que les premiers essais d'horloges mécaniques – elles étaient constituées d'une corde enroulée sur un tambour et lestée d'un objet pesant – ne donnèrent pas de résultats probants, car le mouvement du poids doit se faire à vitesse constante. Des horloges mécaniques seront construites et installées dans des clochers un peu avant l'an 1300, mais leur fonctionnement posa sans doute de nombreux problèmes.

UNE INVENTION DÉTERMINANTE : LE FOLIOT

Il fallait associer au simple treuil des premières horloges un dispositif régulateur du mouvement, l'échappement. Ce n'est qu'au début du xive s. qu'apparaîtra le premier régulateur, le foliot, dont l'histoire de la mise au point est encore totalement inconnue. On sait seulement que le physicien et astronome italien Giovanni Dondi construisit, de 1344 à 1350, une horloge à poids et foliot pour la ville de Padoue. Le principe en est simple : il s'agit d'arrêter le mouvement du mécanisme pendant un laps de temps très court et à intervalles réguliers, de sorte que sa vitesse moyenne soit suffisamment ralentie, et surtout constante.
Dans une horloge de ce type, le foliot est lancé à droite et à gauche par une roue dentée, la roue de rencontre – entraînée par un poids –, qui agit sur deux palettes portées par l'axe du système, la verge. Lorsqu'une de ces palettes est en appui contre une dent de la roue de rencontre, elle arrête son mouvement ainsi que celui de l'ensemble du mécanisme, mais elle est repoussée par la dent en sens inverse, qui est alors libérée ; à son tour, l'autre palette entre en contact avec une dent diamétralement opposée et immobilise la roue. Le processus, qui se répète ainsi, régulé par le mouvement de rotation alternatif de la verge et du foliot, dépend des frottements de l'axe dans ses pivots et de l'inertie du foliot. Des masselottes, ou régules, peuvent être déplacées aux extrémités de ce dernier afin d'ajuster le mouvement de l'ensemble.

Cependant, la maîtrise approximative des différents paramètres et l'état d'imperfection du dispositif ne permettaient pas d'obtenir un mouvement précis : le battement étant d'autant plus rapide que le poids est lourd, le foliot fonctionnait plus comme un ralentisseur de la chute du poids que comme un régulateur. Néanmoins, il est toujours considéré comme une invention de génie, car c'est le premier mécanisme d'échappement de l'histoire de l'horlogerie.
Ces premières horloges mécaniques sont surveillées en permanence par un « horlogeur », chargé de remonter les poids, de chauffer l'huile en hiver, et de les remettre à l'heure solaire du lieu à l'aide de clepsydres et de cadrans solaires. Le cadran, apparu vers la fin du xve s., ne possède qu'une aiguille – cette indication est largement suffisante, compte tenu de la précision de ces instruments. L'aiguille des minutes n'apparaîtra qu'à la fin du xviie s.

PRÉMICES DE L'INDUSTRIE HORLOGÈRE
Au début installées uniquement dans les clochers et les beffrois, les horloges se répandent vers la fin du xve s. dans les châteaux et les demeures bourgeoises : plus fiables et plus petites, elles n'ont plus besoin d'un serveur permanent.
Les horlogers du Moyen Âge sont tout à la fois des astronomes, des astrologues, des forgerons, des serruriers et des armuriers. La recherche d'une précision toujours meilleure de leurs horloges les conduit à inventer les premières machines-outils, qui seront ensuite utilisées en armurerie, en serrurerie et dans l'industrie textile : les tours à fileter, les machines à fraiser et à tailler les roues dentées apparaissent au xvie s. À cette époque, il n'y avait dans l'ensemble de l'Europe qu'une centaine d'horlogers ; à partir de 1550 les premières corporations voient le jour, qui ne regroupent qu'une quinzaine de spécialités.
L'horlogerie est alors une activité de pointe qui va bientôt donner naissance à une véritable industrie. Les fabriques horlogères vont se concentrer dans les régions où le commerce est actif et où existent des ressources en matières premières : l'Angleterre, l'Allemagne (Forêt-Noire) ou l'Italie du Nord, puis dans des cités comme Blois – François Ier fait installer un atelier d'horlogerie dans son château –, Paris, Genève, Amsterdam et Londres.

HORLOGE ATOMIQUE
Une horloge moléculaire ou atomique est une horloge de haute précision fonctionnant à partir de molécules d'ammoniac, d'atomes de césium, de rubidium, d'hydrogène, dont les vibrations servent d'étalon de temps.
Un atome isolé peut absorber ou émettre des signaux électromagnétiques dont la fréquence, quantifiée, est uniquement définie par les interactions fondamentales entre le noyau et les électrons. Comme ces interactions fondamentales sont supposées être invariantes au cours du temps, les fréquences de résonance atomiques sont intrinsèquement stables. Un ou plusieurs atomes de même espèce peuvent dès lors constituer une référence de fréquence (ou de période) et donc une référence de temps.

Depuis 1967, une résonance de l'atome de césium définit l'unité de temps, la seconde.

Dans une horloge atomique, la résonance des atomes est excitée par un signal électromagnétique fourni par un oscillateur externe (oscillateur à quartz, laser…). Soumis à ce signal, l'atome peut absorber un photon, avec une probabilité qui dépend de l'écart entre la fréquence du signal et la fréquence de résonance atomique. La probabilité devient maximale lorsque les deux fréquences coïncident. Comme il est relativement facile de mesurer la proportion d'atomes ayant absorbé un photon, on obtient une information qui représente l'écart entre les deux fréquences. Cette information est alors utilisée pour corriger la fréquence de l'oscillateur et la maintenir constamment égale à la fréquence de résonance atomique. L'oscillateur externe fournit dès lors un signal périodique ultrastable qui peut définir une référence de temps. En 2005, les meilleures horloges atomiques, les fontaines atomiques à césium de l'Observatoire de Paris, atteignent une exactitude de 6.10−16 en valeur relative, soit une erreur de 1 seconde en 50 millions d'années.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…

    
A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?

Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

    
Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google