ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

La supraconductivité et ses applications

 


 

 

 

 

 

La supraconductivité et ses applications

Publié le 7 septembre 2016

Découvert en 1911, le phénomène de supraconductivité continue de fasciner et trouve aujourd’hui de nombreuses applications dans les domaines de la santé, de l’énergie, des transports, des instruments de recherche pour l’analyse chimique et structurale (analyse RMN) ou encore des grands accélérateurs pour étudier les particules élémentaires.
QU’EST-CE QUE LA SUPRACONDUCTIVITÉ ?

À l’état supraconducteur, un matériau refroidi à très basse température acquiert la capacité de conduire parfaitement un courant électrique, sans résistance, et donc sans perte d’énergie. De même, à l’état supraconducteur, les matériaux possèdent la propriété d’expulser totalement le champ magnétique qui les entoure, ce qui peut se manifester par des effets spectaculaires de lévitation magnétique.


Le phénomène de supraconductivité a été découvert en 1911 par le physicien Heike Kammerlingh Onnes. Traduit par des propriétés électriques, magnétiques et quantiques spécifiques, il apparaît lorsque l’on refroidit certains métaux ou alliages à très basses températures, proches du zéro absolu, 0 kelvin soit - 273,15 °C. Appelée température critique (Tc), la température à laquelle le matériau devient supraconducteur dépend de la composition chimique de celui-ci. Pour la plupart des matériaux, dits supraconducteurs conventionnels, elle se situe entre 1 et 33 kelvins (soit entre - 272 et – 240°C), ce qui nécessite un refroidissement à l’hélium liquide, voire au-delà.

Depuis 1986, des oxydes de cuivre ou cuprates, appelés supraconducteurs à haute température critique (haut-Tc) ou supraconducteurs non conventionnels, peuvent être refroidis à l’azote liquide (à 77 K soit - 196°C). Dans les conditions usuelles, ce sont les cuprates de mercure qui détiennent actuellement le record de température critique : 135 K (- 138°C). En 2008, des scientifiques ont réussi à synthétiser une nouvelle famille de supraconducteurs à haute température critique : les pnictures (Tc = 55K, soit - 218°C). Possédant des propriétés différentes des cuprates, ces matériaux suscitent également beaucoup d’intérêt depuis leur découverte. Enfin, sous très haute pression (1,5 mégabar, soit la moitié de la pression au centre de la Terre), le sulfure d'hydrogène (H2S) devient supraconducteur en dessous de la nouvelle température de -70° C.

QUELLE EST L’ORIGINE DE LA SUPRACONDUCTIVITÉ ?
La supraconductivité est un phénomène quantique collectif. C’est une des manifestations possibles, et perceptible à notre échelle, du comportement quantique de la matière.
Dans les matériaux supraconducteurs classiques, les électrons se regroupent par paires (dites paires de Cooper), en interagissant avec les atomes présents autour d’eux. Ils forment alors une vague collective. Cette vague électronique se propage comme une onde, sans subir de collision avec les défauts présents dans la matière, ce qui permet de conduire du courant électrique sans perte d’énergie. Ce phénomène ne peut se produire qu’à basse température lorsque les atomes du matériau ne vibrent pas trop (sinon les paires d'électrons se scindent et la résistance électrique du matériau réapparait).

EXEMPLES D’APPLICATIONS
DE LA SUPRACONDUCTIVITÉ

La compréhension et la maîtrise des principes de la supraconductivité est à l’origine de nombreuses applications. L'absence de résistance du matériau supraconducteur d'une bobine électrique permet en particulier de générer des champs magnétiques très intenses (plusieurs teslas). L’IRM, qui a révolutionné le diagnostic médical et la compréhension du cerveau, nécessite des champs magnétiques intenses qui peuvent être obtenus grâce à la maîtrise de ce phénomène ; les transports, les télécommunications, l’électronique, l’informatique,… peuvent également exploiter ses propriétés. En outre, sans supraconducteurs, les très grands instruments de recherche tels que l’accélérateur de particules LHC aujourd’hui, ou Iter demain, ne pourraient voir le jour.

Imagerie médicale

S’il est un domaine dans lequel la supraconductivité a joué un rôle essentiel, c’est celui de l’imagerie médicale. La technologie de l’IRM, outil de diagnostic et de recherche désormais incontournable, est en effet une retombée directe des recherches menées sur le sujet. Spécifiquement, la base d’une IRM est de créer un champ magnétique très fort et homogène sur un volume suffisant afin qu'une proportion significative des protons de l’eau du corps du sujet (quelques protons par million) ait un "axe de rotation sur eux-mêmes" aligné. Cette première difficulté technologique, est résolue avec la supraconductivité, qui permet de disposer de champs magnétiques intenses, stables et uniformes.
Outre l’IRM haut champ, la supraconductivité intervient dans la fabrication des capteurs magnétiques qui sont à la base d’autres techniques d’imagerie médicale : l’IRM bas champ (où, au lieu de renforcer la polarisation par un champ magnétique très intense, on utilise un capteur très sensible), la magnétoencéphalographie (MEG) et la magnétocardiographie (MCG).

Les très grands instruments de recherche
La supraconductivité joue aujourd’hui un rôle prépondérant dans la conception et la réalisation des très grands instruments dédiés à l’exploration de la matière. Employée dans les accélérateurs de particules pour développer les électroaimants supraconducteurs qui dévient et focalisent les faisceaux, elle intervient également dans le domaine des cavités radiofréquence (RF) qui génèrent le champ électrique qui accélère les particules chargées au centre du faisceau.
L’emploi de matériaux supraconducteurs a un triple avantage :  
*         l’absence de résistivité des supraconducteurs, qui évite toute dissipation d’énergie, permet de gagner en puissance sans augmenter la consommation de l’installation ;
*         grâce à l’annulation de l’effet joule (échauffement dû à la résistivité du matériau), il devient possible de faire passer de grandes densités de courant dans des bobinages très compacts. La densité alliée à la compacité permettent d’obtenir des champs magnétiques beaucoup plus élevés ;
*         la supraconductivité permet de générer des champs magnétiques très puissants, pouvant atteindre jusqu’à 20 teslas.

Fusion nucléaire
La supraconductivité trouve également des applications dans le domaine de la fusion nucléaire. L’une des pistes étudiées pour tenter de reproduire sur Terre l’énergie des étoiles repose sur la conception d’une machine appelée sous son acronyme russe « Tokamak ».
En forme d'anneau (ou « tore »), les particules qui y sont injectées subissent des champs magnétiques si intenses qu’elles restent fortement confinées dans la partie centrale de l’anneau, sans contact avec les parois et peuvent ainsi provoquer des réactions de fusion. Pour produire de tels champs, on utilise des bobines réalisées à partir de matériaux supraconducteurs.

OÙ EN EST LA RECHERCHE SUR LA SUPRACONDUCTIVITÉ ?
Si les mécanismes à l’origine de la supraconductivité dans la majorité des matériaux, dits supraconducteurs conventionnels, sont élucidés depuis longtemps et bien compris, ce n’est pas le cas des supraconducteurs à haute température critique (cuprates et pnictures). Il s’agit d’un des principaux sujets de recherche actifs dans le domaine de la supraconductivité qui oblige les physiciens à élaborer de nouveaux matériaux et à inventer différentes façons de mesurer leurs propriétés ainsi que de nouveaux concepts pour les décrire.
En synthétisant de nouveaux échantillons supraconducteurs et en analysant leurs propriétés, les chercheurs espèrent percer les derniers mystères de la supraconductivité afin d’arriver à l’obtention du même phénomène à plus haute température et peut-être un jour découvrir une supraconductivité encore plus proche de la température ambiante, ce qui ouvrirait de nouveaux champs d’applications.

 

  DOCUMENT     cea         LIEN

 
 
 
 

La mécanique quantique

 


 

 

 

 

 

La mécanique quantique

Publié le 15 mai 2019

Qu'est-ce que la mécanique quantique ? Pourquoi est-elle utilisée ? A quoi sert-elle ? Où la retrouve-t-on dans notre quotidien ? Petite introduction au monde quantique.

QU’EST-CE QUE
LA MÉCANIQUE QUANTIQUE ?

A l’aube du XXe siècle, la naissance de la physique quantique révolutionne notre conception du monde : les physiciens réalisent que la physique classique, qui décrit parfaitement notre environnement quotidien macroscopique, devient inopérante à l’échelle microscopique des atomes et des particules. En effet, les atomes et les particules élémentaires de la matière, n’évoluent pas comme un système classique, où les quantités d’énergie échangées peuvent prendre n'importe quelle valeur. Pour un système quantique, l’énergie s’échange par valeurs discrètes ou « quanta ».
Par ailleurs, la physique classique décrit différemment un corpuscule (atome, particule) et une onde (lumière, électricité) tandis que la mécanique quantique confond les deux descriptions : un photon, un électron, un atome ou même une molécule sont à la fois onde et corpuscule.
Si, en physique classique, l’état d’un système est parfaitement défini par la position et la vitesse de l'ensemble de ses composants– il ne peut être alors que dans un seul état à un moment et à un endroit donné, il n’en va pas de même en physique quantique. Un système quantique, tel qu'une simple onde-corpuscule, peut se trouver dans une superposition cohérente d'états, qui traduit la potentialité de tous ses états possibles. Sa présence à un endroit donné, son énergie deviennent alors probabilistes : ainsi, un atome peut être à la fois dans son état fondamental stable et dans un état excité (c’est-à-dire possédant une énergie supérieure, acquise par exemple par l'absorption d'un photon). Un photon peut être à un endroit et à un autre en même temps. On ne peut être certain qu'il est en un seul lieu que si l'on effectue une mesure. Le processus de mesure impose alors à l’onde-corpuscule un état défini.
De ces découvertes, qui forment la première révolution quantique, découlent un certain nombre d’applications encore utilisées aujourd’hui : les lasers, les circuits intégrés ou encore les transistors, à la base du fonctionnement des appareils électroniques notamment.

LE CHAT DE SCHRÖDINGER

Le physicien Schrödinger a utilisé une image devenue célèbre pour mettre en avant le côté paradoxal d’objets dont on ne peut pas connaître l’état à tout moment. Il a imaginé un chat « quantique », enfermé dans une boîte sans fenêtre en présence d’un poison déclenché par un processus quantique. Tant que la boîte n’est pas ouverte, on ne sait pas si le processus quantique a déclenché le mécanisme, le chat est à la fois mort et vivant avec des probabilités dépendant du processus. Bien sûr, quand on ouvre la boîte le chat est soit mort, soit vivant. En regardant à l’intérieur, on fait une mesure qui nous permet de connaître l’état quantique du système.
    

À QUOI SERT
LA MÉCANIQUE QUANTIQUE
AUJOURD’HUI ?
Quelques effets sont emblématiques de la mécanique quantique :
*         L’effet laser est obtenu dans un système où les électrons sont majoritairement dans un même état excité et se désexcitent tous ensemble en émettant cette lumière intense. Cette transition des électrons d'un niveau d'énergie à un autre est un processus quantique.
*        
*         La supraconductivité est la disparition de toute résistance électrique dans un conducteur. Elle apparaît lorsque les électrons, portant une même charge électrique, peuvent s’apparier et se condenser dans un unique état quantique.
*        
*         L’effet tunnel permet à des électrons de franchir une « barrière » de potentiel ce qui est strictement interdit en physique classique.
*        
*         Le spin est une propriété quantique sans équivalent classique, à l'origine des propriétés magnétiques de la matière.
*        
Des physiciens cherchent à exploiter la richesse des états quantiques et à maîtriser leur mesure dans la perspective encore lointaine d’un ordinateur quantique.


La mécanique quantique prédit des comportements inhabituel,
dont l'effet tunnel est un bon exemple. © Yuvanoé/CEA


Depuis le début des années 1980, la physique quantique a pris un nouveau tournant : c’est la deuxième révolution quantique, qui se poursuit encore aujourd’hui. En 1982, le physicien Alain Aspect et son équipe parviennent à démontrer la réalité du principe d’intrication quantique, concept fondamental de la physique quantique. Par ce phénomène, proposé dans le courant des années 1930 par Erwin Schrödinger et Albert Einstein, les particules constituant un système sont liés, et le restent quelle que soit la distance qui les sépare. Ainsi, pour une paire de photons, une mesure faite sur l’un modifiera instantanément l'état du second, même s'ils sont séparés d'une longue distance (le record de distance pour l'observation de l'intrication de deux photons a été atteint en 2020 dans le domaine de la cryptographie quantique : des physiciens chinois ont pu échanger un message secret sur 1 120 km). Cette propriété pourrait avoir des applications importantes dans le domaine de l’information quantique : cryptographie, téléportation de l'information ou encore l’ordinateur quantique.
Et le champ d’application de la physique quantique va bien au-delà : le formalisme de la mécanique quantique est utilisé par les chercheurs en nanosciences (chimie, optique, électronique, magnétisme, physique de l’état condensé) et par les physiciens des lois fondamentales de l’Univers (particules, noyau atomique, cosmologie).



ET DEMAIN,
LA MÉCANIQUE QUANTIQUE ?
Les théories décrivant trois des quatre interactions fondamentales de l’Univers sont développées dans le cadre de la mécanique quantique :
*         l’interaction forte qui lie les composants du noyau entre eux,
*         l’interaction faible à l’origine de certaines formes de radioactivité,
*         l’électromagnétisme qui régit les phénomènes lumineux, électriques et magnétiques.
*        
La quatrième interaction, la gravitation, est expliquée par la relativité. Jusqu’à présent, dans les domaines d’énergie et d’espace que l’homme a pu explorer, il n’a pas été nécessaire de « quantifier » la gravitation.
De nombreux physiciens cherchent cependant à unifier ces deux théories pour embrasser les lois de l’Univers de manière plus simple et complète.

Mécanique quantique et relativité
En mécanique quantique, temps et espace sont différenciés. Dans la théorie de la relativité, le temps et l’espace forment une seule entité : l’espace-temps, et matière et énergie sont liées. La mécanique quantique relativiste et la notion de champ sont à la base de la "théorie des champs" qui permet de comprendre les phénomènes de physique des hautes énergies au sein des accélérateurs de particules, ou encore les phénomènes de physique de la matière condensée : supraconductivité, effet Hall quantique, ou la superfluidité.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Le boson de Higgs, une particule très spéciale

 

 

 

 

 

 

 

Le boson de Higgs, une particule très spéciale
Par : Achintya Rao
4 MAI, 2020 · View in English

Notre deuxième épisode de la série Dix ans de physique au LHC : la grande découverte

En tant que non-spécialiste je dirais maintenant : « ça y est, on l’a ! »
On l’avait enfin, le boson de Higgs, l’entité quasi-mythique qui a mis la physique des particules sous le feu des projecteurs dans le monde entier. Et celui qui parle, le « non-spécialiste », c’est tout simplement Rolf Heuer, directeur général du CERN à l’époque. Tout cela se passait dans l’amphithéâtre principal du Laboratoire, le 4 juillet 2012, quelques instants après l’annonce, par les collaborations CMS et ATLAS auprès du Grand collisionneur de hadrons, de la découverte d’une nouvelle particule élémentaire, dont nous savons aujourd’hui qu’il s’agissait d’un boson de Higgs. Les applaudissements qui retentirent à Genève se firent entendre jusqu’à Melbourne, en Australie, où les participants à la conférence internationale de la physique des hautes énergies assistaient à la scène par visioconférence.

Qu’a-t-elle donc de spécial, cette particule ?
« Tout simplement, que c’est la seule et unique particule élémentaire scalaire observée à ce jour », répond avec un grand sourire Rebeca Gonzalez Suarez, qui, en tant que doctorante, a participé aux recherches de CMS sur le boson de Higgs. « Tout simplement », façon de parler...
 
Élégance et symétries
À l’échelle subatomique, l’univers est une chorégraphie complexe de particules élémentaires interagissant les unes avec les autres via des forces fondamentales, pour laquelle on utilise souvent, dans le monde de la physique, le terme d’« élégance ».
« Dans les années 1960, les physiciens théoriciens travaillaient à une formulation élégante des lois fondamentales de la nature au moyen de la théorie quantique des champs », explique Pier Monni, du département Théorie du CERN. Dans cette théorie, les deux grandes catégories de particules, à savoir les particules de matière, ou fermions (électrons, quarks, etc.) et les particules porteuses de forces, ou bosons, (par exemple les photons, ou les gluons) sont des manifestations de champs quantiques fondamentaux sous-jacents. Aujourd’hui nous appelons cette description élégante le Modèle standard de la physique des particules.

Le Modèle standard de la physique des particules, représenté dans une seule équation (Image : CERN)
Le Modèle standard est fondé sur la notion de symétries dans la nature, c’est-à-dire de l’idée que les propriétés physiques restent inchangées lorsque l’objet décrit subit certaines transformations, par exemple une rotation dans l’espace. S’appuyant sur cette notion, les scientifiques ont pu proposer un ensemble unifié d’équations rendant compte à la fois de l’électromagnétisme (électricité, magnétisme, lumière) que de la force nucléaire faible (radioactivité). La force ainsi unifiée est appelée force électrofaible.

Mais ces symétries souffraient d’un défaut criant : « Les symétries expliquaient la force électrofaible, mais, pour qu’elles restent valides, il fallait que les particules porteuses de force n’aient pas de masse », explique Fabio Cerutti, qui a co-dirigé à deux reprises des groupes travaillant sur le Higgs à ATLAS. « Nous savions que le photon, qui est la particule porteuse de la force électromagnétique, était dépourvu de masse ; les bosons W et Z, porteurs de la force faible, ne pouvaient pas être sans masse. » Même si les W et les Z n’avaient pas été observés directement à l’époque, on savait que, si leur masse était nulle, cela impliquait un taux de désintégration bêta infini, ce qui était impossible physiquement, et cela signifiait que d’autres processus, à de hautes énergies, avaient une probabilité supérieure à un.

En 1964, deux articles, l’un signé de Robert Brout et François Englert, et l’autre de Peter Higgs, proposaient une solution : un nouveau mécanisme brisant la symétrie électrofaible. Le mécanisme Brout-Englert-Higgs supposait un nouveau champ quantique, que nous appelons aujourd’hui champs de Higgs, et dont la manifestation quantique est le boson dit de Higgs. Seules les particules qui interagissent avec le champ de Higgs acquièrent une masse. « C’est ce mécanisme-là qui crée toute la complexité du Modèle standard », ajoute Fabio Cerutti.
Conçu à l’origine pour expliquer les masses des bosons W et Z exclusivement, le mécanisme Brout-Englert-Higgs put bientôt être utilisé également pour expliquer la masse de toutes les particules élémentaires massives. « Pour rendre compte de la masse des bosons W et Z, il n’est pas nécessaire que le mécanisme de Higgs donne une masse à d’autres particules, par exemple aux électrons ou aux quarks, souligne Kerstin Tackmann, co-coordinatrice du groupe Higgs d’ATLAS. Mais c’est quand même bien pratique... »
Le problème mathématique avait ainsi été résolu il y a plusieurs décennies, mais il restait à savoir si l’équation décrivait bien la réalité physique.

Y a-t-il quelque chose dans le vide ?
Le champ de Higgs est particulier pour deux raisons.
Imaginons une région de l’espace parfaitement vide, entièrement dépourvue de matière. D’après la théorie quantique des champs, cette région hypothétique n’est pas vraiment vide : des paires particule-antiparticule, associées aux différents champs quantiques, surgissent brièvement avant de s’annihiler, en se transformant en énergie. Toutefois, l’« espérance quantique» de ces champs est de zéro ; autrement dit, en moyenne, on peut s’attendre à ce qu’il n’y ait aucune particule dans ce vide parfait. En revanche, l’espérance quantique du champs de Higgs dans le vide est élevée. « Cette espérance quantique non nulle signifie que le champ de Higgs est partout », explique K. Tackmann. C’est grâce à son omniprésence que le champ de Higgs a un effet sur toutes les particules élémentaires massives connues.

Quand l’Univers venait tout juste de commencer, et qu’il était encore extrêmement chaud, la densité d’énergie était plus élevée que l’énergie associée à l’espérance quantique dans le vide du champ de Higgs. Dans ces conditions, les symétries du Modèle standard restaient possibles, si bien que des particules telles que les W et les Z pouvaient être dépourvues de masse. Au moment où l’Univers commençait à refroidir, la densité d’énergie a diminué, jusqu’au moment (quelques fractions de seconde après le Big Bang) où elle est devenue inférieure à celle du champ de Higgs. Ce phénomène a brisé les symétries et certaines particules ont acquis une masse.

L’autre propriété du champ de Higgs est ce qui le rend impossible à observer directement. Il y a en effet plusieurs sortes de champs quantiques, qu’ils soient observés ou hypothétiques. Les champs vecteurs sont comme le vent : ils ont une intensité et une direction. Par conséquent, les bosons vecteurs ont un moment cinétique intrinsèque, le « spin ». Les champs scalaires s’apparentent plutôt à une température : ils ont une intensité, mais pas de direction, et pas de spin. Avant 2012, n’avaient été observés au niveau quantique que des champs vecteurs , par exemple le champ électromagnétique.
« Un champ peut être observé directement, par l’observation d’une particule qui interagit avec lui ; c’est le cas par exemple des électrons, dont la trajectoire est incurvée par la présence d’un champ magnétique, explique F. Monni. Il peut aussi être observé indirectement, par la production de la particule quantique qui lui est associée, en l’occurrence le photon. » L’ennui, c’est que le champ de Higgs, dont la valeur est constamment non nulle, ne peut pas être créé ou supprimé à volonté comme le champ électromagnétique. Pour prouver son existence, la seule possibilité est de créer, et d’observer, le boson de Higgs.
 
 
La bosse de la physique
Pour produire un boson de Higgs, il fallait des collisions de particules à des énergies suffisamment élevées, mais les scientifiques ne savaient pas quelle était la gamme d’énergie à viser.
Ils avaient cherché des signes de l’existence du boson de Higgs dans les collisions effectuées au Grand collisionneur électrons (LEP), prédécesseur immédiat du LHC, ainsi qu’au Tevatron du Fermilab, aux États-Unis. Le LHC avait la capacité d’explorer toute la gamme d’énergies où pouvait se trouver le boson de Higgs d’après la théorie, et on attendait d’ATLAS et de CMS, les deux détecteurs polyvalents auprès du LHC, une réponse définitive à la question de l’existence du Higgs. Pour certains, comme Pier Monni, l’appel du LHC s’est avéré irrésistible, ce qui l’a amené à abandonner une carrière dans l’ingénierie aéronautique pour se consacrer à la physique théorique.

Des collègues et amis de Rebeca Gonzalez Suarez se trouvaient dans les salles de contrôle de CMS et d’ATLAS lorsque le LHC a commencé son exploration des hautes énergies le 30 mars 2010. Elle-même se trouvait dans son bureau, sur le site principal du CERN à Meyrin. « J’étais en train d’écrire ma thèse sur un écran, mais je regardais la retransmission des collisions sur un autre. Je voulais savoir si le code que j’avais écrit pour identifier les particules produites dans les collisions fonctionnait ! »
Quand deux protons entrent en collision au LHC, ce sont les quarks qui les constituent qui interagissent les uns avec les autres. Ces interactions à des énergies élevées peuvent, par des effets quantiques bien théorisés, produire un boson de Higgs, lequel va immédiatement se transformer (« se désintégrer ») en des particules plus légères, susceptibles d’être observées par ATLAS et CMS. Les scientifiques devaient par conséquent accumuler suffisamment d’indices suggérant que les particules repérées pouvaient provenir d’un processus de Higgs et que la désintégration observée en était le résultat.

« Lorsque le programme LHC a commencé, le sentiment général était que le boson de Higgs ne pouvait être trouvé qu’après plusieurs années de collecte de données », raconte Vivek Sharma, qui a co-dirigé la recherche du Higgs à CMS au début de l’exploitation du LHC. Vivek Sharma et ses collègues ont présenté à CMS en septembre 2010 un dispositif permettant d’arriver au résultat avec moitié moins de données. Il fallait pour cela une compréhension fine du détecteur, de ses capacités et de ses limites, mais aussi une équipe comprenant des experts de différents domaines. « Au moment où ATLAS et CMS ont présenté une conférence commune au Comité des directives scientifiques en mars 2011, l’idée que le boson de Higgs pouvait être trouvé avec des ensembles de données plus réduits commençait à faire son chemin », ajoute Vivek Sharma.

En décembre 2011, lors d’un séminaire de fin d’année tenu par ATLAS et CMS, les serveurs web du CERN ont été submergés par les milliers d’internautes avides d’entendre les dernières nouvelles des deux collaborations. Les premiers indices du boson de Higgs étaient là : les deux détecteurs avaient observé dans leurs courbes de données des bosses qui semblaient être autre chose que du bruit ou des fluctuations statistiques. Cependant, ces résultats n’avaient pas atteints le niveau de certitude statistique qui permettaient de revendiquer une découverte. Il faudrait attendre encore près de sept mois avant que Joe Incandela, de CMS, et Fabiola Gianotti, d’ATLAS, puissent faire cette annonce, en juillet 2012. Les collaborations avaient réussi au-delà des espérances et découvert le boson de Higgs sur la base de deux années de données du LHC à peine.
Dans l’amphithéâtre du CERN, Peter Higgs essuyait des larmes de joie, et François Englert rendait hommage à son collègue et collaborateur, Robert Brout, qui n’était plus là pour voir confirmer expérimentalement le mécanisme qui porte son nom.
Rebeca Gonzalez Suarez a vécu l’événement avec des émotions mitigées. Sa recherche post-doctorale l’avait écartée de la recherche du Higgs avant la découverte, puis elle était passé de CMS à ATLAS. « La découverte du boson de Higgs était un événement historique, mais nous n’en sommes qu’au début ; il reste beaucoup à faire pour comprendre cette nouvelle particule ».

 

   DOCUMENT  cern   LIEN

 
 
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…


A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.

COMMENT FONCTIONNE LE DEEP LEARNING ?
Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

 DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google