ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

L'ASTROPHYSIQUE NUCLÉAIRE Généalogie de la matière

 

 

 

 

 

 

 

L'ASTROPHYSIQUE NUCLÉAIRE
Généalogie de la matière


En 1610, pointant sa lunette vers la Lune, Galilée vit des montagnes et en déduisit que la Lune était « terreuse ». Aujourd’hui, la Terre pourrait être qualifiée de céleste, car les éléments qui la composent ont été fabriqués dans les étoiles. L’étude systématique de la structure des noyaux, de leurs comportements et des réactions qui les mettent en jeu a eu un rôle central dans le développement de la théorie de l’origine des éléments.

Publié le 10 décembre 2015

UN PEU DE PHYSIQUE NUCLÉAIRE
Le noyau d’un atome est formé de particules appelées « nucléons » (protons et neutrons), liées entre elles. Le nombre de protons, Z, et le nombre de neutrons, N, varient d’un noyau à l’autre, et toutes les combinaisons (Z, N) ne sont pas possibles.
Neutrons et protons sont liés entre eux par la force nucléaire forte, dont le rayon d’action, très faible, est de l’ordre du millionième de milliardième de mètre (10–15 m). Elle est donc maximale lorsque les nucléons sont au contact ou très proches. Cependant, les nucléons situés près de la surface extérieure du noyau sont moins entourés et donc moins liés que ceux de l’intérieur ; ce déficit d’interaction diminue leur énergie de liaison.
Les protons, dotés d’une charge électrique positive, se repoussent entre eux sous l’effet de la force électrostatique. Cela occasionne une nouvelle diminution de l’énergie de liaison du noyau. Pour limiter cet effet, les noyaux les plus lourds présentent un excès de neutrons, dont la charge électrique est nulle. Par exemple, le noyau du plomb possède 82 protons et 126 neutrons. En revanche, les noyaux plus légers que le calcium (Z = 20) contiennent à peu près autant de protons que de neutrons. La plupart des noyaux ont la propriété d’avoir un nombre pair de protons et deneutrons. Il faut égrainer la liste des noyaux jusqu’au magnésium pour en rencontrer un ayant un nombre impair de nucléons.

Il existe un lien étroit entre microcosme nucléaire et macrocosme astronomique.

INVENTAIRE NUCLÉAIRE
Quels sont les noyaux que l’on trouve dans l’Univers et en quelles quantités ?
Il est possible de se faire une idée raisonnable en analysant la lumière émise par les étoiles grâce à la spectroscopie. Inventée à la fin du XIXe siècle, cette technique permet d’accéder à leurs caractéristiques intrinsèques (comme leur température, leur luminosité ou leur composition), marquant la naissance de l’astrophysique moderne.

Vallée de la stabilité

Les 256 noyaux stables que dénombre la physique nucléaire occupent une région bien définie appelée « vallée de stabilité ». Dans le prolongement de cette vallée, la répulsion électrostatique entre protons devient si forte qu’aucun noyau n’est stable au-delà du plomb (Z = 82). Là se trouvent des noyaux radioactifs naturels, dont certains comme le bismuth, le thorium ou l’uranium ont des durées de vie dépassant le milliard d’années.

UN EXEMPLE, LE SOLEIL
Le Soleil est l’étoile de la Terre. Bien que distant de 150 000 000 km environ, il est facile à étudier.
Les proportions relatives des divers atomes qui le composent sont mesurées par l’analyse du spectre de sa photosphère (sa couche externe, lumineuse). Cela ne donne que la composition de cette région externe, mais les chercheurs considèrent qu’elle est quasi identique à celle du nuage à partir duquel cette étoile s’est formée, il y a 4,56 milliards d’années.
La composition de la photosphère solaire peut être comparée à celle des météorites, seconde source d’information sur la composition du nuage protosolaire, à condition de prendre en compte les éléments les plus volatils (hydrogène, hélium, azote, oxygène et néon par exemple), qui s’en sont en partie échappés depuis leur formation. De plus, l’analyse des météorites en laboratoire permet de déterminer la composition isotopique de la matière du système solaire.
Ces analyses complémentaires fournissent la répartition des éléments et des isotopes caractérisant notre environnement local, véritable pierre de Rosette de l’astrophysique nucléaire.


La table de Mendeleïev
La table périodique des éléments de Mendeleïev permet de classer les différents éléments chimiques découverts à ce jour par nombre de protons dans le noyau, allant de 1 pour l’hydrogène à 92 pour l’uranium, et même plus pour des noyaux n’existant pas à l’état naturel et créés en laboratoire.

Elle spécifie les propriétés chimiques des éléments qui dépendent de leur nombre d’électrons. Dans l’Univers, les plus abondants sont, dans l’ordre décroissant, l’hydrogène et l’hélium, puis l’oxygène, le carbone, le néon, le fer, l’azote, le silicium, le magnésium et le soufre.

ASTRONOMIE ET
ASTROPHYSIQUE
L’astronomie traite de l’observation et du mouvement des objets célestes : Soleil, Lune, planètes, comètes, astéroïdes, étoiles. C’est, avec les mathématiques, la plus ancienne des sciences.

L’astrophysique étudie les propriétés physiques de ces objets, leur évolution et leur formation. Elle émerge à lafin du XIXe siècle.

 

 
Le diagramme d'abondance
Le diagramme d'abondance indique, pour chaque élément de la table périodique, la quantité trouvée dans le système solaire. Il est élaboré à partir de mesures et d’observations et est très précieux pour les astrophysiciens.


Sur cette échelle, le silicium, pris comme référence arbitraire, vaut un million.
Pour un million de noyaux de silicium, il y a dix milliards de noyaux d’hydrogène et les noyaux les plus simples, hydrogène et hélium, représentent à eux seuls 98 % de la masse du Soleil.
À partir du carbone, de l’azote et de l’oxygène, les noyaux sont de plus en plus rares, à l’exception notable du fer, dont le noyau est le plus robuste de la nature. S’il y a peu de lithium, béryllium et bore (Z = 3, 4 et 5) c’est que ces noyaux sont fragiles.
Ils ne sont pas produits par fusion thermonucléaire, mais par brisure des noyaux de carbone, d’azote et d’oxygène interstellaires sous l’impact de collisions avec les particules rapides du rayonnement cosmique galactique.

Une étoile s’accommode de sa perte d’énergie lumineuse en puisant dans ses ressources d’énergie nucléaire.
Il faut attendre le début du XXe siècle et le développement de la physique nucléaire pour que les astrophysiciens, qui cherchaient surtout à comprendre le mécanisme qui permettait à une étoile de briller durablement, répondent à la question : où se produisent les réactions nucléaires qui engendrent les noyaux ?
Une étoile est une sphère de gaz chaud dont la cohésion résulte de l’attraction gravitationnelle, qui tend à rapprocher le plus possible ses particules les unes des autres. L’étoile ne s’effondre pas sur elle-même, car la pression du gaz joue contre l’action de la gravité. Pour que cet équilibre soit stable, il faut que la pression augmente régulièrement avec la profondeur, de sorte que chaque couche pesante soit en équilibre entre une plus comprimée et une autre qui l’est moins. Comme un gaz comprimé s’échauffe, la matière stellaire est d’autant plus chaude qu’elle est profonde, et donc que sa pression est grande. Partant de quelques milliers de degrés en surface, la température peut atteindre, selon la masse de l’étoile, quelques dizaines à quelques centaines de millions de degrés dans les régions centrales.
Ce déséquilibre des températures entre le cœur et la surface engendre un transfert d’énergie qui prélève l’excès d’énergie thermique de la région chaude interne pour le céder à la région froide externe. En surface, ce flux d’énergie s’échappe, puis se dilue sous forme de rayonnement : l’étoile brille ; et ne peut briller durablement que si une source interne d’énergie vient compenser le rayonnement émis par la surface.

LES ÉTOILES,
DES RÉACTEURS NUCLÉAIRES

A la fin du XIXe siècle, aucune source d’énergie connue (gravitationnelle ou chimique) n’était capable d’expliquer que le Soleil ait pu briller plus d’un milliard d’années – âge que les géologues donnaient à la Terre – au rythme qui était observé. La solution fut apportée en 1921 par le physicien français Jean Perrin, suivi par l’Anglais Arthur Eddington, qui proposa les réactions nucléaires entre noyaux atomiques comme source de production d’énergie. Il estima que cette réserve d’énergie nucléaire était suffisante pour faire briller le Soleil pendant plusieurs milliards d’années, durée compatible avec l’âge de la Terre alors déterminé par les géologues. Cette idée fut développée quelques années plus tard par le physicien américain Hans Bethe, qui décrivit explicitement les réactions nucléaires qui devaient se produire au cœur du Soleil, travaux qui lui valurent le prix Nobel de physique en 1967.


La réaction de fusion nucléaire

La fusion est l’opération élémentaire d’un jeu de construction nucléaire qui permet de fabriquer tous les éléments. Si deux noyaux légers, comme ceux de l’hydrogène ou de l’hélium, fusionnent pour en former un autre plus lourd, cela dégage de l’énergie. Cette réaction est inhibée par la répulsion électrostatique entre noyaux, qui est d’autant plus forte que leur charge électrique est grande. Alliées à l'effet tunnel, les hautes températures se trouvant au cœur des étoiles peuvent vaincre cette répulsion.
Le centre du Soleil est la seule région où la température et la pression sont suffisamment élevées pour que ces réactions soient possibles. Elles transforment quatre noyaux d’hydrogène en un noyau d’hélium en libérant de l’énergie. Ce sont 619 Mt (millions de tonnes) d’hydrogène qui, chaque seconde, réagissent pour former 614,7 Mt d’hélium, la différence (environ 0,7 % de la masse initiale) étant transformée en énergie, qui compense celle qui s’échappe par la surface.
Finalement, durant la plus grande partie de sa vie, une étoile s’accommode de sa perte d’énergie lumineuse en puisant dans ses ressources d’énergie nucléaire.


LA PREUVE PAR LES NEUTRINOS
Depuis les années 1960, des instruments sont capables de détecter directement certaines des particules élémentaires produites lors des réactions nucléaires se déroulant au cœur des étoiles. Ces neutrinos, particules de la même famille que l’électron, transportant de l’énergie et dont la masse est très faible, sont détectés sur Terre par les expériences souterraines Gallex en Europe, Superkamiokande au Japon, SNO au Canada et Borexino en Italie. La mesure du flux des neutrinos solaires a apporté la confirmation directe de l’existence des réactions de fusion nucléaire.

 

  DOCUMENT     cea         LIEN

 
 
 
 

LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE

 

 

 

 

 

 

 

LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE

Depuis son émergence dans les années 1920, la Mécanique Quantique n'a cessé d'interpeller les physiciens par le caractère non intuitif de nombre de ses prédictions. On connaît l'intensité du débat entre Bohr et Einstein sur cette question. Le caractère incontournable de la Mécanique quantique au niveau microscopique est très vite apparu évident, puisque cette théorie fournit une description cohérente de la structure de la matière. En revanche, un doute pouvait subsister sur la validité au niveau macroscopique de prédictions étonnantes comme la dualité onde particule, ou les corrélations à distance entre particules intriquées. Après la publication des inégalités de Bell, en 1965, on a réalisé que les prédictions de la Mécanique quantique sur ces corrélations à distance étaient en contradiction avec la vision du monde (réalisme local) défendue par Einstein, et qu'il devenait possible de trancher ce conflit par des tests expérimentaux. Les expériences réalisées depuis plus de deux décennies avec des paires de photons corrélés ont confirmé de façon indubitable la justesse des prédictions quantiques, et donc la nécessité de renoncer à certaines images plus intuitives défendues par Einstein. Ces travaux très fondamentaux débouchent aujourd'hui sur des applications inattendues : cryptographie quantique, ordinateur quantique...

Texte de la 213e conférence de l'Université de tous les savoirs donnée le 1er août 2000.
Quelques tests expérimentaux des fondements de la mécanique quantique (en optique) par Alain Aspect
Je vais vous parler de fondements conceptuels de la mécanique quantique, et de tests expérimentaux directs de ceux-ci. La mécanique quantique est une théorie élaborée au début du XXe siècle entre 1900 et 1925. Cette nouvelle théorie physique a eu immédiatement des succès considérables pour comprendre le monde physique qui nous entoure, de la structure de l’atome à la conduction électrique des solides. Toutes ces propriétés ne peuvent se décrire correctement que dans le cadre de la mécanique quantique.

La mécanique quantique est également le cadre naturel pour décrire l'interaction entre la lumière et la matière, par exemple pour expliquer comment la matière peut émettre de la lumière blanche quand elle est chauffée (c'est ce qui se passe dans les ampoules électriques ordinaires). Un processus d'émission particulier, l’émission stimulée, est à la base du laser dont on connaît les nombreuses applications, des lecteurs de disque compact aux télécommunications par fibre optique.
Est-il bien sérieux de vouloir tester une théorie manifestement bien confirmée par le simple fait qu'elle explique tant de phénomènes ? Nous allons montrer que la mécanique quantique a tellement bouleversé les cadres conceptuels dans lesquels s'exerçait la pensée scientifique, et même la pensée tout court, que dès l'émergence des théories quantiques les physiciens se sont préoccupé de vérifier expérimentalement ses prédictions les plus surprenantes. Cette quête n’a pas cessé, au gré des progrès techniques. Il est remarquable que la plupart de ces tests portent sur la lumière, phénomène au départ de la théorie quantique il y a un siècle, avec les travaux de Planck en 1900, et ceux d’Einstein sur l’effet photoélectrique en 1905.
Je vais aujourd’hui aborder deux points particulièrement fascinants de la mécanique quantique : d’abord la dualité onde-particule ; puis les corrélations Einstein-Podolsky-Rosen, manifestation de l’intrication quantique.
À la fin du XIXe siècle, la physique est solidement établie sur deux piliers. Il y a d'un côté les particules, des corpuscules de matière, dont le mouvement est décrit par la mécanique newtonienne. Cette théorie extrêmement fructueuse est celle qui nous permet aujourd'hui de lancer des fusées aux confins du système solaire. La relativité a apporté quelques corrections à cette mécanique newtonienne mais le cadre conceptuel de la physique a peu changé. On parle toujours de trajectoires des particules soumises à des forces. De l’autre côté il y a les ondes, au rang desquelles la lumière. L'électromagnétisme est une théorie bien établie qui explique parfaitement la propagation de la lumière, et qui a permis l’invention de dispositifs pour générer les ondes radio. Ces ondes ont des propriété typiques : elles interfèrent, elles diffractent. Pour la physique classique, les deux domaines sont parfaitement identifiés : il y a d'un côté, les particules, et de l'autre les ondes.
La mécanique quantique au contraire mélange tout cela. Pour cette théorie, un électron est certes une particule mais aussi une onde, tandis que la lumière est non seulement une onde mais aussi une particule (le photon). Le premier test expérimental que je présenterai portera sur cette dualité onde-particule.
Un deuxième point radicalement incompatible avec les concepts de la physique classique a été mis en lumière en 1935 par Einstein et deux collaborateurs, Podolsky et Rosen. Ils ont en effet découvert que la mécanique quantique prévoyait, dans certaines situations très rares, que deux particules pouvaient avoir des corrélations étonnantes. Un long débat de nature épistémologique s’en est suivi, principalement entre Einstein et Bohr, mais sur le plan expérimental il n’était pas prouvé que ces corrélations EPR pouvaient être observées dans la
1
nature. Ce n’est qu’à partir des années 1970, après la contribution majeure de John Bell, que les expériences on commencé à apporter une réponse. C'est à ce problème que nous allons consacrer la deuxième partie de cette conférence.
Commençons donc par la dualité onde-corpuscule, toujours aussi fascinante. Si elle a été mise en évidence dès 1925 pour l’électron, et largement confirmée depuis, la situation n’est devenu claire pour la lumière que vers les années 70. Une expérience réalisée en 1982 à l’Institut d’Optique avec Philippe Grangier illustre particulièrement bien cette dualité. Dans un premier temps, nous analysons la lumière émise par une source S, à l’aide d’une lame semi-réfléchissante B suivie de deux détecteurs, un dans le faisceau transmis, l’autre dans le faisceau réfléchi (Figure 1). Chaque détecteur (photomultiplicateur) fournit, lorsqu’il reçoit de la lumière, des impulsions électriques, d’autant plus nombreuses que la lumière est plus intense, et dont les taux sont mesurés par les compteurs CT et CR. Comme notre lame semi- réfléchissante est équipée (elle transmet 50 % de la lumière incidente, et elle en réfléchit
50 %), on observe des taux de comptages égaux.
Un compteur de coïncidences CC est alors ajouté au dispositif. Il s'agit d'une sorte d'horloge extrêmement précise, capable de déterminer si deux détections dans les voies transmise et réfléchie sont simultanées à mieux que 5 milliardièmes de seconde près (5 nanosecondes). Qu’attend-on dans le cadre d'une description ondulatoire de la lumière ? L’onde incidente est partagée en deux ondes d’intensités égales, qui donnent lieu sur chaque détecteur à des impulsions produites à des instants aléatoires, mais dont les taux moyens sont égaux. On attend que de temps en temps, de façon aléatoire, deux détections dans les voies transmise et réfléchie se produisent simultanément : on doit observer un certain nombre de coïncidences.
Or lorsque nous avons analysé la lumière issue d’une source très particulière, développée pour l'occasion, aucune coïncidence n’a été observée. Comme nous l’attendions, cette source émet de la lumière dont les propriétés apparaissent manifestement corpusculaires : la seule interprétation raisonnable de l’absence de coïncidences est que cette lumière se comporte non pas comme une onde, mais comme des grains de lumière séparés – des photons- qui sont soit transmis soit réfléchis, mais qui ne sont pas divisés en deux par la lame semi réfléchissante. La source particulière permettant d'obtenir ce résultat est appelée « source de photons uniques ». Les photons y sont émis un par un, bien séparés dans le temps.

2
Figure 1. Mise en évidence du caractère corpusculaire de la lumière émise par la source de photons uniques S. On n’observe aucune détection en coïncidence sur les détecteurs CS et CC , placés derrière la lame semi réfléchissante B. Cette observation nous amène à décrire cette lumière comme formée de grains de lumière (les photons) qui sont soit transmis, soit réfléchis par B, mais pas divisé comme cela serait le cas pour une onde.
Dans un deuxième temps, sans changer de source, nous avons remplacé les détecteurs par des miroirs permettant de recombiner les deux faisceaux lumineux sur une deuxième lame semi-réfléchissante. Les deux détecteurs sont maintenant placés dans les deux voies de sortie de cette lame semi réfléchissante (Figure 2). On a ainsi réalisé un schéma classique d’interféromètre de Mach-Zehnder, qui nous a permis d’observer un comportement habituel d’interférences: lorsqu’on modifie lentement la longueur d’un des deux bras de l’interféromètre (en déplaçant un miroir), on observe que les taux de comptage sont modulés (Figure 3).
Figure 2. Mise en évidence du caractère ondulatoire de la lumière émise par la même source S que pour l’expérience de la figure 1. Les faisceaux issus de B sont réfléchis par les miroirs MR et MT , puis recombinés sur une deuxième lame B’, et détectés sur D1 . On observe que le taux de détection est modulé en fonction de la différence des longueurs des trajets BMTB’ et BMRB’. Cette observation nous amène à décrire la lumière comme une onde partagée sur la lame B, et recombinée sur la lame B’, ce qui donne lieu à interférence.
Figure 3. Interférences à un seul photon, observées avec le montage de la figure 2. On porte le taux de comptage enregistré par le compteur C1 ,en fonction de la position du miroir MT . On observe une modulation complète, de période égale à la longueur d’onde de la lumière, comme on s’y attend pour une onde. Au maximum, on détecte 200 photons en 20
3
secondes d’observation. La source S est la même que celle utilisée dans l’expérience de la figure 1.
Ce comportement s’interprète sans difficulté dans le cadre d’une description ondulatoire de l’expérience de la figure 2. L’onde incidente, décrite comme une vibration sinusoïdale du champ électromagnétique, est divisée par la première lame semi-réfléchissante en deux ondes (plus faibles) qui vont se recombiner sur la deuxième lame semi-réfléchissante. Suivant la différence des chemins parcourus entre les deux bras de l’interféromètre, les deux ondes vont se recombiner en phase ou en opposition de phase, et on comprend que le taux de comptage dépende de la différence des longueurs des deux bras.
Ainsi, dans l’expérience de la figure 2, la lumière émise par notre source se comporte comme une onde qui se partage en deux sur la première lame semi réfléchissante, et qui se recombine sur la deuxième. Mais l'expérience de la figure 1 mettait en évidence un comportement radicalement différent : la lumière y apparaissait formée de corpuscules – les photons – qui, au niveau de la première lame semi réfléchissante, allaient soit dans une direction, soit dans l'autre, mais jamais des deux côté à la fois. Or il s’agit de la même source S, et de la même lame semi-réfléchissante B. Le problème de la dualité onde-corpuscule est contenu dans le fait que, suivant le dispositif expérimental placé après B, les observations nous conduisent à nous représenter la lumière soit comme une onde qui se partage en deux, soit au contraire comme un flux de corpuscules qui ne se divisent pas mais vont aléatoirement d’un côté ou de l’autre.
Les deux descriptions ne peuvent pas être réconciliées. Il s'agit d'un des problèmes conceptuels de base de la mécanique quantique. Bien que le formalisme mathématique de la mécanique quantique rende compte sans difficulté de ce double comportement, il n'existe pas d'image classique qui puisse le représenter.

Ce problème a provoqué de nombreuses interrogations et des réticences sérieuses chez de grands physiciens. Ainsi, lorsqu’en 1913 les quatre grands savants Planck, Warburg, Nernst et Rubens écrivent une lettre pour soutenir la candidature d'Einstein à l'Académie des Sciences de Prusse, ils ne peuvent s’empêcher de faire part de leurs réserves : « Il n’y a quasiment aucun grand problème de la physique moderne auquel Einstein n’a pas apporté une contribution importante. Le fait qu’il se soit parfois fourvoyé, comme par exemple dans son hypothèse des quanta de lumière, ne saurait vraiment être retenu contre lui, car il n’est pas possible d’introduire des idées fondamentalement nouvelles, même dans les sciences les plus exactes, sans prendre occasionnellement un risque ». Il est amusant de constater que c’est précisément pour cette hypothèse jugée hasardeuse qu’Einstein allait recevoir le prix Nobel huit ans plus tard, après que Millikan ait confirmé expérimentalement la valeur de cette hypothèse pour comprendre l’effet photoélectrique. Que cette hypothèse corpusculaire ait été un véritable traumatisme, à la lumière de tout ce qu’on connaissait des phénomènes ondulatoires (interférences, diffraction...) est attesté par Millikan lui même, qui écrit dans ses mémoires, en 1949 : « Je passai dix ans de ma vie à tester cette équation d’Einstein de 1905, et, contre toutes mes attentes, je fus contraint en 1915 de reconnaître sa vérification expérimentale sans ambiguïté, en dépit de son caractère déraisonnable, car elle semblait violer tout ce que nous savions sur les interférences lumineuses... ». En 1932, dans les Procès verbaux des séances de la Société des Sciences Physiques et Naturelles de Bordeaux, le jeune Alfred Kastler (futur prix Nobel de Physique pour ses travaux en optique), ne se montre pas plus rassuré : « Les efforts de conciliation de Louis de Broglie ont abouti à l'admirable synthèse de la mécanique ondulatoire ou mécanique quantique. Mais [...] une telle synthèse [...] continue à inquiéter le physicien. Pour lui, la dualité entre les aspects ondulatoires et corpusculaires de la lumière reste un mystère non résolu. »
4
Le mystère est-il résolu aujourd'hui ? Nous nous sommes habitués à cette dualité, mais je suis toujours incapable de vous donner une image de quelque chose qui soit en même temps une onde et un corpuscule. Tout ce que je peux vous dire c’est que le formalisme mathématique, en ce qui le concerne, englobe de façon harmonieuse et cohérente les deux concepts. Pouvons nous nous en satisfaire ?
Les corrélations quantiques EPR (pour Einstein, Podolsky et Rosen) posent des questions sans doute encore plus troublantes. Le problème fut posé en 1935 au travers de ce qu’on appelle l’expérience de pensée EPR, que je vais vous décrire dans sa version moderne, celle qui est devenu une expérience réelle.
Commençons par expliquer ce qu'est la polarisation de la lumière. Un faisceau lumineux peut être polarisé rectilignement, c'est-à-dire que le champ électrique lumineux oscille dans un plan bien défini, vertical, ou horizontal, ou oblique. (La polarisation peut également être circulaire, elliptique,... mais ne compliquons pas). Un analyseur de polarisation, par exemple un prisme de Wollaston en spath d'Islande (ou le plus moderne séparateur de polarisation à couches diélectriques), permet de mesurer cette polarisation, car la lumière ne suivra pas le même trajet suivant qu’elle est polarisée dans un plan parallèle ou perpendiculaire à la direction d’analyse a que je suppose verticale (Figure 1). Dans le premier cas elle sort vers le haut (résultat +1), dans le deuxième elle sort vers le bas (résultat –1). Si des compteurs de photons disposés dans les voies de sortie montrent que tous les photons sortent dans la voie +1 , je peux en conclure que la polarisation est parallèle à a. S’ils sortent tous dans la voie –1, la polarisation est perpendiculaire à a. Dans les cas intermédiaires, les photons sont détectés aléatoirement dans l’un ou l’autre canal, et on ne peut conclure sur la polarisation qu’en tournant le polariseur pour chercher s’il existe une orientation a’ où tous les photons sortent dans la même voie.
Figure 4. Mesure de la polarisation de la lumière suivant la direction a . Si la lumière est polarisée parallèlement à a, tous les photons sont détectés dans la voie de sortie +1. S’ils sont polarisés perpendiculairement à a , ils sont détectés dans la voie –1. Pour une polarisation intermédiaire, ils sortent en +1 ou –1 avec des probabilités dépendant de la polarisation.
L'expérience d'Einstein-Podolsky-Rosen (Figure 5) suppose que les photons sont émis par paires, dans des directions opposées, dans une situation (appelée aujourd’hui état intriqué, ou état EPR), que nous ne savons décrire que par le formalisme de la mécanique quantique. Cet état est la superposition de deux situations faciles à décrire : dans la première (notée
b , b en mécanique quantique), les deux photons sont polarisés verticalement ; dans la deuxième (notée ↔, ↔ en mécanique quantique), les deux photons sont polarisés horizontalement. Mais pour l’état superposition, noté ( b ,b + ↔, ↔ ), je n’ai plus de mots :
les deux photons sont à la fois tous les deux verticaux et tous les deux horizontaux. Les deux photons sont liés de façon totalement indissoluble et seule la polarisation de l'ensemble, de la paire, a un sens. Dans un état intriqué, on ne peut pas parler des propriétés individuelles de
5
chacun des photons, bien qu'ils soient en train de s'éloigner l'un de l'autre et n'interagissent plus.
A quoi puis-je m’attendre si je mesure les polarisations de ces deux photons (Figure 5) ?. La mécanique quantique nous donne les moyens mathématiques de calculer, pour un état intriqué, les probabilités d'observer les différents résultats : premier photon dans le canal +1 ou -1 de l'analyseur I, deuxième photon dans le canal +1 ou -1 de analyseur II. On peut ainsi calculer les probabilités simples, ou conjointes. Commençons par les simples. On trouve par exemple que la probabilité de trouver +1 pour le premier photon est de 1/2, quelle que soit l’orientation a de l'analyseur ; la probabilité de trouver -1 est aussi de 1/2. On peut conclure que le premier photon n’a pas de polarisation définie, puisque le résultat de la mesure est totalement aléatoire quelle que soit la direction de mesure. Les mêmes résultats sont trouvés pour le deuxième photon, le résultat étant aléatoire quelle que soit la direction d’analyse b.
En fait la situation se révèle beaucoup plus intéressante quand on calcule la probabilité conjointe des résultats pour les deux photons. On peut par exemple calculer la probabilité de trouver +1 pour le premier photon et +1 pour le second, les analyseurs de polarisation étant respectivement dans les orientations a et b. Si les deux analyseurs sont parallèles, l'angle entre a et b est nul, et on trouve que cette probabilité est de 1/2. On peut en conclure que les résultats de mesures qui pris séparément semblent aléatoires, sont en fait totalement corrélés. En effet, si la probabilité de trouver +1 pour premier photon vaut 1/2, et que la probabilité conjointe de trouver +1 pour le premier et +1 pour le deuxième vaut également 1/2, alors la probabilité conditionnelle de trouver +1 pour le deuxième quand on a trouvé +1 pour le premier vaut 1. Une autre façon de présenter le résultat est la suivante : on a des probabilités égales de trouver +1 ou –1 pour le premier photon, et de même pour le deuxième. Mais si on trouve +1 pour le premier, alors on est certain de trouver +1 pour le deuxième. Et si on trouve –1 pour le premier, on est certain de trouver –1 pour le deuxième.
Figure 5. Expérience de pensée d'Einstein-Podolsky-Rosen, sur des photons ν1 et ν2, émis par paires dans des directions opposées. Pour des paires intriquées (états EPR), la mesure simple sur chaque photon donne un résultat +1 ou –1 avec la même probabilité 1/2. Mais la mesure conjointe sur ν1 et ν2 montre une corrélation qui est totale pour des analyseurs de polarisation parallèles (a parallèle à b). Dans ce cas, si on trouve +1 pour ν1, on est certain de trouver +1 pour ν2 ; mais si on trouve –1 pour ν1, on est certain de trouver -1 pour ν2.
Einstein-Podolsky-Rosen se sont demandé comment se représenter ces corrélations prédites par la Mécanique Quantique entre les résultats de deux mesures effectuées à des endroits différents mais à des instants quasiment identiques.
On peut essayer de construire une image à partir du formalisme quantique. En voici une, dans laquelle on suppose que le photon ν1 atteint le polariseur I en premier : le résultat de la mesure sur ν1 est alors aléatoire (+1 ou –1), mais aussitôt un résultat particulier obtenu, le postulat de réduction du paquet d’onde entraîne que le photon éloigné ν2 acquiert instantanément la polarisation (parallèle ou perpendiculaire à a) trouvée pour ν1. Ceci permet
6
de comprendre la corrélation, mais au prix d’une image inacceptable pour le père de la relativité : comment un événement situé au premier polariseur pourrait-il affecter instantanément le photon éloigné, s’il n’existe pas d’interaction se propageant plus vite que la lumière ?
En fait, on peut proposer une autre image dans l’esprit de la vision du monde défendue par Einstein, où les objets ont des propriétés physiques qui leur sont attachées, et où aucune interaction ne va plus vite que la lumière. Dans cette image, les corrélations entre les résultats de mesures en I et II sont dues à l’existence de propriétés identiques pour les deux membres de la paire. Plus précisément, on peut imaginer que lors de leur émission conjointe, les deux photons d’une même paire vont acquérir une même propriété de polarisation, qui prédétermine le résultat des mesures qui seront faites sur chaque photon. Il n’y a alors plus de difficulté à comprendre que les mesures soient corrélées. Si de plus cette propriété initiale commune fluctue aléatoirement d’une paire à l’autre, on rend compte sans problème du caractère aléatoire observé sur chaque mesure considérée séparément.

Cette image est extrêmement naturelle et raisonnable. Elle suit la démarche adoptée par des médecins qui, constatant que les jumeaux vrais sont touchés de façon corrélée par une certaine affection (les deux sont malades, ou les deux sont indemnes, mais on ne trouve jamais un jumeau malade et son frère indemne), en concluent que cette affection est de nature génétique, liée à l’existence d’un ou plusieurs chromosomes identiques.
Niels Bohr refusa immédiatement cette conclusion d’Einstein. En effet, le physicien Danois était convaincu que la mécanique quantique donnait la connaissance ultime des choses, et qu'il ne pouvait donc pas y avoir de connaissance plus complète. Or le formalisme quantique décrit toutes les paires EPR par le même état quantique (b,b + ↔,↔ ), tandis
que dans l'interprétation d'Einstein, les paires de photons ne sont pas toutes identiques, puisqu’il y a une caractéristique supplémentaire, cachée, qui distingue les paires : par exemple certaines sont b , b , et d’autres sont ↔, ↔ .
Le débat entre les deux géants de la physique dura vingt ans, jusqu’à leur mort. Il ne s’agissait pas d’une divergence sur les faits, mais d’un débat sur l’interprétation de la mécanique quantique. Einstein ne remettait pas en doute le résultat du calcul quantique prévoyant les corrélations EPR. Il pensait simplement que le formalisme quantique ne constituait pas la description ultime des paires de photons, qu’il devait être complété. L’analyse de la situation EPR l’avait conduit à la conclusion qu'il y a une réalité physique sous-jacente plus fine, et qu'il fallait trouver le bon formalisme pour la décrire. Mais Bohr pensait que cette quête était vouée à l’échec, et que notre connaissance était fondamentalement limitée, les relations de Heisenberg indiquant l’existence d’une telle limite. S’il était fondamental sur le plan des concepts, ce débat purement épistémologique semblait sans grandes conséquences pour la physique.
En 1965, le problème change de nature avec l’entrée en scène de John Bell (du CERN à Genève). Poussant au bout de leur logique les idées d'Einstein, il introduit explicitement des paramètres supplémentaires λ (aussi parfois appelés variables cachées) identiques pour les deux membres d’une même paire, et déterminant le résultat de la mesure sur chaque membre de la paire. Il existe donc une fonction A(λ,a) indiquant le résultat -1 ou +1 de la mesure au polariseur I (dans l’orientation a), pour un photon porteur du paramètre λ ; de façon analogue une fonction B(λ,b) indique le résultat au polariseur II. Dans la source, un processus aléatoire va déterminer le paramètre λ particulier pris par chaque paire, et on le caractérise par une densité de probabilité ρ(λ).
Une fois les quantités A(λ,a), B(λ,b), et ρ(λ) données (ce qui correspond à un modèle à paramètres supplémentaires particulier), on peut en déduire les probabilités des résultats de mesures, simples ou conjointes. Il est en particulier possible de calculer le coefficient de
7
corrélation de polarisation E(a,b) caractérisant le degré de corrélation entre les résultats de mesure, en fonction de l’angle (a,b) entre les polariseurs. L'espoir est alors de trouver un modèle particulier qui donne un coefficient de corrélation de polarisation E(a,b) identique à la prédiction EMQ(a,b) de la mécanique quantique. Dans ce cas les corrélations EPR pourraient être interprétées par une image « à la Einstein ».
La découverte de Bell, c’est que cet espoir est vain. Le théorème de Bell montre qu’il est impossible de reproduire avec un modèle de ce type, toutes les prédictions de la mécanique quantique, pour toutes les orientations possibles a et b des polariseurs. Plus précisément, il s'intéresse à une quantité S combinaison des 4 coefficients de corrélation associés à deux orientations a et a’ du polariseur I, et deux orientations b et b’ du polariseur II. Et il montre que si ces corrélations peuvent être décrites à partir de paramètres supplémentaires suivant le schéma ci-dessus, alors S ne peut valoir plus de 2, ni moins de –2. Or il est facile de trouver des combinaisons d’orientations (a,a’,b,b’) pour lesquelles le résultat du calcul quantique donne une quantité S nettement supérieure à 2 (par exemple on
peut avoir SMQ = 2 2 = 2.83..). Dans ces situations, la mécanique quantique viole les
inégalités de Bell : elle est donc incompatible avec les modèles à variables cachées. Contrairement à ce que pensait Einstein, on ne peut donc à la fois croire aux
prédictions quantiques pour les corrélations EPR, et vouloir décrire ces corrélations par ce modèle si naturel, dans le droit fil des idées d’Einstein, selon lequel les paires de photons possèdent dès le départ la propriété qui déterminera le résultat de la mesure ultérieure. A ce point, on pourrait penser que la Mécanique Quantique a été si souvent validée par les observations expérimentales que la cause est entendue, et qu’il faut renoncer aux modèles à paramètres supplémentaires. En fait, dans les années qui suivirent la parution de l’article de Bell, on s’aperçut que les situations d’intrication où l’incompatibilité apparaît sont extrêmement rares, et qu’il n’existait aucune donnée expérimentale permettant de trancher. Ne pouvait-on alors imaginer que le conflit entre prédictions quantiques et inégalités de Bell indiquait une frontière où la mécanique quantique atteindrait ses limites ? Pour le savoir, il fallait se tourner vers expériences nouvelles.
Une première série d'expériences fut conduite aux USA dans la première moitié des années 1970. Après quelques résultats contradictoires, ces expériences de première génération penchèrent en faveur de la mécanique quantique. Cependant, les schémas expérimentaux de l’époque ne suivaient pas vraiment le schéma idéal de la figure 5, et leur interprétation reposait sur un certain nombre d’hypothèses supplémentaires raisonnables certes, mais qui pouvaient être contestées par les partisans des variables cachées.

C’est pour se rapprocher du schéma idéal que nous avons construit à l’Institut d’Optique d’Orsay, au début des années 80, une expérience bénéficiant des énormes progrès dans le domaine des lasers, de l’optoélectronique, du pilotage des expériences par ordinateur... Nous avons d’abord construit, grâce à une excitation à deux photons par deux lasers, une source de paires de photons intriqués des milliers de fois plus efficace que les sources précédentes. De plus, les progrès dans les traitements multicouches diélectriques nous ont permis de construire de véritables analyseurs de polarisation. Finalement, nous avons emprunté à la physique nucléaire les techniques de détection en coïncidence à plus de deux détecteurs, et l’ensemble nous a permis de faire en 1982, avec Philippe Grangier et Gérard Roger, une expérience suivant très exactement le schéma de la figure 5. Un point remarquable est qu’en une seule acquisition de durée 100 secondes, on peut mesurer les 4 taux de coïncidences N++ , N+− , N−+ , et N−− relatifs à une orientation donnée (a,b) des polariseurs,
et en déduire le coefficient de corrélation E(a,b)mesuré pour cette orientation. En répétant la mesure pour trois autres orientations (a,b’), (a’,b) et (a’,b’), on en tire une valeur mesurée
Sexp (a,a',b,b') de la quantité soumise à l’inégalité de Bell. Pour un jeu d’orientations bien
8
9
choisies (celui où la mécanique quantique prédit la plus grande violation), on a trouvé
Sexp = 2, 697 ± 0, 015 ce qui viole manifestement très fortement l’inégalité de Bell S ≤ 2 et
qui est en excellent accord avec la prédiction quantique pour cette situation expérimentale. La cause était-elle définitivement entendue ?
En fait, dès le début de notre programme, nous souhaitions aller plus loin et approfondir une question soulevée par John Bell dès son article initial : celle de la localité. De quoi s’agit-il ? Si on reprend le formalisme conduisant aux inégalités de Bell, on constate qu’il contient de façon implicite l’hypothèse que le résultat de la mesure par le polariseur I ne dépend pas de l’orientation b choisie pour le polariseur éloigné II (car sinon on aurait écrit
A(λ,a,b) au lieu de A(λ,a) ). Il en est évidemment de même pour la réponse du polariseur II
que l’on suppose indépendante de l’orientation de I, et également pour la préparation des paires dans la source supposée indépendante des orientations a et b des polariseurs qui feront la mesure (puisqu’on l’écrit ρ(λ) et non ρ(λ,a,b) ). Cette hypothèse est indispensable pour
l’établissement des inégalités de Bell. Elle semble naturelle, mais comme l’a fait remarquer John Bell rien ne s’oppose, dans une expérience où les polariseurs sont statiques, à ce qu’une interaction entre les polariseurs, ou entre les polariseurs et la source, mette cette hypothèse en défaut. En revanche, si on pouvait réaliser une expérience dans laquelle les orientations des polariseurs seraient changées aléatoirement et très vite, avec des temps caractéristiques courts devant le temps de propagation de la lumière entre les polariseurs, alors l’hypothèse de localité deviendrait une conséquence immédiate du principe de causalité relativiste suivant lequel aucune interaction ne se propage plus vite que la lumière. On comprend que dans ce cas la façon dont une paire est préparée ne puisse dépendre des orientations a et b des polariseurs qui feront la mesure, puisque ces orientations seront choisies après l’émission des photons, pendant leur propagation vers les polariseurs. Une telle expérience mettrait donc encore mieux l’accent sur le conflit entre les conceptions d’Einstein et la Mécanique Quantique.
Dans notre expérience, nous utilisions des analyseurs de polarisation ayant une masse de plusieurs dizaines de kilogrammes, et il était hors de question de les tourner en quelques nanosecondes. Pourtant, nous avons réussi à faire la première expérience avec polariseurs variables, avec Jean Dalibard qui était venu rejoindre notre équipe. L'astuce consistait à utiliser un aiguillage optique de notre invention, un commutateur rapide capable d’envoyer le photon ν1 soit vers un polariseur I dans l’orientation a, soit vers un deuxième polariseur I’ dans l’orientation a’. L’ensemble est équivalent à un polariseur unique basculant rapidement entre les orientations a et a’. Un dispositif analogue permet d’analyser le photon ν2 soit suivant l’orientation b, soit suivant l’orientation b’. Les deux commutateurs rapides, placés à 12 mètres l’un de l’autre, étaient capables de basculer toutes les 10 nanosecondes, plus vite que le temps de propagation de la lumière entre eux (40 nanosecondes). Cette expérience était à limite de ce qu'il était possible de faire en 1982, et elle n’était pas idéale parce que le basculement des polariseurs n’était pas strictement aléatoire. On avait pourtant toutes les raisons de penser que si la mécanique quantique devait être mise en défaut dans une expérience de ce type, cela se manifesterait sur les signaux expérimentaux. Mais les résultats furent sans appel en faveur de la mécanique quantique, contre les théories locales à variables cachées.

En 1998, une deuxième expérience avec polariseurs variables a abouti à Innsbruck dans l'équipe d'Anton Zeilinger. Cette expérience a tiré profit de la mise au point depuis une dizaine d’années de sources de photons EPR de troisième génération. Un avantage crucial de ces sources et que les photons peuvent être injectés dans des fibres optiques, ce qui conduit à des résultats spectaculaires. Ainsi, en utilisant le réseau de fibres optiques du téléphone Suisse, Nicolas Gisin a pu éloigner ses polariseurs à 30 kilomètres de la source ! Dans
l’expérience d’Innsbruck, les photons se propagent dans 400 mètres de fibre optique seulement, mais ce délai est suffisant pour autoriser un basculement vraiment aléatoire des polariseurs. Cette expérience encore plus proche d’une expérience idéale a confirmé que même avec des polariseurs rapidement variables, on observe bien les corrélations quantiques, et on viole les inégalités de Bell.
Il faut se rendre à l’évidence : les photons intriqués ont un comportement « jumeau quantique » : les corrélations observées vont au delà de ce qui serait explicable en terme de propriété classique commune, analogue à un patrimoine génétique commun. Les corrélations quantiques sont d’une autre nature, et on peut le vérifier par l’expérience.
Que conclure ? Einstein, qui ne connaissait pas le théorème de Bell, avait envisagé comme une hypothèse absurde la possibilité que l’on soit contraint de renoncer à une explication des corrélations par un modèle où chacun des photons, une fois séparé de son jumeau, possède une réalité physique autonome, et où les corrélations sont dues aux éléments communs de ces réalités physiques séparées dans l’espace temps. Si on renonçait à une telle description–nous dit Einstein- alors il faudrait :
- soit laisser tomber l'exigence d'une existence autonome de la réalité physique présente en différentes portions de l'espace ;
- soit accepter que la mesure sur un système change (instantanément) la situation réelle de l’autre système éloigné.

La première option revient à considérer qu'une fois les deux photons séparés dans l’espace-temps, ils constituent deux entités indépendantes. Y renoncer conduit à admettre que deux particules intriquées, même éloignées, constituent un tout inséparable, qui ne peut être décrit que comme une entité globale. En fait le formalisme de la mécanique quantique (où une paire intriquée est décrite par un vecteur d’état global) suggère d’accepter cette conclusion.
La deuxième option revient à accepter que des influences se propagent plus vite que la lumière, au moins au niveau des réalités physiques des systèmes séparés dans l’espace temps. Notons ici que même si on l’acceptait, cette conclusion n’entraînerait pas pour autant la possibilité de transmettre plus vite que la lumière de vrais messages utilisables, dont on pourrait par exemple se servir pour déclencher le lancement d’un missile, ou pour passer un ordre à la bourse de Tokyo... ou qui nous permettrait d’assassiner nos parents avant qu’ils ne nous aient conçus !
En fait, je ne suis pas sûr que la deuxième option (il y a des influences instantanées entre les systèmes séparés) soit radicalement différente de la première (les photons intriqués constituent un tout inséparable). Comment imaginer que deux objets en interaction instantanée soient réellement séparés ? C’est pourquoi je préfère conclure que deux systèmes intriqués forment un tout inséparable dans l’espace-temps.

Pour conclure, je voudrais vous partager mon étonnement d’avoir vu ces discussions sur les fondements conceptuels de la Mécanique Quantique, a priori très formelles, déboucher ces dernières années sur des idées d’applications de l’intrication quantique. Certes il ne s’agit pas de télégraphier plus vite que la lumière. Mais en revanche la cryptographie quantique met à profit les propriétés des mesures quantiques (qui perturbent nécessairement l’état quantique du système mesuré) pour garantir qu’une communication n’a pas pu être interceptée. Vous avez aussi certainement entendu parler de téléportation quantique, expression utilisée à tort et à travers, mais phénomène qui laisse le physicien admiratif puisqu’il permet de faire une copie fidèle à distance d’un état quantique (en détruisant l’original) alors même que les lois fondamentales de la mécanique quantique nous interdisent de connaître la totalité de cet état. Quant à l’ordinateur quantique basé sur les états intriqués, il aurait une puissance de calcul formidablement plus grande que les ordinateurs actuels, à condition de savoir répondre à la question suivante (cf. la conférence de Serge Haroche) : ces phénomènes quantiques sont ils réservés à l’infiniment petit, ou peut-on les observer avec des objets macroscopiques, voire
10
vivants (comme le malheureux chat de Schrödinger) ? On sait aujourd’hui que les phénomènes de décohérence détruisent l’intrication quantique de façon d’autant plus efficace que les objets sont plus gros. Mais on n’a pas démontré l’impossibilité absolue de paires EPR avec des objets bien plus complexes que de simples photons. Il y a encore de beaux défis pour les expérimentateurs !

 

  VIDEO       CANAL  U         LIEN   
 

 
 
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

Métaux, semi-conducteurs, ou même supraconducteurs transportant un courant électrique sans aucune résistance, les matériaux présentent une diversité de propriétés électroniques remarquable, mise à profit dans de nombreuses applications qui font partie de notre quotidien. La chimie de l'état solide, en explorant les très nombreuses combinaisons entre éléments pour élaborer des structures de plus en plus complexes, nous invite à un véritable jeu de construction avec la matière, source de nouvelles découvertes. En même temps, le développement de techniques permettant d'élaborer, de structurer, et de visualiser ces matériaux à l'échelle de l'atome, ouvre d'immenses perspectives. Des lois de la mécanique quantique qui régissent le comportement d'un électron, aux propriétés d'un matériau à l'échelle macroscopique, c'est une invitation au voyage au coeur des matériaux que propose cette conférence.

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005
De l'atome au cristal : Les propriétés électroniques de la matière
Par Antoine Georges
Les ordres de grandeur entre l'atome et le matériau :
1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.

2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).

3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.
4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).
5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.
La grande diversité des matériaux :

6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)
7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.

8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.

9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.
De l'atome au matériau :
10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).
11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !

12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.

13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.
14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.
15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.

16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.

17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.
18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.
19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.

20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.
21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.

22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.
24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !
25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».
26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).
27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.

La supraconductivité :
28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...
29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.

30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.
31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.

32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.

33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !

34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.

35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.
Des matériaux aux propriétés étonnantes :
36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.

37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.

38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.

39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.

Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.

La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

   VIDEO       CANAL  U         LIEN   

 
 
 
 

La robotique

 


 

 

 

 

 

L’ESSENTIEL SUR…
La robotique


Publié le 31 mars 2016
       
Dans un avenir proche, la robotique occupera une place majeure dans notre quotidien. La France fait actuellement partie des pays les plus innovants dans le domaine. La robotique possède de nombreux champs d’applications comme la robotique industrielle ou la robotique de service. Qu’il s’agisse de robot civil ou militaire, il existe désormais des robots capables d’étonnantes prouesses dans de nombreux secteurs : robots-compagnons assistant les personnes à domicile ou en charge de la surveillance et des soins, robots assurant la logistique dans les hôpitaux, robots assistant les industriels dans la réalisation de gestes pénibles et répétitifs, ou encore permettant le développement de prothèses ou d’orthèses intelligentes.

DÉFINITION / HISTORIQUE
Contrairement aux automates, machines dont l’origine remonte au XVIIIe siècle, les robots sont des systèmes munis de capteurs, capables d’agir de façon autonome et pas seulement selon un programme préétabli. Ces dispositifs dits « intelligents » sont capables de recueillir des informations extraites de leur environnement dont le traitement va influencer leur fonctionnement. La robotique s’est déployée dans les années soixante au travers de la robotique dite industrielle ou manufacturière. La création des premiers robots destinés à une intervention en milieu hostile a été impulsée et financée par l’industrie nucléaire dès la fin des années 1950.
Aujourd'hui, un autre domaine d’application de la discipline est en plein essor en France et dans le monde : la robotique de service.
Certaines avancées scientifiques, comme dans le domaine des neurosciences, apportent de nouveaux champs d’application avec une préoccupation plus forte pour l’amélioration des capacités d’apprentissages et d’intelligence des robots actuels. Objectif : intégrer plus facilement ces nouvelles machines dans des environnements complexes en totale interaction avec l’homme pour tenter de répondre à des enjeux sociétaux majeurs.

Le marché de la robotique
En 2005, le marché global de la robotique était estimé à 11 milliards de dollars ; il pourrait s’élever à 30 milliards de dollars en 2015. Par ailleurs, la robotique de service pèserait en 2020 100 milliards d’euros contre 3,5 en 2010.
Largement dominé par le Japon, le marché de la robotique civile connaît également un développement important en Allemagne. Le marché de la robotique militaire est surtout contrôlé par les États-Unis et Israël. La France, grâce à ses compétences en intelligence artificielle, conserve une position très intéressante sur les marchés de la robotique. En mars 2013, le gouvernent présentait son nouveau plan « France Robot Initiatives » qui devrait rassembler 100 millions d’euros de fonds publics et privés destinés à la robotique de service.


RÉPONDRE
AUX GRANDS ENJEUX SOCIÉTAUX
ET S’ADAPTER À L’ENVIRONNEMENT

Pour répondre aux nouveaux besoins des industriels et particuliers, et s’adapter à des environnements de plus en plus complexes, les technologies robotiques devront être encore plus performantes et intelligentes. Les robots développés devront pouvoir intervenir dans des secteurs aussi variés que la chirurgie ou la surveillance de sites sensibles. L’assistance de robots sophistiqués est ainsi envisagée dans le cadre d’opérations chirurgicales complexes.
De même, le développement de robots collaboratifs ou « cobots » dans le secteur industriel permettrait de réduire voire supprimer l’apparition de troubles musculo-squelettique (TMS), majoritairement dus à la réalisation de tâches pénibles et répétitives. Enfin, depuis l’avènement de la robotique industrielle dans les années 50-60, la création de robots capables d’intervenir en milieux hostiles, pour éviter à l’homme toute opération de maintenance dangereuse, reste une priorité.
Aujourd’hui la R&D dans le domaine de la robotique en France se focalise sur trois applications : la téléopération, la cobotique et la manipulation dextre autonome. Ces disciplines sont à la fois présentes en robotique industrielle et manufacturière et en robotique de service.


ZOOM SUR

La R&D et la robotique
*         La téléopération
*         L’activité dans le domaine de la téléopération est orientée vers le contrôle supervisé et l’assistance à l’opérateur pour augmenter l’efficacité des tâches opérées à distance. Actuellement la téléopération est présente dans les secteurs nucléaire, médical et militaire.
*        
*         La Cobotique
*         La Cobotique, ou robotique collaborative, vise à développer des technologies robotiques en interaction continue avec l’homme. La recherche porte sur la sécurité et l’efficacité de l’interaction « homme-robot » et sur de nouvelles architectures de cobots, depuis les systèmes d’amplification d’effort jusqu’aux exosquelettes.
*        
*         La manipulation dextre autonome
*         L’objectif de cette discipline est de développer les technologies pour la robotique mobile et la manipulation intelligente



HERCULE ET ABLE : À LA FRONTIÈRE
DE « L’HOMME AUGMENTÉ »

La recherche sur les exosquelettes s’intéresse aux systèmes pour les membres supérieur, les membres inférieurs et aux systèmes complets. ABLE est un cobot générique à 7 axes, exosquelette du membre supérieur, entièrement commandé en effort, qui est conçu pour répondre à un grand nombre d’applications, comme interface haptique pour une simulation de réalité virtuelle, comme bras maître pour de la téléopération à retour d’effort, comme orthèse pour des tâches de rééducation ou comme robot d’assistance au mouvement pour des personnes handicapées.

Hercule est un exosquelette complet pour l’assistance mobile au port de charge, offrant une capacité d’emport de 40 kg durant une marche de 20 km. Cette technologie très prometteuse est développée par le CEA avec la Direction générale de l’armement (DGA) et en partenariat avec la PME RB3D, spécialisée dans le domaine des dispositifs d’assistance aux gestes manuels pénibles, sources de troubles musculo-squelettiques (TMS).
Ce programme de recherche entre le RB3D et le CEA-List se poursuit par le développement d’un nouvel exosquelette baptisé Heracles via un second financement de la DGA. Réalisé en matériaux composites, Heracles permettrait à son opérateur de se déplacer avec une charge pesant jusqu’à 100 kg, voire d’effectuer des sauts, et pourrait viser d’autres domaines que celui de la Défense. En effet, RB3D compte également concevoir une version civile d’Heracles destinée aux pompiers et à tous ceux qui sont amenés à porter de lourdes charges.


ROBOTS COLLABORATIFS :
ASSISTER DANS L’EFFORT

Cobot d’assistance pour l’industrie développé par le CEA-List, l'institut Cetim et la PME RB3D. © DR
Les évolutions récentes de la robotique manufacturière permettent aujourd’hui une interaction directe « homme-machine ». En 2011, les ingénieurs du CEA-List et de l’Institut Cetim ont mis en commun leurs compétences en mécatronique et ont aidé la PME RB3D à développer et produire un cobot d’assistance pour l’industrie. Ce « robot collaboratif » est un bras mécatronique dédié à des tâches industrielles pénibles comme le brossage, le burinage ou encore la manipulation. L’opérateur manipule l’outil avec le bras instrumenté : certaines opérations qui réclamaient 20 kg d’effort n’en demandent alors plus qu’un. Un mode de commande intuitif, intégré au « cobot », amplifie l’effort de l’opérateur d’un facteur réglable de 1 à 50, en utilisant un unique capteur d’efforts. Grâce à l’assistance apportée, ce cobot permet de réduire considérablement le risque de TMS.
La cobotique est présente dans le domaine industriel mais également dans le domaine médical. En chirurgie orthopédique, par exemple, le cobot partage une tâche avec le chirurgien en apportant une fonction d’anticollision active lui permettant de percevoir, voire d’interdire, l’approche d’un organe critique. La rééducation, après un accident vasculaire cérébral (AVC), par exemple, peut également tirer parti des interfaces haptiques, en les associant à des technologies de réalité virtuelles. Ces technologies sont transférées vers la start-up Haption du CEA-List .


DES MAINS ROBOTIQUES INTELLIGENTES
Avec la manipulation dextre autonome, la robotique mobile entre dans une nouvelle dimension, en permettant une manipulation fine et intelligente. Les tâches de manipulation dextre reposent sur l’utilisation de mains robotiques particulièrement adaptées aux environnements dans lesquels évolue l’homme. Le CEA a ainsi développé d’une part, une main anthropomorphe à l’état de l’art comptant 23 degrés de liberté (ddl), basée sur l’utilisation d’actionnements réversibles à câbles dont l’électronique est embarquée, et d’autre part, une main moins complexe (12 ddl) pour les opérations de saisie les plus courantes.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google