|
|
|
|
|
|
Energie renouvelable : des nanotubes pour tirer le meilleur de l'énergie osmotique |
|
|
|
|
|
Paris, 27 février 2013
Energie renouvelable : des nanotubes pour tirer le meilleur de l'énergie osmotique
La différence de salinité entre l'eau douce et l'eau de mer est l'une des voies explorées pour obtenir de l'énergie renouvelable. Néanmoins, les faibles rendements des techniques actuelles constituent un frein à son utilisation. Ce verrou pourrait être en train d'être levé. Une équipe menée par des physiciens de l'Institut Lumière Matière (CNRS / Université Claude Bernard Lyon 1), en collaboration avec l'Institut Néel (CNRS), a découvert une nouvelle piste pour récupérer cette énergie : l'écoulement osmotique à travers des nanotubes de Bore-Azote permet de générer un courant électrique géant avec une efficacité plus de 1 000 fois supérieure à celle atteinte jusqu'ici. Pour parvenir à ce résultat, les chercheurs ont développé un dispositif expérimental très original permettant, pour la première fois, d'étudier le transport osmotique des fluides à travers un nanotube unique. Leurs résultats sont publiés le 28 février dans la revue Nature.
Les phénomènes osmotiques se manifestent lorsque l'on met en contact un réservoir d'eau salée avec un réservoir d'eau douce par l'intermédiaire de membranes semi-perméables adaptées. Il est alors possible de produire de l'électricité à partir des gradients salins. Ceci, de deux façons différentes : d'un côté, la différence de pression osmotique entre les deux réservoirs peut faire tourner une turbine ; de l'autre, l'utilisation de membranes qui ne laissent passer que les ions permet de produire un courant électrique.
Concentrée au niveau des embouchures des fleuves, la capacité théorique de l'énergie osmotique au niveau mondial serait d'au moins 1 Térawatt, soit l'équivalent de 1000 réacteurs nucléaires. Cependant, les technologies permettant de récupérer cette énergie présentent d'assez faibles performances, de l'ordre de 3 Watts par mètre carré de membrane. Les physiciens de l'Institut Lumière Matière (CNRS / Université Claude Bernard Lyon 1), en collaboration avec l'Institut Néel (CNRS), pourraient être parvenus à lever ce verrou.
Leur but premier était d'étudier la dynamique de fluides confinés dans des espaces de taille nanométrique tels que l'intérieur de nanotubes. En s'inspirant de la biologie et des recherches sur les canaux cellulaires, ils sont parvenus, pour la première fois, à mesurer l'écoulement osmotique traversant un nanotube unique. Leur dispositif expérimental était composé d'une membrane imperméable et isolante électriquement. Cette membrane était percée d'un trou unique par lequel les chercheurs ont fait passer, à l'aide de la pointe d'un microscope à effet tunnel, un nanotube de Bore-Azote de quelques dizaines de nanomètres de diamètre extérieur. Deux électrodes plongées dans le liquide de part et d'autre du nanotube leur ont permis de mesurer le courant électrique traversant la membrane.
En séparant un réservoir d'eau salée et un réservoir d'eau douce avec cette membrane, ils ont généré un courant électrique géant à travers le nanotube. Celui-ci est dû à l'importante charge négative que présentent les nanotubes de Bore-Azote à leur surface, charge qui attire les cations contenus dans l'eau salée. L'intensité du courant traversant le nanotube de Bore-Azote est de l'ordre du nanoampère, soit plus de mille fois celui produit par les autres méthodes cherchant à récupérer l'énergie osmotique.
Les nanotubes de Bore-Azote permettent donc de réaliser une conversion extrêmement efficace de l'énergie contenue dans les gradients salins en énergie électrique directement utilisable. En extrapolant ces résultats à une plus grande échelle, une membrane de 1 mètre carré de nanotubes de Bore-Azote aurait une capacité d'environ 4 kW et serait capable de générer jusqu'à 30 MegaWatts.heure 1 par an. Ces performances sont trois ordres de grandeur au-dessus de celles des prototypes de centrales osmotiques en service aujourd'hui. Les chercheurs veulent à présent étudier la fabrication de membranes composées de nanotubes de Bore-Azote, et tester les performances de nanotubes de composition différente.
Notes :
1 Un Watt.heure correspond à l'énergie consommée ou délivrée par un système d'une puissance de 1 Watt pendant une heure.
Références :
Giant osmotic energy conversion measured in a single transmembrane boron-nitride nanotube, Alessandro Siria, Philippe Poncharal, Anne-Laure Biance, Rémy Fulcrand, Xavier Blase, Stephen Purcell, and Lydéric Bocquet, Nature. 28 février 2013.
Contacts :
Chercheur l Lydéric Bocquet l T 04 72 44 82 53 l lyderic.bocquet@univ-lyon1.fr
Alessandro Siria l alessandro.siria@univ-lyon1.fr
Presse CNRS l Priscilla Dacher l T 01 44 96 46 06 l priscilla.dacher@cnrs-dir.fr
DOCUMENT cnrs LIEN |
|
|
|
|
|
|
Dilater le temps pour mieux prédire les évènements extrêmes |
|
|
|
|
|
Paris, 19 décembre 2016
Dilater le temps pour mieux prédire les évènements extrêmes
Dilater les échelles de temps pour explorer les évènements extrêmes de la nature semblait impossible… Cette prouesse est désormais envisageable grâce à une équipe de l'Institut FEMTO-ST (CNRS/UFC/UTBM/ENSMM) qui a utilisé une technique innovante de détection permettant de capturer en temps réel de tels évènements. Cette technique, appliquée pour le moment à la photonique, pourrait aider à la prédiction de vagues scélérates1 à la surface des océans ou d'autres évènements naturels extrêmes. Ces travaux, menés en collaboration avec des chercheurs finlandais, irlandais et canadiens, sont publiés dans la revue Nature Communications du 19 décembre 2016.
Les instabilités et le chaos dans les systèmes physiques sont des phénomènes aléatoires naturels, généralement très sensibles aux fluctuations des conditions initiales, si petites soient-elles. Pour comprendre ces phénomènes complexes et omniprésents dans la nature, les chercheurs ont récemment eu recours à des expériences impliquant la propagation d'ondes lumineuses et menant à la formation d'impulsions de durée extrêmement brève, de l'ordre de la picoseconde (un millionième de millionième de seconde). En effet, l'étude de ces phénomènes en optique présente l'avantage de se faire sur des échelles de temps très courtes, permettant ainsi de mesurer un échantillon représentatif d'évènements et de caractériser de manière fiable ses propriétés statistiques. Cependant, bien qu'ayant permis des progrès sur la compréhension des dynamiques liées aux événements extrêmes, ces études ont été faites jusqu'à présent de manière indirecte, en raison du temps de réponse des détecteurs actuels, trop lents pour capturer ces évènements rares.
Des expériences récentes menées à l'Institut Femto-ST à Besançon ont permis de dépasser cette limite. Basée sur le principe d'une lentille temporelle2 qui dilate l'échelle de temps d'un facteur 100 tout en augmentant la résolution, cette nouvelle méthode a permis aux chercheurs d'observer en temps réel des impulsions géantes de lumière, avec une intensité plus de 1000 fois supérieure à celle des fluctuations initiales de la source lumineuse, un laser. Ils ont utilisé pour cela un effet papillon connu en optique sous le nom d'instabilité modulationnelle qui amplifie, dans une fibre optique de télécommunications, le faible bruit intrinsèquement présent dans le faisceau laser.
Ces résultats ont une portée qui va bien au-delà du domaine de la photonique, puisque ce type de bruit de fond est généralement considéré comme l'un des mécanismes qui pourrait être à l'origine des vagues scélérates destructrices qui apparaissent de manière soudaine à la surface des océans, mais également de bien d'autres systèmes comme la dynamique du plasma dans l'univers primitif. La capacité à dilater les échelles de temps en optique ouvre donc une nouvelle voie pour l'exploration et la compréhension des nombreux systèmes de la nature pour lesquels il est encore très difficile d'étudier les instabilités de manière directe et ainsi d'obtenir des échantillons statistiques fiables.
Ces travaux impliquent des chercheurs du laboratoire Femto-ST: Franche-Comté électronique mécanique thermique et optique - sciences et technologies (CNRS/Université Franche-Comté/Université de technologie de Belfort-Montbéliard/Ecole Nationale Supérieure de Mécanique et des Microtechniques de Besançon). L'UTMB, l'ENSMM et l'université de Franche-Comté appartiennent à la communauté d'universités et d'établissements « Université Bourgogne Franche-Comté ».
DOCUMENT cnrs LIEN |
|
|
|
|
|
|
SUPRACONDUCTEURS |
|
|
|
|
|
Physique l'héritage de Lev Landau
Alexandre Bouzdine dans mensuel 371
daté janvier 2004 - Réservé aux abonnés du site
Le prix Nobel de physique 2003 a été décerné conjointement à Alexeï Abrikosov, Vitaly Ginzburg et Anthony Leggett pour « des travaux pionniers dans le domaine théorique des supraconducteurs et des superfluides ». Avec les deux premiers lauréats, c'est l'École russe qui est distinguée, et à travers elle l'emblématique Lev Landau qui a marqué de son empreinte la physique du XXe siècle.
Supraconductivité et superfluidité : ce n'est pas la première fois que l'Académie royale des sciences de Suède distingue ces domaines de recherche. Une douzaine de physiciens avaient déjà été récompensés pour l'élucidation de ces étranges comportements de la matière à très basse température. Il se dégage d'ailleurs de ce choix comme un parfum de réparation par le comité Nobel de ses oublis passés.
La supraconductivité a été observée pour la première fois en 1911 à l'université de Leyde, aux Pays-Bas, dans le laboratoire de Heike Kamerlingh Onnes : la résistance électrique du mercure plongé dans l'hélium liquide, à 4 kelvins 269 °C, s'annulait complètement. Cette découverte suscite immédiatement l'intérêt et l'enthousiasme de la communauté scientifique. Kamerlingh Onnes est nobélisé dès 1913. Parallèlement, de nombreux physiciens, tout au moins ceux qui maîtrisent les techniques de refroidissement à des températures aussi basses, s'efforcent d'identifier d'autres matériaux supraconducteurs et de donner corps aux premières applications.
Plus facile à dire qu'à faire. Car si d'autres métaux supraconducteurs sont rapidement découverts, la température « critique », au-dessus de laquelle le phénomène disparaît, demeure toujours très basse, autour de 20 kelvins. En outre, et peut-être plus problématique, la supraconductivité a une fâcheuse tendance à l'autodestruction. En effet, la circulation d'un courant dans un supraconducteur fait apparaître un champ magnétique. Mais, en retour, au-dessus d'une certaine intensité de ce champ, la supraconductivité disparaît. Ce phénomène limite fortement l'intensité des courants que peuvent transporter les supraconducteurs connus à l'époque.
Tourbillons magnétiques
Ce n'est qu'une quarantaine d'années plus tard, en 1951, en association avec Lev Landau, l'un des plus importants physiciens du XXe siècle, que Vitaly Ginzburg propose une théorie phénoménologique globale de la supraconductivité. Bien que très intuitive, elle permet de rendre compte des phénomènes expérimentaux tels que la transition de phase entre les états normaux et supraconducteurs. Elle est proposée avant l'élaboration, en 1957, de la théorie microscopique de la supraconductivité par Bardeen, Cooper et Schrieffer, récompensés par le Nobel en 1972. Cette théorie, nommée BCS, qui montre que la supraconductivité est liée à l'apparition de paires d'électrons, justifiera a posteriori nombre d'intuitions formulées dans celle de Ginzburg et de Landau.
Est-ce à cause de la stature exceptionnelle de Landau qu'il a été récompensé seul par le prix Nobel en 1962 ? Ou parce que le comité Nobel a préféré le distinguer pour ses contributions à la théorie de la superfluidité plutôt qu'à celle de la supraconductivité lire « Leggett, un oubli réparé », ci-dessous ? Toujours est-il que Ginzburg a dû patienter encore quarante et un ans pour être récompensé à son tour.
Alors que s'élabore la théorie Ginzburg-Landau, Abrikosov achève son doctorat en physique des plasmas sous la direction du second. Il s'intéresse aussi au comportement de certains supraconducteurs, dits de « type II », qui résistent mieux que les autres à la présence d'un champ magnétique. En 1953, il applique les équations de la théorie de Ginzburg-Landau à l'analyse de ce problème, et il trouve des solutions surprenantes : le champ magnétique pénétrerait à l'intérieur du supraconducteur sous forme de tubes de flux magnétique quantifié et de courant supraconducteur circulaire. Le comportement des lignes de courant dans ces zones est similaire à celles de l'eau dans un tourbillon, ce qui vaudra plus tard à ces structures le nom de « vortex d'Abrikosov ».
Il est aujourd'hui reconnu que le comportement de la majorité des supraconducteurs est lié à ces vortex, qui peuvent former une grille, disparaître, apparaître ou se déplacer dans le supraconducteur. Cependant, quand Abrikosov présente à Landau son travail sur les vortex, celui-ci lui explique de manière fort expressive, comme à son habitude, que tout cela ne tient pas debout, que la nature ne peut supporter des solutions aussi singulières et que, par conséquent, il n'est guère envisageable de publier ces résultats. Quelques années plus tard, Landau, à l'occasion d'un séminaire, entend parler des travaux que l'Américain Richard Feynman a consacrés aux vortex dans l'hélium 4 superfluide. Un air de déjà-vu qui lui rappelle l'article non publié d'Abrikosov. Le travail de Feynman ne lui paraît pas très convaincant, mais tout de même suffisamment intéressant pour qu'il en parle à son ancien élève et lui recommande d'envoyer son article pour publication. C'est donc finalement en 1957 que sont publiées les théories d'Abrikosov qui prédisent l'existence de vortex et en décrivent les caractéristiques. Là encore, le comité Nobel a pris son temps pour récompenser la découverte.
Les supra, mais pas seulement
Heureusement, Ginzburg et Abrikosov n'ont pas passé tout ce temps à attendre leur bonne fortune. Outre la supraconductivité, Ginzburg a exercé ses talents de théoricien dans des domaines aussi variés que les rayons cosmiques, le rayonnement Cherenkov*, la propagation des ondes dans les plasmas ou les transitions de phase. En collaboration avec Andreï Sakharov, il a également participé au développement de la bombe à hydrogène en URSS. L'enthousiasme, la passion et l'énergie remarquable de Ginzburg lui ont permis de créer plusieurs écoles scientifiques, de diriger le séminaire de physique de Moscou jusqu'à 85 ans et d'écrire de nombreux ouvrages fondamentaux.
Abrikosov, l'un des élèves les plus talentueux de Landau, a hérité des intérêts scientifiques très larges qui caractérisaient si bien son professeur. Outre celui des supraconducteurs, il a contribué de manière importante au développement des théories de l'électrodynamique quantique, des métaux, des alliages et semiconducteurs, de la matière compressée et des plasmas. Il est l'auteur d'un ouvrage sur l'application des méthodes de la théorie quantique en physique statistique, devenu un grand classique et qui a servi à plusieurs générations de théoriciens. La première édition russe fut appelée par les étudiants « le monstre vert », en raison de sa couleur vert foncé, mais surtout et aussi en raison de la grande concentration de thèmes et d'idées qu'elle renfermait. Abrikosov professe qu'il n'a jamais connu de véritable échec dans la résolution de problèmes scientifiques. La chose, précise-t-il, n'a été question que de temps et d'acharnement.
Il sut également mettre à profit son imagination et sa ténacité pour résoudre des problèmes d'un genre différent, comme l'anecdote suivante en témoigne. Amateur d'alpinisme, Abrikosov a gravi nombre de sommets prestigieux de l'ex-Union soviétique. Il rêvait de monter le Kilimandjaro, le plus haut sommet d'Afrique. Mais, à l'époque, les voyages touristiques à l'étranger étaient inimaginables. Il propose alors d'organiser une expédition consacrée au Cinquantenaire de la révolution d'Octobre, dans le but de planter le drapeau rouge au sommet du Kilimandjaro. Cette entreprise réussit sans encombre, au grand étonnement de ses proches, et d'Abrikosov lui-même. A. B.
NOTES
* Le rayonnement Cherenkov est une émission de lumière qui accompagne le passage rapide d'une particule chargée dans un milieu.
LEGGETT, UN OUBLI RÉPARÉ
La règle veut qu'un maximum de trois personnes partagent un prix Nobel. Est-ce pour réparer l'une des nombreuses injustices qui en découle qu'Anthony Leggett a été récompensé cette année ? En 1996, le prix Nobel de physique avait en effet été attribué à David Lee, Douglas Osheroff et Robert Richardson pour leur découverte de la superfluidité de l'hélium 3 : au-dessous d'une température critique, de quelques millikelvins, sa viscosité devient nulle. L'explication théorique du phénomène, qui requiert l'association des atomes d'hélium par paires, avait été apportée par Leggett dans les années soixante-dix. Mais c'est Lev Landau qui avait reçu en 1962 le premier prix Nobel en rapport avec la superfluidité. Là encore, l'héritage de ce dernier n'est pas donc étranger au Nobel de physique attribué cette année.
DOCUMENT la recherche.fr LIEN |
|
|
|
|
|
|
DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX |
|
|
|
|
|
Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005
De l'atome au cristal : Les propriétés électroniques de la matière
Par Antoine Georges
Les ordres de grandeur entre l'atome et le matériau :
1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.
2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).
3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.
4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).
5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.
La grande diversité des matériaux :
6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)
7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.
8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.
9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.
De l'atome au matériau :
10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).
11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !
12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.
13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.
14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.
15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.
16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.
17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.
18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.
19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.
20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.
21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.
22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.
24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !
25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».
26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).
27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.
La supraconductivité :
28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...
29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.
30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.
31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.
32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.
33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !
34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.
35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.
Des matériaux aux propriétés étonnantes :
36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.
37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.
38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.
39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.
Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !
DOCUMENT canal-u.tv LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante |
|
|
|
|
|
|