ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Les noyaux des atomes

 


 

 

 

 

 

Les noyaux des atomes


Publié le 11 mai 2022
 
La conception que se font les physiciens des noyaux des atomes et de la physique qui les gouverne a fortement évolué depuis le début du XXème siècle. On les classe sur un diagramme en fonction de leur nombre de protons et de neutrons appelé charte des noyaux. Dans ce diagramme, la « vallée de la stabilité » délimite la zone des noyaux existants.

A L’INTÉRIEUR DE L’ATOME
L’atome est le constituant de base de la matière. Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés), tandis que les électrons (chargés négativement) sont localisés autour du noyau.
Son nombre de protons ou numéro atomique est noté Z. L’atome étant neutre, il comporte autant d’électrons que de protons. Ainsi le numéro atomique détermine les propriétés chimiques de l’atome. A chaque valeur de Z correspond un nom d’atome, un élément chimique. Ainsi l’hydrogène possède 1 proton, tandis que le carbone en possède 6.

Le nombre de neutrons au sein du noyau est désigné N. Le nombre de masse A est la somme de Z+N. Pour un atome de Z donné, on peut compter plusieurs isotopes, en fonction du nombre de neutrons.

DES NOYAUX DANS TOUS LEURS ÉTATS
Un noyau d’atome est dit :
*         lié lorsque la cohésion des protons et des neutrons est assurée. Plus leur énergie de cohésion est élevée, plus il faudra fournir d’énergie pour séparer les constituants du noyau. Les noyaux liés peuvent être stables ou instables.
*         stable lorsqu’il ne se désintègre pas spontanément en un autre noyau. La majorité des noyaux que l’on trouve sur Terre sont stables.
*         instable ou radioactif lorsqu’il tend à se transformer spontanément en un autre noyau. On appelle cette transformation « désintégration radioactive ». La probabilité que cet événement survienne dépend de sa période radioactive, qui correspond au temps au bout duquel la moitié d’un ensemble de noyaux de même nature s’est désintégrée.
*         excité lorsque, stable ou instable, il a acquis un surplus d’énergie. Le noyau peut vibrer ou tourner sur lui même et /ou dissiper cette énergie excédentaire par émission d’une particule ou d’un photon.
*        


DES NOYAUX EN FORME
Dès les origines de la physique nucléaire, devant la complexité d'un système composé de N particules en interaction, les physiciens imaginent des modèles visant à donner une description simple mais suffisamment réaliste du noyau. Depuis les années 60, les physiciens constatent que le noyau des atomes peut prendre les formes les plus inattendues. La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires peuvent se trouver. Ces constituants élémentaires sont les protons et les neutrons, qu’on nomme ensemble les nucléons, liés par l’interaction forte, l’une des quatre forces fondamentales à l’œuvre dans l’Univers. Ils sont eux-mêmes composés de quarks et de gluons (également soumis à l’interaction forte).


Les principales phases de la transformation de notre vision du noyau

Jusqu’au 19e siècle, l’atome est considéré comme la brique de base de la matière, indivisible. A partir du 20e siècle, la physique permet aux scientifiques de rentrer dans l’intimité de l’atome.

*         1911-1919 : On voit l’atome comme un noyau composé de protons chargés positivement autour duquel gravitent les électrons ;
*         1932 : Le noyau compte aussi des neutrons ;
*         1934 : Synthèse d’un atome artificiel. C’est le premier noyau exotique. Casse tête des physiciens tant leurs propriétés sont variées (forme, mode de désintégration radioactive, composition, durée de vie tellement courte que la notion même d’existence semble dépassée…), les noyaux exotiques continuent d’être étudiés aujourd’hui : il en resterait, selon les modèles théoriques, 3 000 à 5 000 à découvrir.
*         Années 40 : Certaines combinaisons particulières de protons et de neutrons entraînent des noyaux ayant une énergie de liaison très élevée. Les physiciens les appellent les noyaux magiques. C’est le cas pour les noyaux qui comptent 2, 8, 20, 28, 50, 82 ou 126 protons et/ou neutrons. A la même époque, le noyau peut être décrit macroscopiquement comme une goutte de matière. C’est le modèle de la goutte liquide qui permet de calculer l’énergie de liaison du noyau grâce à une seule équation simple.
*         Années 50 : On pense que les nucléons sont organisés en niveaux d’énergie qu’on appelle couches nucléaires, similaires à celles des électrons autour du noyau. C’est le modèle en couches : chaque couche a un nombre fini d’emplacements, lorsqu’une couche est totalement remplie et qu’aucune n’est remplie partiellement, l’édifice est particulièrement robuste.
*         Années 70 : La théorie du champ moyen considère que chaque nucléon se déplace dans un puits de potentiel, généré par l’ensemble des autres nucléons, qui le confine dans le noyau.
*         Années 80 : les noyaux ne sont plus vus comme un mélange homogène et plus ou moins sphérique. Ils sont imaginés comme des structures très variées : ainsi le carbone 12, atome stable, porté à haute énergie, est vu comme un tripode de trois noyaux d’hélium ; Le lithium 11 fait partie d’une nouvelle famille de noyaux dits noyaux à halo : son extension spatiale est similaire à celle du plomb 208, qui comporte pourtant vingt fois plus de nucléons.
*         Années 90 : A quelques encablures de la vallée de la stabilité, la théorie prévoit l’existence d’une série de noyaux comportant plus de 110 protons dont la durée de vie serait relativement élevée. Les scientifiques parlent de l’îlot de stabilité des noyaux super-lourds. Cette relative stabilité des noyaux super-lourds va à l’encontre de la force de répulsion coulombienne qui tend à faire se disloquer un édifice composé d’un trop grand nombre de charges de même signe.
*         Années 2000 : Avec la montée en puissance des grands accélérateurs de faisceaux radioactifs (Spiral au Ganil, RIBF à Riken…) de nombreux nouveaux isotopes radioactifs sont découverts et étudiés.
*         Aujourd’hui, tous les éléments jusqu’à 118 protons ont été synthétisés. Les quatre derniers découverts (113, 115, 117 et 118 protons) ont été officiellement nommés en 2016. De nouveaux instruments sont en développement pour aller encore plus loin. Les noyaux exotiques très riches en neutrons produits lors des explosions de supernovae sont encore hors de notre portée. On est encore très loin d’avoir découvert tous les noyaux existants et les phénomènes surprenants qu’ils pourraient faire apparaître !

Dans cette carte des noyaux, on prend pour "altitude", l'énergie de masse moyenne (Mc2/A), qui représente l'énergie de masse moyenne d'un nucléon dans le noyau. Plus cette énergie est faible, plus le noyau est stable. Les noyaux stables se retrouvent sur une ligne définissant le fond de la vallée, entourée de noyaux excédentaires en neutrons (en rose), en protons (en bleu) et de noyaux trop lourds (orange). Un excès de protons ou de neutrons se traduit par une transformation des noyaux selon différents modes de désintégration radioactive, alpha ou beta notamment. © CEA/Animea

LA VALLÉE DE LA STABILITÉ
Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons (Z, éléments) et de neutrons  (N, isotopes), on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions qui présente une surprenante vallée au fond de laquelle se  trouvent les 250 à 300 atomes stables. Plus on s’éloigne de ces noyaux, plus l’énergie de liaison de nucléons dans le noyau est faible. Les atomes radioactifs subissent une série de transformations qui les ramène toujours vers le fond de ladite vallée. Les chercheurs désignent cette figure par le terme imagé de «  vallée de la stabilité ».

D’OU VIENNENT LES NOYAUX : LA NUCLÉOSYNTHÈSE DANS LES ÉTOILES

Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’univers. Les atomes les plus légers sont les plus anciens : hydrogène, hélium, lithium et béryllium ont été formés par assemblage de protons et de neutrons dans les trois minutes suivant le Big Bang. Il y a entre douze et quinze milliards d’années. Les autres éléments, plus lourds, sont plus récents et ont été produits dans les étoiles. Les premiers atomes compris entre le carbone et le fer ont été synthétisés lors de la fin de vie d’étoiles près de dix fois plus massives que notre Soleil. Au delà du cobalt, les noyaux sont synthétisés lors de réactions explosives telles que les supernovas. On ne connaît pas encore précisément tous les processus responsables de la création des atomes dans l’Univers.

Notions clés
*         Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés).
*         La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires (protons et neutrons) peuvent se trouver.
*         Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons et de neutrons, on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions, appelé "vallée de la stabilité".

 

 DOCUMENT     cea         LIEN
 

 
 
 
 

La robotique

 


 

 

 

 

 

La robotique

Publié le 18 mars 2019

Dans un avenir proche, la robotique occupera une place majeure dans notre quotidien. La France fait actuellement partie des pays les plus innovants dans le domaine. La robotique possède de nombreux champs d’applications comme la robotique industrielle ou la robotique de service. Qu’il s’agisse de robot civil ou militaire, il existe désormais des robots capables d’étonnantes prouesses dans de nombreux secteurs : robots-compagnons assistant les personnes à domicile ou en charge de la surveillance et des soins, robots assurant la logistique dans les hôpitaux, robots assistant les industriels dans la réalisation de gestes pénibles et répétitifs, ou encore permettant le développement de prothèses ou d’orthèses intelligentes.
DÉFINITION / HISTORIQUE

Contrairement aux automates, machines dont l’origine remonte au XVIIIe siècle, les robots sont des systèmes munis de capteurs, capables d’agir de façon autonome et pas seulement selon un programme préétabli. Ces dispositifs dits « intelligents » sont capables de recueillir des informations extraites de leur environnement dont le traitement va influencer leur fonctionnement. La robotique s’est déployée dans les années soixante au travers de la robotique dite industrielle ou manufacturière. La création des premiers robots destinés à une intervention en milieu hostile a été impulsée et financée par l’industrie nucléaire dès la fin des années 1950.
Aujourd'hui, un autre domaine d’application de la discipline est en plein essor en France et dans le monde : la robotique de service.
Certaines avancées scientifiques, comme dans le domaine des neurosciences, apportent de nouveaux champs d’application avec une préoccupation plus forte pour l’amélioration des capacités d’apprentissages et d’intelligence des robots actuels. Objectif : intégrer plus facilement ces nouvelles machines dans des environnements complexes en totale interaction avec l’homme pour tenter de répondre à des enjeux sociétaux majeurs.

Le marché de la robotique
En 2005, le marché global de la robotique était estimé à 11 milliards de dollars ; il pourrait s’élever à 30 milliards de dollars en 2015. Par ailleurs, la robotique de service pèserait en 2020 100 milliards d’euros contre 3,5 en 2010.
Largement dominé par le Japon, le marché de la robotique civile connaît également un développement important en Allemagne. Le marché de la robotique militaire est surtout contrôlé par les États-Unis et Israël. La France, grâce à ses compétences en intelligence artificielle, conserve une position très intéressante sur les marchés de la robotique. En mars 2013, le gouvernent présentait son nouveau plan « France Robot Initiatives » qui devrait rassembler 100 millions d’euros de fonds publics et privés destinés à la robotique de service.

RÉPONDRE
AUX GRANDS ENJEUX SOCIÉTAUX
ET S’ADAPTER À L’ENVIRONNEMENT

Pour répondre aux nouveaux besoins des industriels et particuliers, et s’adapter à des environnements de plus en plus complexes, les technologies robotiques devront être encore plus performantes et intelligentes. Les robots développés devront pouvoir intervenir dans des secteurs aussi variés que la chirurgie ou la surveillance de sites sensibles. L’assistance de robots sophistiqués est ainsi envisagée dans le cadre d’opérations chirurgicales complexes.
De même, le développement de robots collaboratifs ou « cobots » dans le secteur industriel permettrait de réduire voire supprimer l’apparition de troubles musculo-squelettique (TMS), majoritairement dus à la réalisation de tâches pénibles et répétitives. Enfin, depuis l’avènement de la robotique industrielle dans les années 50-60, la création de robots capables d’intervenir en milieux hostiles, pour éviter à l’homme toute opération de maintenance dangereuse, reste une priorité.
Aujourd’hui la R&D dans le domaine de la robotique en France se focalise sur trois applications : la téléopération, la cobotique et la manipulation dextre autonome. Ces disciplines sont à la fois présentes en robotique industrielle et manufacturière et en robotique de service.


ZOOM SUR

La R&D et la robotique
*         La téléopération
*         L’activité dans le domaine de la téléopération est orientée vers le contrôle supervisé et l’assistance à l’opérateur pour augmenter l’efficacité des tâches opérées à distance. Actuellement la téléopération est présente dans les secteurs nucléaire, médical et militaire.
*        
*         La Cobotique
*         La Cobotique, ou robotique collaborative, vise à développer des technologies robotiques en interaction continue avec l’homme. La recherche porte sur la sécurité et l’efficacité de l’interaction « homme-robot » et sur de nouvelles architectures de cobots, depuis les systèmes d’amplification d’effort jusqu’aux exosquelettes.
*        
*         La manipulation dextre autonomeL’objectif de cette discipline est de développer les technologies pour la robotique mobile et la manipulation intelligente.


HERCULE ET ABLE : À LA FRONTIÈRE
DE « L’HOMME AUGMENTÉ »

La recherche sur les exosquelettes s’intéresse aux systèmes pour les membres supérieur, les membres inférieurs et aux systèmes complets. ABLE est un cobot générique à 7 axes, exosquelette du membre supérieur, entièrement commandé en effort, qui est conçu pour répondre à un grand nombre d’applications, comme interface haptique pour une simulation de réalité virtuelle, comme bras maître pour de la téléopération à retour d’effort, comme orthèse pour des tâches de rééducation ou comme robot d’assistance au mouvement pour des personnes handicapées.
Hercule est un exosquelette complet pour l’assistance mobile au port de charge, offrant une capacité d’emport de 40 kg durant une marche de 20 km. Cette technologie très prometteuse est développée par le CEA avec la Direction générale de l’armement (DGA) et en partenariat avec la PME RB3D, spécialisée dans le domaine des dispositifs d’assistance aux gestes manuels pénibles, sources de troubles musculo-squelettiques (TMS).
Ce programme de recherche entre le RB3D et le CEA-List se poursuit par le développement d’un nouvel exosquelette baptisé Heracles via un second financement de la DGA. Réalisé en matériaux composites, Heracles permettrait à son opérateur de se déplacer avec une charge pesant jusqu’à 100 kg, voire d’effectuer des sauts, et pourrait viser d’autres domaines que celui de la Défense. En effet, RB3D compte également concevoir une version civile d’Heracles destinée aux pompiers et à tous ceux qui sont amenés à porter de lourdes charges.

ROBOTS COLLABORATIFS :
ASSISTER DANS L’EFFORT

Cobot d’assistance pour l’industrie développé par le CEA-List, l'institut Cetim et la PME RB3D. © DR
Les évolutions récentes de la robotique manufacturière permettent aujourd’hui une interaction directe « homme-machine ». En 2011, les ingénieurs du CEA-List et de l’Institut Cetim ont mis en commun leurs compétences en mécatronique et ont aidé la PME RB3D à développer et produire un cobot d’assistance pour l’industrie. Ce « robot collaboratif » est un bras mécatronique dédié à des tâches industrielles pénibles comme le brossage, le burinage ou encore la manipulation. L’opérateur manipule l’outil avec le bras instrumenté : certaines opérations qui réclamaient 20 kg d’effort n’en demandent alors plus qu’un. Un mode de commande intuitif, intégré au « cobot », amplifie l’effort de l’opérateur d’un facteur réglable de 1 à 50, en utilisant un unique capteur d’efforts. Grâce à l’assistance apportée, ce cobot permet de réduire considérablement le risque de TMS.
La cobotique est présente dans le domaine industriel mais également dans le domaine médical. En chirurgie orthopédique, par exemple, le cobot partage une tâche avec le chirurgien en apportant une fonction d’anticollision active lui permettant de percevoir, voire d’interdire, l’approche d’un organe critique. La rééducation, après un accident vasculaire cérébral (AVC), par exemple, peut également tirer parti des interfaces haptiques, en les associant à des technologies de réalité virtuelles. Ces technologies sont transférées vers la start-up Haption du CEA-List .

DES MAINS ROBOTIQUES INTELLIGENTES
Avec la manipulation dextre autonome, la robotique mobile entre dans une nouvelle dimension, en permettant une manipulation fine et intelligente. Les tâches de manipulation dextre reposent sur l’utilisation de mains robotiques particulièrement adaptées aux environnements dans lesquels évolue l’homme. Le CEA a ainsi développé d’une part, une main anthropomorphe à l’état de l’art comptant 23 degrés de liberté (ddl), basée sur l’utilisation d’actionnements réversibles à câbles dont l’électronique est embarquée, et d’autre part, une main moins complexe (12 ddl) pour les opérations de saisie les plus courantes.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Environnement

 

 

 

 

 

 

 

Environnement

© DR
J’habite à côté d’un site nucléaire. Est-ce que cela augmente la radioactivité ? En France, quelles sont les conséquences sur la santé de l’accident de Tchernobyl et de Fukushima ? Découvrez dans ce chapitre les réponses à ces questions.

Publié le 4 mai 2012


"J’habite à côté d’un site nucléaire. Est-ce que cela augmente la radioactivité ?"
Oui, très faiblement. Aux alentours des installations nucléaires, des contrôles systématiques et réguliers de l’environnement permettent de s’assurer que les rejets restent inférieurs aux limites réglementaires déterminées par les autorités de contrôle. Ces rejets induisent une radioactivité (mesurables en Bq) dont l’impact, indétectable, car très faible, ne peut être que calculé (en millième de mSv) et reste, au maximum, toujours inférieur à 0,1 % de l’exposition naturelle.

En France, quelles sont les conséquences sur la santé de l’accident de Tchernobyl et de Fukushima ?
L’accident de Tchernobyl, en 1986, a entraîné en France une contamination très faible par des isotopes radioactifs : iode 131 (T = 8 jours) et césium 137 (T = 30 ans). Dans l’environnement, les concentrations en iode radioactif, qui diminue de moitié tous les 8 jours, ont disparu en 3 mois.
Vrai ou faux ?

« Le nuage blanc qui s’échappe de la cheminée d’une centrale nucléaire montre bien la pollution radioactive. »
Faux - Il s’agit de vapeur d’eau non radioactive, provenant du refroidissement du réacteur de la centrale. Cette eau n’entre jamais en contact avec le combustible radioactif.

Réglementation
Sur la radioprotection des personnes du public, elle est assurée par le décret n° 2007-1582 du 7 novembre 2007, intégré au Code de la santé publique.

Exposition moyenne
Cette dose de 0,05 mSv en 1986 est à comparer aux 2,4 mSv de l’irradiation naturelle annuelle moyenne en France.
Du fait de sa période plus longue, le césium peut se concentrer dans des terrains argileux et dans certains végétaux comme les champignons. La contamination se détecte facilement et les doses correspondantes reçues par les animaux ou les hommes sont très faibles. Compte rendu de la décroissance radioactive, l’exposition moyenne résultante en France est d’environ 0,05 mSv en 1986 et au total de 0,09 mSv pendant les cinquante ans suivant l’accident. L’accident de Tchernobyl n’a eu aucune conséquence statistiquement observable sur la santé de notre pays. Concernant Fukushima, aucune conséquence n’est apparue en France. Mais localement, les analyses sont en cours.


"On m’a dit que les champignons que j’ai cueillis dans la forêt pouvaient être radioactifs : peut-on quand même les manger?"
Suite à l’accident de Tchernobyl, dans certaines forêts de l’est de la France, une contamination persistante est encore décelée dans certaines espèces de champignons, dans le gibier et dans les baies sauvages. Les champignons se développent dans la couche superficielle des sols de forêt ou de prairie permanente. Dans les sols non labourés, cette couche peut encore contenir, 20 ans après, 70 % de l’activité en césium 137 déposée en 1986. Cela explique que la contamination des champignons est aujourd’hui 100 à 10 000 fois plus élevée que celle des produits agricoles. En fonction de la contamination du sol et de l’espèce, elle varie de moins de 1 Bq/kg à quelques centaines de Bq/kg. Même si les teneurs sont plus élevées qu’avant, on peut en manger sans risque : il faudrait en consommer 384 kg par an pour atteindre la limite réglementaire de 1 mSv, elle-même bien en deçà des doses présentant un risque avéré.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Technologies pour l'information et la communication

 


 

 

 

 

 

Technologies pour l'information et la communication


Spintronique, photonique, électronique moléculaire… autant de technologies à l’étude pour miniaturiser davantage les transistors.

Publié le 1 juillet 2012

Les technologies pour l’information et la communication recourent comme matériau de base aux nanocomposants. Ceux-ci sont fabriqués de deux manières.
*         La voie descendante, ou top-down, permet de réduire le plus possible les dimensions du composant que l’on veut fabriquer. C’est la voie suivie par l’électronique depuis quarante ans. L’exemple le plus remarquable en est le circuit intégré sur puce.
*         La voie ascendante, ou bottom-up, permet de construire des molécules ou des assemblages atomiques complexes, intégrés ensuite dans de plus grands systèmes. Elle vise à fabriquer plus petit, moins cher et avec une qualité accrue. C’est l’une des voies d’avenir à plus ou moins long terme pour dépasser les limitations de la loi de Moore.

L’ÉVOLUTION DE LA MICROÉLECTRONIQUE
Le silicium, matériau de base de toute l’industrie électronique, est un élément abondant, puisqu’il est extrait du sable par purification (94 % de la croûte terrestre est composée de silice !). Il est cristallisé sous la forme de barreaux de 20 à 30 cm de diamètre, lesquels seront découpés en tranches de moins d’un millimètre d’épaisseur. Sur ces tranches sont fabriquées en même temps des centaines de puces, par photolithographie. Celle-ci consiste à reproduire, dans une résine photosensible, le dessin des circuits à réaliser, à l’image de pochoirs que l’on pourrait superposer pour obtenir des circuits de plus en plus complexes.

 Observation des motifs gravés grâce à un microscope optique. © P.Stroppa/CEA
Ces motifs compliqués sont générés en une seule exposition. Les détails sont imprimés sur le substrat quand la lumière passe à travers les ouvertures d’un masque, définissant d’une manière précise et reproductible des millions de transistors. Les traits les plus fins obtenus aujourd’hui industriellement ont une épaisseur de 45 nanomètres, ce qui permet de disposer et de connecter des millions de composants de base – les transistors – par circuit et de multiplier ainsi les fonctionnalités. Cette technique de photolithographie est limitée par les phénomènes de diffraction et de longueur d’onde du faisceau de lumière utilisé. Des améliorations sont en cours de test pour augmenter la précision. Par exemple, la longueur d’onde des lumières utilisées à travers les pochoirs a été diminuée pour descendre du bleu au bleu profond puis à l’ultraviolet.

Mais de nouvelles lentilles doivent être mises au point pour focaliser cette lumière de plus en plus énergétique. La résolution spatiale a été doublée en tirant parti du caractère ondulatoire de la lumière et du principe d’interférence. Le renforcement sélectif des ondes lumineuses mène à une exposition accrue de la résine photosensible, tandis que leur annulation laisse des structures dans l’obscurité. On peut également graver des motifs sur les puces au moyen de faisceaux d’électrons, mais les dessins doivent alors être tracés les uns après les autres. La lithographie à faisceau d’électrons (e-beam) permet d’atteindre une résolution nanométrique, car la longueur d’onde des électrons est de l’ordre de quelques nanomètres. C’est idéal pour produire le pochoir initial qui sera réutilisé des milliers de fois en lithographie optique, ou pour la fabrication de circuits expérimentaux en laboratoire… mais pas pour la production en masse de puces.
La photolithographie atteindra ses limites techniques lorsque les détails les plus fins mesureront de 10 à 20 nm, ce qui devrait arriver à l’horizon de 2015.  À cette échelle, des effets dus à la physique quantique se manifesteront et perturberont le fonctionnement des circuits ; par exemple, des électrons pourront sauter d’un « fil » à l’autre par effet tunnel (voir la page “La physique quantique”). Outre les limites physiques, les investissements nécessaires pour construire des usines capables de graver des circuits aussi fins deviendront prohibitifs (estimés aujourd’hui à plus de 5 milliards d’euros). La voie top-down, qui aura poussé jusqu’à l’extrême la miniaturisation du transistor MOS (Metal oxide semiconductor), devrait atteindre ses limites vers 2020.
Un changement de technologie devrait alors s’imposer : ce sera le début de la véritable nanoélectronique, qui prendra en compte les propriétés de la matière à cette échelle. Les composants de base ne seront plus les mêmes.


COMMENT REPOUSSER LES LIMITES DE LA LOI DE MOORE ?
Plusieurs options sont possibles pour prolonger la voie de la miniaturisation, dont voici deux exemples.
La spintronique réalise le mariage entre l’électronique et le magnétisme. Alors que l’électronique actuelle est entièrement basée sur la manipulation de la charge électrique portée par les électrons, la spintronique utilise leur spin. Les électrons ont trois particularités physiques : leur masse, leur charge et leur spin. Pour cette dernière caractéristique intrinsèque, tout se passe comme si le moment magnétique de l’électron s’apparentait au sens de rotation interne de celui-ci autour d’un axe fixe imaginaire. Pour les électrons, le spin ne peut prendre que deux valeurs : +1/2 spin dit « up » ou -1/2 spin dit « down », correspondant ainsi au fait qu’il ne peut tourner que dans un sens ou dans l’autre. On peut utiliser cette propriété pour obtenir des fonctionnalités nouvelles, par exemple pour coder, traiter ou transmettre une information.

Focus sur Minatec

Pôle d’excellence européen en micro et nanotechnologies.

Autour de l’Institut Léti* du CEA est organisé un campus regroupant institutions universitaires et entreprises privées. Officiellement inauguré en juin 2006 et situé à Grenoble, Minatec met à leur disposition des salles blanches et une plateforme de nanocaractérisation unique en Europe, pour un investissement d’un milliard d’euros sur dix ans.
* Laboratoire d’électronique et des technologies de l’information.

Une grande variété de dispositifs innovants utilisant le spin des électrons peut être réalisée. Ces dispositifs combinent des matériaux magnétiques qui servent de polariseur ou analyseur en spin et des matériaux conducteurs, isolants ou semiconducteurs.
Des dispositifs spintroniques sont déjà utilisés dans les disques durs d’ordinateur. Il s’agit de capteurs dont la résistance électrique varie en fonction du champ magnétique appliqué. Ils permettent de relire l’information magnétique enregistrée sur le disque magnétique. La spintronique permet d’envisager de pousser la capacité de stockage sur les disques durs au-delà du térabit (1015 bits) par pouce carré, c’est-à-dire 155 milliards de bits/cm2.
D’autres applications industrielles sont en train de voir le jour. Ainsi, des mémoires magnétiques peuvent être réalisées sans aucune pièce mobile (contrairement aux disques durs). Ces mémoires sont formées d’un réseau de piliers magnétiques de dimension nanométrique, eux-mêmes constitués de couches magnétiques dont le sens de l’aimantation (+1/2 ou -1/2) détermine l’état du bit (respectivement 0 ou 1). Non seulement ces mémoires vives ne disparaissent pas en cas de coupure d’alimentation (non-volatilité), mais elles sont très rapides (écriture et lecture ne durent que quelques nanosecondes) et sont insensibles aux rayonnements ionisants. Elles permettent de concevoir des ordinateurs que l’on pourrait éteindre et allumer instantanément en gardant toute l’information à l’écran. D’autres applications sont en cours de développement pour la réalisation de composants radiofréquence pour les télécommunications et les réseaux sans fil.
La photonique utilise la lumière pour coder l’information. Tous les systèmes actuels (une puce d’ordinateur, un circuit intégré, un transistor) sont basés sur le transport, le confinement et les propriétés physiques de l’électron. Mais si, pour aller plus vite, il était remplacé par le photon ? Celui-ci, outre qu’il se déplace à la vitesse de la lumière (300 000 km/s), provoque peu de dissipation de chaleur lors de son déplacement.
Mais, avant d’employer les photons comme moyen de codage d’information dans une puce, il faut mettre au point tous les composants de la chaîne, de l’émetteur au récepteur, en passant par les guides et les modulateurs. Le silicium, vedette de la microélectronique, est une piètre source de lumière… à l’état macroscopique. La solution est venue de la nanostructuration : soumis aux lois étranges du monde quantique, un cristal de silicium, réduit à une dizaine de nanomètres, voit ses performances d’émission fortement modifiées ! Pour guider ces photons, pas question d’utiliser des fibres optiques ou des miroirs aux dimensions millimétriques, mais un dispositif bien plus efficace : le cristal photonique. Constitués en perçant de minuscules trous de manière périodique dans un semi-conducteur, ces cristaux réfléchissent et dirigent la lumière. Ils peuvent aussi la filtrer, en agissant sur des longueurs d’onde particulières et permettent de la confiner dans un volume extrêmement faible (quelques centaines de nm). La modulation, le multiplexage et le décodage des signaux sont les trois domaines où de nombreux progrès sont en cours pour aller vers l’ordinateur à photons. C’est cette possibilité de multiplexage qui, en permettant les calculs parallèles, représente le « plus » de l’ordinateur photonique.


Des mémoires vives persistantes et rapides grâce à la spintronique.


Banc de mesures de composants spintroniques. © Artechnique/CEA

 
Le photon, qui se déplace à la vitesse
de la lumière, pourrait remplacer l’électron
pour coder les informations dans une puce.

Graphène et nanotube de carbone
En chimie et en science des matériaux, l'allotropie est la propriété de certains corps simples d'exister sous plusieurs formes cristallines ou moléculaires. Par exemple le carbone, qui apparaît sous une forme non structurée : la mine de crayon, ou structurée: le diamant. La mine de crayon est composée d’un empilement de feuillets monoatomiques d’atomes de carbone disposés en hexagones. Si l’on isole un seul feuillet de la structure, on obtient du graphène, qui présente des propriétés de transport électronique remarquables. Si l’on enroule ce feuillet sur lui-même, il peut prendre la forme d’un nanotube. Le nanotube a des propriétés mécaniques et électriques surprenantes qui promettent des applications nombreuses et une industrialisation dans un avenir proche :
- Le nanotube est 100 fois plus résistant et 6 fois plus léger que l’acier. Il peut donc être utilisé pour fabriquer des matériaux composites hautes performances et remplacer les traditionnelles fibres de carbone: raquettes de tennis ou clubs de golf sont des exemples d’applications grand public.
- En fonction de l’angle d’enroulement du feuillet de graphite, le nanotube est soit un excellent conducteur d’électricité, soit un semi-conducteur. Les conducteurs pourront être utilisés dans la fabrication de nanofils électriques, ou comme nano-électrodes dans les écrans plats de télévision ou d’ordinateur. Un nanotube semi-conducteur et un conducteur assemblés pourront être utilisés comme éléments de base pour fabriquer des composants électroniques nanométriques.


Reportage
Plateforme de nanocaractérisation
                       
LA DÉMARCHE BOTTOM-UP À PARTIR DE NANOCOMPOSANTS
Cette nouvelle approche est envisageable pour surmonter les obstacles de la miniaturisation. Elle fait appel à des connaissances fonda­mentales de physique et de chimie et permet de concevoir les composants entièrement nouveaux de l’électronique moléculaire.
Si la fabrication atome par atome de nanocomposants est possible, elle est inenvisageable industriellement sans la maîtrise de procédés d’auto-assemblage de la matière, car elle prendrait un temps infini. À défaut de construire un circuit et ses nanocomposants, ce qui serait trop long et trop cher, les chercheurs envisagent la conception d’entités moléculaires dotées de fonctions électroniques capables de s’organiser seules. Pour les fabriquer, ils disposent de quatre briques de base : les molécules de synthèse, faciles à obtenir, les biomolécules comme l’ADN, les nanoparticules métalliques ou semi-conductrices et les nanotubes de carbone. Mais la voie de l’auto-assemblage est difficile : il faut réussir à contrôler le positionnement des briques.
Des charges positives et négatives s’attirent : si l’on ajoute des molécules chargées négativement à la surface d’un wafer, elles vont attirer les molécules chargées positivement greffées à la surface de nanotubes, créant ainsi des nanocomposants. Reste à résoudre le problème des jonctions entre ces composants et le reste du circuit ; faute de quoi, l’électronique moléculaire en restera là, malgré des perspectives très séduisantes.

 
Lorsque l’on applique une tension déterminée sur la grille, un électron peut entrer dans « l’île de Coulomb » tandis qu’un autre en sort. Il s’établit dans le transistor un courant dont l’intensité dépend du nombre d’électrons présents dans l’île. © Yuvanoé/CEA

En 1974, la première diode moléculaire a été réalisée sur une couche de molécules individuelles. Non plus faite en silicium, elle a été obtenue par la mise en contact de deux morceaux de semi-conducteurs : l’un des matériaux comporte de nombreux électrons, alors que le deuxième en est extrêmement pauvre. Des molécules qui présentent cette même asymétrie ont ensuite été conçues ; puis un transistor dans lequel le canal était formé d’une de ces molécules.
Ce dispositif a donné des preuves flagrantes du comportement quantique des électrons.
On peut aussi concevoir un transistor à un seul électron. Le principe consiste à ajouter un espace en matériau semi-conducteur entre la source et le drain du transistor, où seul un nombre déterminé d’électrons peut s’accumuler. Quand une tension électrique est appliquée entre la source et le drain, l’espace se remplit, puis le courant ne passe plus (phénomène de blocage de Coulomb). Lorsque l’on applique une tension sur la grille du transistor, un nouvel électron peut entrer, tandis qu’un autre sort de cet espace. Ainsi, en modifiant la tension de grille, on réalise de l’électronique à un seul électron.

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google