ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

PHYSIQUE ET MÉCANIQUE

 

 

 

 

 

 

 

PHYSIQUE ET MÉCANIQUE


Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever dans le futur. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, en passant par l'exploitation de l'imagerie bi voire tridimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges. Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolu, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, …).

Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet
2005
Par Stéphane ROUX[1] : Physique et Mécanique
Résumé :
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.
Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).
Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.

1 Introduction

Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.
Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.
Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :

*         Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
*         Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
*         Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
*         Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.

2 Enjeu de connaissance fondamentale
La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :

*         Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
*         Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
*         Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
*         Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
*         Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.

2.1 Savoir imbriquer les échelles de description
Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.
Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.
Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.
2.2 Non-linéarité et hétérogénéité : Physique statistique
Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.
Pour des rhéologies plus complexes, l'essentiel reste à construire :
Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.
L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).
Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.

3 Enjeu des nouvelles techniques d'analyse
Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.
3.1 Nouvelles imageries
Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.
La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.
A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.
Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.
De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.
3.2 Que faire avec ces informations ?
Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.
Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :

*         Fracture de matériaux vitreux imagée par AFM

En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.

*         Comportement plastique de la silice amorphe

La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.

*         Détection de fissures et mesure de leur ténacité

Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.

*         Comportement de polymères micro-structurés

Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.
4 Enjeu des nouveaux matériaux
Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.
4.1 Matériaux composites et nano-matériaux
L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).
Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).
4.2 Matériaux fibreux/Milieux enchevêtrés
Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.
4.3 Couches minces : Tribologie Frottement adhésion
La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.
Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.
4.4 Couplages multiphysiques
La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.
4.5 Vieillissement
La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.
4.6 Bio-matériaux/bio-mimétisme
La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.
4.7 Mécanique biologique
Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.
5 Enjeu des nouvelles demandes/ nouveaux besoins
Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.
5.1 Essais virtuels
Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.
5.2 Sûreté des prédictions
Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.
5.3 Variabilité Fiabilité
La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.
Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.
5.4 Optimisation
Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.
5.5 Contrôle
Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.
6 Conclusions
Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.

7 Références
Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.



[1] E-mail : stephane.roux@saint-gobain.com

 

    VIDEO       CANAL  U         LIEN

 
 
 
 

Le plus grand catalogue de sources gamma de très haute énergie de la Galaxie jamais publié

 

 

 

 

 

 

 

Le plus grand catalogue de sources gamma de très haute énergie de la Galaxie jamais publié

vendredi 6 avril 2018

La collaboration internationale H.E.S.S., à laquelle contribuent le CNRS et le CEA, publie le bilan de quinze années d'observations en rayons gamma de la Voie Lactée. Ses télescopes installés en Namibie ont permis d'étudier des populations de nébuleuses à vent de pulsar, des restes de supernovæ, mais aussi des micro-quasars, jamais détectés en rayons gamma. Ces études sont complétées par des mesures précises comme celles de l'émission diffuse au centre de notre galaxie. Cet ensemble de données servira désormais de référence pour la communauté scientifique internationale. Quatorze articles, soit le plus vaste ensemble de résultats scientifiques dans ce domaine, sont publiés le 9 avril 2018 dans un numéro spécial de la revue "Astronomy & Astrophysics" .

Dans l'Univers, les particules cosmiques sont accélérées par les amas de galaxies, les supernovæ, les étoiles doubles, les pulsars ou encore certains types de trous noirs supermassifs. Via un mécanisme encore mal compris, elles acquièrent alors une très grande énergie, rendue visible par l'émission de rayons gamma. Lorsque ces rayons gamma atteignent l'atmosphère terrestre, ils sont absorbés en produisant une cascade éphémère de particules secondaires qui émet de faibles flashs de lumière bleutée, la lumière Tcherenkov, en seulement quelques milliardièmes de seconde.

C'est pour parvenir à détecter ces flashs extrêmement brefs, et donc l'émission de rayons gamma, que quatorze pays ont construit en 2002 en Namibie le réseau H.E.S.S.1, le plus grand observatoire gamma au monde. Les larges miroirs de ses cinq télescopes collectent la lumière Tcherenkov et la réfléchissent sur des caméras extrêmement sensibles. Chaque image permet d'obtenir la direction d'arrivée d'un photon gamma, tandis que la quantité de lumière collectée renseigne sur son énergie. En accumulant les images photon par photon, H.E.S.S. permet ainsi de cartographier les objets astronomiques en lumière gamma.

Le centre de notre galaxie et le reste de l'explosion d'une étoile massive ont été les deux premières sources identifiées au printemps 2003 par les télescopes Tcherenkov de H.E.S.S., alors encore en phase de tests. Depuis, en 2700 heures d'observation, le réseau H.E.S.S. a très régulièrement exploré la Galaxie et découvert de nombreuses autres sources et classes de sources de rayons gamma, poussant toujours plus loin le domaine de l'astronomie gamma au sol. Ses cinq télescopes ont permis d'identifier exactement 78 sources cosmiques émettant des rayons gamma de très haute énergie (VHE)… soit davantage que tous les autres observatoires du monde réunis !

Le catalogue H.E.S.S. Galactic Plane Survey (HGPS) publié aujourd'hui, quatre fois plus conséquent que le précédent établi en 2006, sera précieux pour la communauté astrophysique toute entière : c'est la première fois qu'un tel ensemble de données en rayons gamma de très haute énergie est mis à sa disposition. Il dresse le bilan de quinze années d'étude qui ont permis de caractériser les types de sources gamma les plus abondants, telles que les nébuleuses à vent de pulsar et les restes de supernovæ, et d'effectuer des mesures de précision sur des sources individuelles comme sur des régions entières de la Voie Lactée. H.E.S.S. a également révélé en détail les accélérateurs de particules sous-jacents à ces sources et la façon dont les rayons cosmiques se déplacent dans le milieu interstellaire et façonnent leur environnement. Enfin, il a permis de détecter l'émission de nouvelles classes d'objets émettant des rayons gamma de très haute énergie, tels que des trous noirs de masse stellaire orbitant autour d'étoiles massives, et de caractériser l'absence d'émission d'autres classes d'objets, tels que des étoiles en déplacement rapide. Le bilan de H.E.S.S. est si conséquent qu'il démontre que l'astronomie gamma aux très hautes énergies est arrivée à maturité.

La collaboration H.E.S.S. a déjà été récompensée par le prix Descartes de la Commission européenne en 2006, et par le prix Rossi de la Société américaine d'astronomie (AAS) en 2010. Une étude publiée en 2009 a inclus H.E.S.S. parmi les 10 observatoires astronomiques les plus influents dans le monde2. L'ensemble de la communauté d'astronomie gamma prépare maintenant la succession de H.E.S.S. avec le Cherenkov Telescope Array (CTA), un projet d'observatoire encore plus sensible et basé sur deux sites, l'un dans l'hémisphère nord et l'autre dans l'hémisphère sud. Mais d'ici sa mise en service durant la décennie 2020, les résultats de H.E.S.S. publiés aujourd'hui serviront la stratégie d'observation de CTA et resteront la référence en astronomie gamma.

Une implication française très forte

Le réseau H.E.S.S. est situé près du Gamsberg, en Namibie. Il est composé de quatre télescopes de 13 m de diamètre et, depuis 2012, d'un cinquième télescope de 28 m. Cet observatoire international est l'un des instruments de détection de rayons gamma de très haute énergie les plus sensibles dans le monde. Il implique des laboratoires de treize pays3, dont principalement la France et l'Allemagne. La caméra centrale est ainsi de conception et construction française, tout comme les cameras originales de HESS-I sur lesquelles sont basés les résultats publiés. Le CNRS et le CEA sont les organismes français les plus impliqués, notamment à travers dix laboratoires :

- Laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris),
- Centre études nucléaires de Bordeaux Gradignan (CNRS/Université de Bordeaux),
- Centre de physique des particules de Marseille (CNRS/AMU),
- Institut de planétologie et d'astrophysique de Grenoble (CNRS/UGA),
- Institut de recherche sur les lois fondamentales de l'Univers (IRFU) du CEA
- Laboratoire d'Annecy de physique des particules (CNRS/Université Savoie Mont Blanc),
- Laboratoire Leprince-Ringuet (CNRS/École polytechnique),
- Laboratoire de physique nucléaire et de hautes énergies (CNRS/UPMC/Université Paris Diderot),
- Laboratoire Univers et particules de Montpellier (CNRS/Université de Montpellier 2),
- Laboratoire Univers et théories (Observatoire de Paris/CNRS/Université Paris Diderot).

La France est également déjà engagée dans le projet CTA.

Pour en savoir plus
https://www.mpi-hd.mpg.de/hfm/HESS/hgps/


Montage représentant les sources de rayons gamma de très haute énergie de la Voie Lactée au dessus des télescopes H.E.S.S. en Namibie. (Photographie de la Voie Lactée au dessus des télescopes H.E.S.S. en Namibie: © F. Acero, Cartographie des sources Gamma / © H.E.S.S. Collaboration


Télécharger le communiqué de presse :



Notes :
1High Energy Stereoscopic System
2"Bulletin of the American Astronomical Society, Vol. 41, p. 913-914" : Consulter le site web
3Allemagne, France, Namibie, Afrique du Sud, Irlande, Arménie, Pologne, Australie, Autriche, Suède, Royaume-Uni, Pays-Bas et Japon
Références :
"H.E.S.S. phase-I observations of the plane of the Milky Way" (Astronomy & Astrophysics Vol 612, April 2018) Consulter le site web
Contacts :
Chercheurs CNRS l Mathieu de Naurois l T 01 69 33 55 97 l denauroi@in2p3.fr
Presse CNRS l Julien Guillaume l T 01 44 96 46 35 l julien.guillaume@cnrs-dir.fr


 DOCUMENT       cnrs     LIEN

 
 
 
 

ATOME

 

 

 

 

 

 

 

atome
(latin atomus, du grec atomos, qu'on ne peut couper)

Consulter aussi dans le dictionnaire : atome
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière dont les mouvements et les combinaisons rendent compte de l'essentiel des propriétés macroscopiques de celle-ci. (Un corps constitué d'atomes de même espèce est appelé corps simple ou élément chimique.)


PHYSIQUE ET CHIMIE

Le mot « atome » est aujourd'hui un paradoxe scientifique : en effet, les Grecs avaient désigné par ce terme, qui veut dire « indivisible », le plus petit élément, simple et stable, de la matière ; or on sait à présent qu’un atome est composé de particules plus petites : des électrons, des protons et des neutrons. Les protons et les neutrons, appelés nucléons, forment le noyau de l’atome et sont eux-mêmes composés de particules encore plus élémentaires : les quarks. La connaissance de cette structure ultime de la matière est à l’origine d’une révolution tant dans le domaine de la connaissance que dans celui des rapports entre les peuples (la fission de noyaux atomiques étant à la base des armes nucléaires).

1. Description d'un atome

Les atomes sont les plus petites parcelles d'un élément chimique qui puissent être conçues : ils sont constitués d'un noyau chargé positivement autour duquel gravitent des électrons chargés négativement, l'ensemble étant électriquement neutre.

Les ions dérivent des atomes par la perte ou par le gain d'un ou de plusieurs électrons : il existe des ions positifs (cations), qui résultent d'une perte d'électrons, et des ions négatifs (anions), qui résultent d'un gain d'électrons.



Les électrons ainsi impliqués sont situés à la partie la plus externe des atomes, qui est seule perturbée par un gain ou une perte d'électrons. Seuls ces électrons (électrons de valence) interviennent dans les réactions chimiques. Ces dernières se distinguent donc fondamentalement des phénomènes qui se produisent lors de l'explosion d'une bombe atomique, lesquels se situent au niveau du noyau. Les transformations intervenant au niveau nucléaire mettent en jeu une énergie (→  énergie nucléaire) un million de fois plus élevée que celle que libère une réaction chimique (→  énergie chimique).
En première approximation, on peut considérer qu'un atome occupe une partie de l'espace, de forme sphérique, d'un diamètre de quelques angströms (1 Å = 10−10 m).

1.1. La structure interne des atomes
L'étude de la structure interne des atomes a montré que tous, quel que soit l'élément qu'ils constituent, sont formés de trois espèces de particules élémentaires : les électrons, les protons et les neutrons.
Les électrons sont des particules légères de charge électrique négative, toutes identiques, qui se meuvent à grande vitesse dans le champ d'attraction du noyau chargé positivement.


D'un diamètre très petit par rapport à celui de l'atome, le noyau – dans lequel presque toute la masse est concentrée – est composé de particules appelées nucléons.
Les nucléons sont de deux espèces : les protons, possédant une charge électrique positive, égale en valeur absolue à la charge des électrons, et les neutrons, électriquement neutres.
Les propriétés d'un atome sont déterminées par le nombre d'électrons présents autour du noyau : ce nombre est égal au nombre Z de protons contenus dans ce noyau.
Les propriétés ne dépendent pas, pour l'essentiel, du nombre N de neutrons : les atomes d'un même élément peuvent contenir un nombre variable de neutrons. Les atomes d'un élément qui contiennent un nombre différent de neutrons constituent des isotopes de cet élément. En général, il existe plusieurs isotopes d'un même élément.

Z représente le nombre atomique ou numéro atomique de l'élément.


La somme Z + N = A est le nombre de masse du noyau.

Pour distinguer les isotopes d'un élément, on les désigne par leur symbole précédé des nombres A et Z qui lui sont propres : ainsi, 146C désigne l'isotope de carbone dont l'atome possède 14 nucléons (6 protons et 8 neutrons).

1.2. Quelques ordres de grandeurs
La masse de l'atome est de l'ordre de 10−26 kg. Un atome peut être assimilé à une sphère dont le rayon, variable d'un élément à l'autre, est de l'ordre de 10−10 m (soit 1 Å).
L'électron porte une charge élémentaire − e (e = 1,602 × 10−19 C), pour une masse m de 9,1093897 × 10−31 kg ou de 5,4 × 10−4 u en unité de masse atomique (1 u = 1,6605402 × 10−27 kg).
Il existe donc un rapport de 1 à 10 000 entre la masse de l'atome et celle de l'électron : dans un atome, la masse des électrons apparaît donc comme négligeable comparée à la masse du noyau.
La masse du proton est de 1,6726231 u (mp = 1,673 × 10−27 kg), et celle du neutron est de 1,6749286 u (mn = 1,675 × 10−27 kg).

Assimilé à une sphère, le volume du noyau est à peu près proportionnel au nombre de nucléons A : le rayon du noyau est, selon une formule empirique, proche de la racine cubique de A, r ≈ 1,41 × 10−15 × A1/3 m (de l'ordre de 10−15 m), ce qui correspond à 1 fm (femtomètre ou fermi).
Un facteur de 100 000 existe entre le rayon de l'atome et celui du noyau, et, si l'on néglige la masse des électrons, le noyau a une densité 10−15 fois plus élevée que celle de l'atome, ce qui correspond à une concentration énorme de matière. La même concentration appliquée à la masse totale de la Terre ramènerait notre planète à une sphère de 60 m de rayon.

1.3. Les atomes isolés
Les rares atomes isolés se rencontrent sous forme de gaz.
Les gaz rares (argon, hélium, krypton, néon, xénon) sont un exemple de la présence d'atomes isolés dans la nature : ils sont en très faible proportion dans l'air, où l'on trouve essentiellement de l'azote (78,084 %) et de l'oxygène (20,946 %) sous forme de molécules diatomiques (N2 et O2), du dioxyde de carbone et de la vapeur d'eau également sous forme de molécules.
Les gaz rares, qui ont été découverts par le chimiste britannique William Ramsay entre 1894 et 1898, ne représentent que 1 % du volume de l'air : argon 0,934 % ; hélium 0,52 × 10−3 % ; krypton 0,11 × 10−3 % ; néon 1,8 × 10−3 % ; xénon 8,7 × 10−6 %.
L'existence d'atomes libres de gaz rares résulte de leur configuration particulièrement stable : les ions se forment d'ailleurs à partir des atomes de telle sorte que, en général, la perte ou le gain d'électrons leur permette d'acquérir une configuration électronique d'atome de gaz rare.

1.4. Les atomes naturels et artificiels

Outre les éléments identifiés dans la nature, et leurs isotopes naturels, on connaît aujourd'hui des éléments plus lourds que l'uranium (le plus lourd des éléments existant à l'état naturel, répertorié avec le numéro atomique 92), et de nouveaux isotopes d'éléments qui existent, en revanche, à l'état artificiel.
Les atomes de ces éléments, ou de ces isotopes, sont fabriqués artificiellement en faisant intervenir des réactions nucléaires, qui consistent à bombarder, par des particules variées et animées d'une très grande vitesse, les noyaux des atomes d'éléments connus.
Ces réactions permettent d'accroître le nombre Z de protons du noyau (et on obtient des atomes plus lourds que ceux de l'élément bombardé) ou de modifier le nombre N de neutrons (et on obtient des isotopes nouveaux).

En règle générale, les éléments artificiels ainsi obtenus sont radioactifs : leurs noyaux se désintègrent rapidement, et leur durée de vie peut donc être très brève, ce qui explique leur absence dans les milieux naturels. Les atomes artificiels d'éléments plus lourds que l'uranium (appelés transuraniens ou éléments superlourds) sont obtenus à partir de noyaux naturels d'uranium ou de thorium. Le premier d'entre eux, dans la séquence des numéros atomiques, est le neptunium, qui porte le numéro Z = 93 ; puis le plutonium (Z = 94), synthétisé en 1940, etc. Le bombardement de l'uranium par des particules chargées et accélérées dans des cyclotrons a ainsi permis d'obtenir de nombreux éléments transuraniens. Les éléments artificiels ainsi fabriqués ont une durée de vie de plus en plus courte à mesure que leur numéro atomique est plus grand.

On peut également fabriquer des isotopes, le plus souvent radioactifs, d'éléments connus, en soumettant les atomes d'éléments naturels à un bombardement de particules accélérées ou à l'action des neutrons émis par une pile atomique. Ces isotopes sont utilisés soit en médecine, notamment pour le traitement du cancer (bombe au cobalt) ou pour réaliser des diagnostics (radio-iode), soit en analyse chimique pour identifier et doser des éléments présents en très petites quantités (de l'ordre de la partie par million), soit en mécanique pour radiographier des pièces de grandes dimensions.

2. Historique de la notion d'atome

La constitution de la matière a très tôt préoccupé les philosophes. L'atomisme, où l'atome est l'« essence de toutes choses », constituant ultime et indivisible de la matière, tel que le concevaient dans l'Antiquité des philosophes comme Empédocle, Leucippe et Démocrite, et tel qu'il fut repris par Épicure et Lucrèce, ne pouvait guère dépasser la vision mécaniste de particules se combinant pour former des corps, à la suite d'une légère et aléatoire modification de leur trajectoire dans le vide (c'est le phénomène du clinamen, chez Épicure). Les philosophes observaient surtout ce qui les entourait et tombait immédiatement sous leurs sens : d'où la suprématie du concept des quatre éléments (l'air, l'eau, la terre, le feu) énoncé par Homère, repris par Thalès et conforté par Aristote, et qui perdurera jusqu'au xviiie s. C'est la chimie qui, 2 500 ans environ après les philosophes grecs, établira la notion moderne d'atome.

2.1. Vingt-trois siècles de tâtonnements
L'alchimie est pratiquée dès la plus haute Antiquité dans les grandes civilisations orientales, notamment en Chine et en Inde, où elle est appelée « science des saveurs » ou « science des élixirs ». En Occident, elle fleurit dans le monde hellénistique et sera transmise par les Arabes au monde chrétien.
 Âge
Au Moyen Âge les alchimistes classent les substances en fumées, esprits, eaux, huiles, laines, cristaux… Mais ils cherchent moins à identifier des corps différents qu'à découvrir la réalité « philosophale » fondamentale cachée derrière les apparences. États et propriétés physiques dominent ces classifications, et du ixe au xvie s. s'ajoutent trois autres éléments : le mercure pour l'état métallique et l'état liquide, le soufre pour la combustion et le sel pour la solubilité (ces éléments sont dits « philosophiques » pour ne pas les confondre avec les corps du même nom).

2.1.2. La théorie du phlogistique

Au xviie s. apparaît avec l'Allemand Georg Ernst Stahl la théorie du phlogistique : fluide miracle associé à tous les corps, il s'ajoute, se retranche, et permet d'expliquer le processus de combustion. Cependant, la chimie moderne est amorcée par le Français Jean Rey qui reconnaît, dès 1630, la conservation de la masse dans les transformations chimiques et le rôle de l'air dans les combustions. L'Irlandais Robert Boyle, dès 1661, fait la distinction entre mélanges et combinaisons chimiques.

2.1.3. La chimie devient une science

Au xviiie s., la chimie devient une véritable science avec le Britannique Joseph Priestley et le Français Antoine Laurent de Lavoisier qui imposent, par des méthodes dignes de la recherche actuelle, de nouvelles règles de nomenclature permettant de comprendre le processus des combinaisons chimiques. Lavoisier définit l'élément chimique, qui ne peut pas être décomposé en substances plus simples par la chaleur ou par une réaction chimique, ainsi que le composé, qui est la combinaison de deux éléments, ou plus, dans une proportion de poids déterminée.

2.2. L'approche de la connaissance actuelle de l'atome

2.2.1. La théorie atomique de Dalton

La première théorie moderne sur l'atome est énoncée, en 1808, par le Britannique John Dalton : tous les atomes d'un même corps simple, autrement dit d'un même élément, sont identiques, mais diffèrent des atomes d'autres éléments par leur dimension, leur poids et d'autres propriétés. Il donne d'ailleurs une liste de poids relatifs, par rapport à l'hydrogène, de quelques atomes (azote, carbone, oxygène, etc.).

2.2.2. Atome et tableau périodique des éléments

En 1869, le Russe Dimitri Ivanovitch Mendeleïev publie le premier tableau périodique des éléments classés en fonction de leur poids atomique. Il démontre que les propriétés chimiques des éléments sont des fonctions périodiques de leur « poids ». Pour cela, il est conduit, d'une part, à inverser certaines positions dans le classement (inversions qui s'avéreront, par la suite, en accord avec le fait que presque tous les éléments chimiques sont des mélanges de plusieurs isotopes) et, d'autre part, à laisser des cases vides correspondant, selon lui, à des éléments non encore découverts, mais dont il prévoit l'existence et les propriétés chimiques.

2.3. Découvertes des constituants de l'atome
Il faut attendre la fin du xixe s., avec les premières découvertes sur les constituants de l'atome, pour que la matière livre ses premiers secrets.
2.3.1. L'électron

.En 1891, l'Irlandais George Johnstone Stoney propose le nom d'électron pour désigner une particule qui porterait une charge électrique élémentaire négative. Mais c'est l'étude des rayons cathodiques par le Français Jean Perrin et par le Britannique Joseph John Thomson qui permet, en 1897, la découverte de l'électron, particule chargée négativement. J. Thomson mesure la charge e de l'électron par rapport à sa masse. La valeur de cette charge (− 1,6 × 10−19 C) est précisée, à 1 % près, en 1911, par l'Américain Robert Andrews Millikan.

2.3.2. La radioactivité et les nucléons

L'observation en 1896 par Henri Becquerel d'un rayonnement inconnu, les mystérieux « rayons uraniques », excite la curiosité de nombreux chercheurs. En effet, les sels d'uranium émettent un rayonnement capable de rendre l'air conducteur d'électricité, d'impressionner une plaque photographique, et qui est aussi pénétrant que les rayons X.

Les radioéléments

À partir de cette observation, Marie Curie commence, en 1898, ses recherches sur la pechblende (oxyde naturel d'uranium) ; son but est de quantifier le rayonnement émis en mesurant l'intensité du courant d'« ionisation » qui est établi dans l'air, sous son action. Elle montre que l'intensité de ce rayonnement est proportionnelle à la quantité d'uranium présent, et elle retrouve ce même phénomène avec l'étude du thorium. Elle propose d'appeler radioactivité cette propriété, et substances radioactives les corps émetteurs de ce rayonnement.
Puis, en collaboration avec Pierre Curie, elle découvre d'autres radioéléments beaucoup plus radioactifs que l'uranium : le polonium en juillet 1898 et le radium en décembre de la même année. Les sources de radium sont un million de fois plus radioactives que les sels d'uranium. Dès ce moment, les découvertes de nouveaux éléments radioactifs se succèdent ; ainsi, André Louis Debierne isole l'actinium en 1899.

Le rayonnement radioactif

L'étude du rayonnement radioactif, émetteur de particules, peut alors être entreprise. Les physiciens reconnaissent deux espèces de rayonnements, que le Britannique Ernest Rutherford désigne par les lettres grecques α et β – par la suite un troisième rayonnement, γ (→  rayons gamma), sera identifié –, qui se distinguent par leur aptitude à pénétrer la matière et par leur comportement sous l'action d'un champ magnétique ou électrique. En 1903, ses compatriotes W. Ramsay et F. Soddy montrent que le rayonnement α est formé de noyaux d'hélium, projetés à grande vitesse.

2.3.3. Le noyau

L'existence du noyau est démontrée en 1907 par Rutherford, qui a l'idée de bombarder la matière, afin de mieux comprendre sa nature, à l'aide de particules α utilisées comme de véritables projectiles. À cet effet, il réalise, dans un tube sous vide, un faisceau étroit de particules α émises par désintégration radioactive du polonium, et place sur son trajet une feuille d'or très mince. Il constate que la plupart des particules n'ont pas rencontré d'obstacles en traversant la feuille d'or, et que par conséquent la matière est pratiquement vide. Cependant, quelques particules sont fortement déviées, et le calcul montre qu'elles ne peuvent être repoussées que par des charges positives concentrées dans un très petit volume.

2.3.4. Le proton
Un des élèves de Rutherford, H. G. Jeffreys Moseley, détermine en 1913 le nombre de charges électriques unitaires et positives que contient l'atome (numéro atomique Z), tandis que son maître découvre, en 1919, la particule positive constitutive du noyau, qu'il nomme proton. Il pressent l'existence d'une particule semblable mais neutre.
2.3.5. Le neutron

En 1930, les Allemands Walter Bothe et Heinrich Becker observent, en bombardant des éléments légers (lithium, béryllium, bore) par des particules α, l'apparition d'un nouveau rayonnement encore plus pénétrant que les protons, qui n'est pas dévié par un champ électrique ou magnétique. C'est encore un élève de Rutherford, James Chadwick, qui en 1932 montre que ce rayonnement est constitué de particules de masse quasi identique à celle du proton, mais neutres, insensibles aux charges électriques, et donc très pénétrantes : les neutrons.


Par la suite, on s'aperçoit que les nucléons (neutrons et protons) ne restent pas inertes dans le noyau : ils interagissent en échangeant des particules plus élémentaires, les mésons π (ou pions), découverts en 1947 par le Japonais Yukawa Hideki et le Britannique Cecil Frank Powell.
Dans les années 1960, l'Américain Murray Gell-Mann introduit l'hypothèse que les nucléons sont eux-mêmes composés de trois grains quasi ponctuels, les quarks, liés par des gluons. Avec l'avancée des constructions théoriques pour rendre compte des faits expérimentaux, le nombre des quarks a été porté à six. Ainsi, en moins d'un siècle, la notion de particule élémentaire est passée de la molécule à l'atome, puis au noyau, ensuite au nucléon puis au quark, et d’autres particules théoriques sont encore à l’étude dans les gigantesques accélérateurs.

3. La représentation de l'atome
Dès que la notion scientifique d'atome apparut, il s'avéra nécessaire de la symboliser pour parvenir à une meilleure compréhension des processus chimiques.

3.1. La représentation symbolique de l'atome

Bien que les termes d'atome et d'élément y soient parfois confondus avec celui de molécule, la première tentative de représentation de l'atome peut être attribuée à John Dalton, qui donne une table des « poids » des différents éléments connus : ces derniers sont représentés par des cercles dans lesquels des lettres, des points ou des traits caractérisent la nature de l'élément. À la même époque, en 1814, la première notation systématique des éléments par le Suédois Jöns Jacob Berzelius annonce la représentation qui sera retenue par la suite. Chaque élément chimique est représenté par un symbole : la première lettre du nom en latin suivi éventuellement d'une deuxième lettre pour distinguer des éléments ayant des initiales identiques. Ainsi, le fluor (F) se distingue du fer (Fe), du fermium (Fm), ou du francium (Fr).

3.2. La représentation spatiale ou la notion de modèle
Dès les premiers résultats expérimentaux, les physiciens entreprennent de proposer une représentation de l'atome capable d'intégrer dans un ensemble cohérent les observations fragmentaires. Ils vont ainsi élaborer un modèle qui rend compte à un instant donné de la totalité des informations recueillies et validées.
3.2.1. Le modèle planétaire

En 1901, Jean Perrin propose une représentation planétaire de l'atome où l'électron décrit une trajectoire circulaire autour du noyau. Reprise et mise en équation par le Danois Niels Bohr en 1913, cette interprétation va s'installer durablement dans les esprits, alors que dès 1927 de nouvelles découvertes la mettent en cause.

Ce modèle s'impose au début du xxe s., car il concilie des résultats provenant d'horizons divers. En effet, on a observé, dès 1850, que chaque gaz, quand il est excité par des décharges électriques, émet une lumière qui, en passant dans un spectroscope à prisme, donne un spectre d'émission différent. Même l'hydrogène, l'élément le plus simple, donne naissance à un spectre complexe.
À la suite des travaux du Suisse Johann Jakob Balmer, en 1885, sur le spectre d'émission de l'hydrogène, le Suédois Johannes Robert Rydberg a proposé une relation mathématique simple entre les longueurs d'onde λ des raies caractéristiques du spectre de l'hydrogène :
1/λ = RH (1/n12 − 1/n22).
• RH est une constante spectroscopique appelée constante de Rydberg (RH = 109 737,32 cm−1) ;
• 1/λ est l'inverse de la longueur d'onde, appelé nombre d'onde (exprimé en cm−1) ;
• n1 et n2 sont des nombres entiers tels que n2 > n1, une série de raies du spectre de l'hydrogène étant caractérisée par une valeur donnée de n1, et par des valeurs de n2 égales à n1 + 1, n1 + 2, n1 + 3.

En 1913, James Franck et l'Allemand Gustav Hertz démontrent qu'un atome ne peut absorber de l'énergie que par quantités discrètes (ΔE) : ce phénomène donne naissance à un spectre d'absorption. Réciproquement, une perte de ces quantités d'énergie (ΔE) engendre une radiation (→  rayonnement) dont la fréquence (ν) émise vérifie la relation avancée par un autre Allemand, Max Planck, pour définir un quantum d'énergie :
ν = ΔE/h
dans laquelle h est la constante de Planck (h = 6,626 × 10−34 J . s).
Ces propositions sont corroborées par le calcul qui mène à la valeur expérimentale de la constante de Rydberg.
Ainsi, il apparaît que l'ensemble des travaux menant à la quantification des niveaux d'énergie des électrons dans l'atome s'accorde avec le phénomène de discontinuité des spectres d'émission de l'atome d'hydrogène : c'est la raison de la faveur du modèle de Bohr.

Selon ce modèle, les électrons se déplacent autour du noyau central sur des orbites analogues à celles que parcourent les planètes autour d'un astre. Au centre se trouve le noyau, chargé positivement, autour duquel gravitent les électrons négatifs ; la charge du noyau est égale à la valeur absolue de la somme des charges des électrons.
Ces électrons planétaires ne peuvent se situer que sur certaines orbites stables, associées chacune à un niveau d'énergie formant une suite discontinue, et correspondant aux différentes couches désignées par les lettres K, L, M, N, etc. On dit que l'énergie de l'atome est quantifiée.
La couche électronique K, la plus proche du noyau, peut au plus contenir deux électrons, et la couche L, huit électrons. Sous l'effet d'une excitation extérieure, l'électron peut passer d'une orbite à une autre, d'énergie supérieure. Mais il revient ensuite spontanément sur des orbites d'énergie inférieure. C'est alors qu'il rayonne de l'énergie.

3.2.2. Limites du modèle planétaire
En dépit du perfectionnement du modèle de Bohr, en 1928, par l'Allemand Arnold Sommerfeld, qui propose pour l'électron une trajectoire elliptique, une rotation sur lui-même (spin de l'électron) et la quantification étendue à l'espace pour tenter de rendre compte de la décomposition des raies spectrales émises quand on place l'atome dans un champ magnétique (effet Zeeman, du Néerlandais Pieter Zeeman), ce modèle avait des difficultés à interpréter les résultats obtenus pour les atomes à plusieurs électrons.
De plus, l'électron, qui rayonne de l'énergie, devait logiquement tomber sur le noyau.
Malgré le succès remporté par le modèle atomique de Bohr, il est très vite apparu impossible de développer une théorie générale pour tous les phénomènes atomiques en surimposant simplement aux principes de la mécanique classique ceux de la mécanique quantique.

3.2.3. Dualité onde-corpuscule

Vers 1900, Max Planck avait associé au caractère ondulatoire du rayonnement défini par une longueur d'onde λ un caractère corpusculaire sous forme de photons dont l'énergie E est liée à cette longueur d'onde λ par la relation (où c est la vitesse de la lumière) :
E = hν = hc/λ.

Le Français Louis de Broglie extrapole cette théorie des photons à toute particule, dans sa thèse en 1924, où il montre que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire.
Dès 1927, les Américains Clinton Joseph Davisson et Lester Halbert Germer prouvent le bien-fondé de cette relation en réalisant la diffraction d'électrons par un cristal, démontrant ainsi le caractère ondulatoire des électrons (en 1978, on réalisera aussi la diffraction de l’antiparticule de l’électron nommée positon, découvert en 1932 par l'Américain Carl David Anderson).
Par ailleurs, en 1927, l'Allemand Werner Heisenberg traduit par une inégalité l'impossibilité de connaître simultanément deux paramètres pour une particule en mouvement (vitesse et position, par exemple). C'est le principe d'incertitude, incompatible avec le modèle de Bohr :
Δp × Δx > h
où Δp et Δx expriment respectivement les incertitudes sur les paramètres p (quantité de mouvement) et x (position).

3.3. L'atome en mécanique ondulatoire
Le caractère double de la matière, ondulatoire et corpusculaire, et le principe d'incertitude font abandonner le modèle de Bohr et sa représentation ponctuelle de l'électron parcourant une trajectoire. Une démarche neuve apparaît avec des modes de raisonnement et de calcul qui lui sont propres. La position, la vitesse et la direction du déplacement d'un électron ne pouvant être définies simultanément, on détermine la probabilité de sa présence dans un certain volume de l'espace situé autour du noyau, que l'on appelle orbitale ou nuage électronique. On lui associe une fonction complexe purement mathématique nommée fonction d'onde (Ψ), qui se calcule par la résolution d'une équation posée par l'Autrichien Erwin Schrödinger.

L'application de l'équation de Schrödinger à l'électron unique de l'atome d'hydrogène dans son état de plus faible énergie, appelé état fondamental, permet de retrouver les résultats expérimentaux déjà interprétés par le modèle planétaire. Mais elle intègre les états inhabituels, dits états excités, où les énergies sont plus élevées que dans le cas de l'état fondamental, et permet l'extension et la généralisation du modèle aux atomes autres que l'hydrogène : les électrons de ces derniers occupent, à l'état fondamental, des orbitales comparables à celles des états excités de l'atome d'hydrogène.

Pour rendre compte du comportement des atomes possédant un seul électron sous l'effet d'un champ magnétique ou d'un champ électrique, on a été amené à introduire la notion de spin, qui trouve sa formulation mathématique grâce au Britannique Paul Dirac (en première approximation par rapport à la mécanique classique, le spin traduit un mouvement propre de rotation de l'électron sur lui-même).
On déduit par ailleurs de la mécanique ondulatoire le principe dit d'exclusion de Pauli, selon lequel deux électrons d'un même atome ne peuvent pas être repérés par le même ensemble de nombres quantiques n, l, m, s.
Il apparaît en outre que les électrons sont généralement localisés plus particulièrement dans certaines directions de l'espace autour du noyau.

3.4. Paramètres caractéristiques des électrons dans l'atome

La résolution mathématique de l'équation de Schrödinger impose des restrictions qui conduisent à l'introduction de nombres appelés nombres quantiques – n, l, m, s – devant satisfaire à certaines conditions ; l'énergie et la localisation spatiale des électrons gravitant autour du noyau sont déterminées par ces nombres .

3.4.1. Le nombre quantique principal
Le nombre quantique principal n est un entier strictement positif : il se nomme nombre quantique principal, car il quantifie l'énergie. On retrouve par la mécanique ondulatoire la même expression des différents niveaux d'énergie de l'atome d'hydrogène que celle obtenue dans le modèle de Bohr soit :
En = −13,6/n2 en eV (1 eV = 1,6 × 10−19 J)
avec n = 1, 2, 3…

Le nombre n détermine également le volume à l'intérieur duquel l'électron a le plus de chance de se trouver : quand n croît, le volume augmente. Les valeurs successives 1, 2, 3, etc. correspondent à l'ancienne notation des couches atomiques par les lettres K, L, M, etc.
Cependant, pour décrire une orbitale atomique, le nombre quantique principal n n'est pas suffisant, car si l'énergie fixe la taille de l'orbitale, elle ne donne pas la direction de l'espace où la probabilité de trouver l'électron est importante.

3.4.2. Le nombre quantique azimutal
Le nombre l est un entier positif, strictement inférieur à n, appelé nombre quantique azimutal, ou nombre quantique secondaire (par exemple, si n = 2 alors l = 0 ou 1) ; l quantifie le module du moment cinétique orbital.
De plus, l détermine la forme de l'orbitale dont les grands axes indiquent la direction où l'on a le plus de chance de trouver l'électron. Selon que l = 0, 1, 2, 3 ou 4, les différents types d'orbitales atomiques sont désignés respectivement par s, p, d, f ou g.
Ainsi, pour l = 0, la distribution électronique est symétrique autour du noyau et la probabilité de trouver l'électron est la même dans toutes les directions ; c'est le cas de l'hydrogène à l'état fondamental.
Si l = 1 ou 2 (orbitales p ou d), la fonction d'onde présente des « excroissances » dans des directions privilégiées de l'espace, justifiant l'orientation et les valeurs précises des angles de liaison des atomes entre eux dans les molécules.

3.4.3. Le nombre quantique magnétique
Le nombre m est un entier variant de − l à + l, prenant donc 2l + 1 valeurs : on l'appelle nombre quantique magnétique, car il quantifie la projection du moment cinétique sur un axe privilégié, celui selon lequel on applique un champ magnétique.
Ainsi, pour n = 2 :
• à l = 0 correspond m = 0 ;
• à l = 1 correspond m = − 1, 0, + 1,
m indique donc le nombre d'orbitales.
Pour l = 1 on a des orbitales p, où la probabilité de trouver l'électron est importante sur l'axe Oz pour m = 0, et suivant les axes Oy ou Ox pour m = − 1 ou + 1. À chaque type d'orbitale atomique (s, p) correspondent donc (2l + 1) orbitales atomiques, soit 1 de type s, 3 de type p, 5 de type d, 7 de type f, qui ont chacune une forme et une orientation bien particulières.
Ψn, l, m est la fonction d'onde qui exprime la forme de l'orbitale atomique occupée par un électron ; cette fonction au carré Ψ2n, l, m exprime la probabilité de présence de cet électron dans les différents domaines de l'espace.
(Ψn, l, m est une fonction des coordonnées de l'espace : x, y, z en coordonnées cartésiennes, ou r, θ, φ en coordonnées polaires.)

3.4.4. Le spin
Le quatrième nombre quantique est le spin s, qui prend deux valeurs opposées (+ 1/2 et − 1/2) pour chaque ensemble n, l, m.
Aucun électron d'un même atome n'a ses quatre nombres quantiques identiques à ceux d'un autre électron (principe d'exclusion). Pour une valeur n du nombre quantique principal le nombre maximum d'électrons est 2n2.
La résolution de l'équation de Schrödinger n'est rigoureuse que pour l'atome d'hydrogène. Elle s'étend toutefois aisément aux ions hydrogénoïdes, tels que He+ (un seul électron autour du noyau), et avec des approximations satisfaisantes elle s'applique aux atomes à plusieurs électrons.
Jusqu'à présent, l'hypothèse quantique, tout en se modifiant au fur et à mesure des nouvelles données, permet d'expliquer l'ensemble des connaissances.
À partir du nombre global d'électrons, et en jouant avec les valeurs que peuvent prendre entre eux les nombres quantiques, il est possible de construire la carte d'identité de chaque atome tout en respectant les règles qui, parfois sous des noms différents, ne sont qu'une même expression du fait que l'énergie la plus faible confère à l'édifice la stabilité la plus grande.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

1 - La gravité quantique à boucles en 5 questions

 

  

 

 

 

 

 

 La gravité quantique à boucles en 5 questions

Bernard Romney dans mensuel 458
daté décembre 2011 -

En quelques années, la théorie de la gravité quantique à boucles, qui cherche à quantifier la gravitation, a changé de statut et gagné une certaine maturité. Quels sont les fondements de cette théorie ?
F in mai 2011, Madrid accueille une communauté particulière de physiciens : tous les spécialistes de la « gravité quantique à boucles » s'y réunissent pour célébrer les 25 ans de l'article fondateur de cette théorie. Dans son allocution, l'auteur de cette publication, le physicien d'origine indienne Abhay Ashtekar, dépeint l'essor actuel de cette approche théorique, notamment en cosmologie. On est donc loin de la théorie longtemps considérée comme exotique, n'intéressant que quelques théoriciens travaillant à une reformulation mathématique de la loi de la gravitation.
Aujourd'hui, ce modèle de quantification de l'espace-temps est cohérent et a acquis une nouvelle assise. Tout tourne autour de l'idée que l'espace n'est plus continu mais formé de petits grains élémentaires. Bien sûr, cette théorie, très difficile à tester, est encore spéculative. Mais décrire la structure intime de l'espace-temps, comme passer « de l'autre coté du Big Bang » motive toute cette communauté de physiciens. « Les boucles » ont passé un cap : c'est donc l'occasion d'en expliquer les fondements.

1 Quels sont les objectifs de cette théorie ?
Imaginée à partir du milieu des années 1980, la gravité quantique à boucles est une théorie qui, comme son nom l'indique, cherche à quantifier la gravité, et tente ainsi de répondre à l'une des questions clés de la physique actuelle. En effet, le début du XXe siècle a vu l'émergence des deux théories de la physique contemporaine. La mécanique quantique qui décrit les propriétés de l'infiniment petit : molécules, atomes, particules élémentaires... Et la relativité générale, théorie relativiste de la gravitation, qui décrit l'Univers à grande échelle. Dans leurs domaines respectifs, ces deux théories font des merveilles. Pour autant, elles sont totalement incompatibles, et conduisent à deux représentations du monde radicalement différentes. D'un côté, des phénomènes quantiques aléatoires, incertains et discontinus, ayant cours dans l'espace-temps parfaitement plat et figé de la microphysique. De l'autre l'espace-temps courbe et dynamique, mais parfaitement lisse et continu de la relativité générale.

Exigence conceptuelle donc, mais pas seulement. En effet, si elles sont peu nombreuses, certaines questions, comme le début de l'Univers ou la fin de vie d'un trou noir, requièrent, pour être abordées dans leur intégralité, une théorie à même de rendre compte de situations où les effets gravitationnels se font sentir à l'échelle microscopique. Ce dont seule une théorie quantique de la gravitation serait capable.
Dès 1916, Einstein prend conscience de la nécessité de quantifier la gravitation. Mais les physiciens y sont d'abord parvenus pour les autres interactions fondamentales : la force électromagnétique et les interactions nucléaires faible et forte. C'est d'ailleurs l'un des triomphes de la physique du siècle dernier d'avoir forgé une théorie à la fois quantique et relativiste de ces trois dernières interactions. Et le résultat de ce tour de force est synthétisé dans ce que les physiciens des particules appellent le modèle standard.
À l'inverse, malgré un siècle d'efforts, personne n'a réussi à proposer une version quantique entièrement satisfaisante de la gravitation. Et pour cause : alors que les outils mathématiques utilisés pour quantifier les autres forces fondamentales ne sont utilisables que dans le cadre d'un espace-temps plat, celui de la gravitation est fondamentalement mouvant.
Pour contourner le problème, plusieurs tentatives ont consisté à étudier le cas de petites déformations de l'espace-temps sur une trame considérée comme plate et fixe. Mais toutes se sont confrontées à d'incontournables incohérences mathématiques les rendant in fine inutilisables.
Aujourd'hui, il existe essentiellement deux grandes théories concurrentes, et à ce stade encore spéculatives, qui proposent de quantifier la gravitation : la théorie des cordes lire L'ambitieuse théorie des cordes, p. 41 et la gravité quantique à boucles. La première évolue sur un espace-temps parfaitement figé. Et c'est ce qu'un certain nombre de théoriciens lui reprochent. Selon eux, pour cette raison, la théorie des cordes ne peut pas être l'ultime théorie quantique de la gravitation. Et ils lui préfèrent la gravité quantique à boucles, a priori plus modeste. N'ayant pas pour ambition d'unifier toutes les interactions, elle se concentre en effet exclusivement sur la quantification de la gravitation. De plus, l'approche « cordiste » part d'une hypothèse ad hoc - l'existence des cordes -, alors que les « bouclistes », et c'est leur force, ne se fondent que sur de la physique connue : la mécanique quantique et la relativité générale.

2 Comment les boucles quantifient-elles la gravitation ?
Pour les spécialistes des boucles, une véritable théorie quantique de la gravitation ne doit formuler aucune hypothèse sur la géométrie de l'espace-temps. Comme en relativité générale, c'est le contenu en matière de l'Univers qui fixe de façon dynamique sa géométrie. Les physiciens parlent ainsi d'approche « indépendante du fond ».
À partir de là, il s'agit d'appliquer les techniques standard de quantification à la gravitation. C'est-à-dire à l'espace-temps lui-même, puisque selon les équations d'Einstein, la force qui fait « tomber les pommes » est une manifestation directe de la déformation que la matière imprime à la trame de l'espace-temps.
Certes, de multiples tentatives ont montré toute la difficulté d'appliquer un tel programme. Mais pour les promoteurs de la gravité quantique à boucles, c'est justement le fait d'avoir privilégié des approches non indépendantes du fond qui a été à l'origine des échecs passés. Car en figeant la trame de l'espace-temps, elles empêchaient que ne se révèle son éventuelle structure quantique.
Concrètement, l'origine de la gravité quantique à boucles réside dans une reformulation de la relativité générale proposée en 1986 par Abhay Ashtekar, alors à l'université de Syracuse, aux États-Unis [1] . L'exercice est d'une extrême technicité mathématique. Sauf que réécrites sous cette forme, les équations décrivant la géométrie mouvante de l'espace-temps ressemblent désormais à celles qui décrivent les lignes de champ électrique dans la théorie de Maxwell. Ce que remarquent Carlo Rovelli et Lee Smolin, alors à l'université Yale aux États-Unis, au tournant des années 1980 et 1990 [2] .
Les deux physiciens suggèrent d'exporter les méthodes utilisées pour dériver la version quantique de l'électromagnétisme, quoique sous une forme très largement remaniée, dans le champ de la relativité générale et de la gravitation. Ainsi naît une théorie quantique de la gravité, dont le nom, gravité quantique à boucles, vient du fait qu'elle s'appuie sur le calcul de la variation de l'orientation de surfaces d'espace le long de lignes fermées d'espace-temps, autrement dit des boucles. Calculs auxquels sont associées des incertitudes fondamentales équivalentes à celles qui, en mécanique quantique, empêchent de déterminer simultanément la position et la vitesse d'une particule microscopique.

3 À quelle vision de l'espace-temps conduit la gravité quantique à boucles ?
En 1994, Carlo Rovelli et Lee Smolin, alors aux universités de Pittsburgh et de Syracuse, montrent que cette théorie conduit à une représentation de l'espace-temps radicalement nouvelle [3] . Alors que l'espace-temps de la théorie d'Einstein est lisse à toutes les échelles, celui de la gravité quantique à boucles, d'après les calculs des deux théoriciens, présente une structure discontinue si on le regarde aux échelles les plus petites.
Ainsi, de la même manière que l'énergie d'un atome ou d'une molécule ne peut prendre que certaines valeurs, la gravité quantique à boucles indique que l'espace lui-même n'est pas insécable à l'infini. Les calculs conduisent à une longueur élémentaire, la plus petite possible, équivalente à la longueur de Planck, soit 10-35 mètre. Ce qui mène à une surface élémentaire d'Univers de 10-70 mètre carré, et en trois dimensions à un volume élémentaire, le plus petit « cube » d'espace envisageable, de 10-105 mètre cube. L'Univers entier devenant alors une sorte de gigantesque « lego » composé de volumes élémentaires certes minuscules, mais insécables. De la même manière que la matière, d'apparence lisse et continue à notre échelle, résulte de l'agencement de particules dont la taille est finie.
Étonnant ? Peut-être. Si ce n'est que ces « grains » d'espace n'ont rien d' ad hoc , mais sont au contraire une conséquence implacable des calculs à base de boucles. Plus précisément, chaque fois que les équations de la théorie parcourent une boucle de façon abstraite, elles engendrent du même coup un nouveau quantum de volume [fig. 1] .
L'année suivante, Carlo Rovelli et Lee Smolin raffinent leur approche. Plus précisément, ils réalisent que la structure granulaire de l'espace peut être décrite par une gigantesque toile, ou réseau, dont chaque noeud représente un volume élémentaire et chaque lien la surface séparant deux volumes adjacents. Cette représentation leur a été inspirée par des travaux réalisés quinze ans plus tôt par Roger Penrose, à l'université d'Oxford. Et c'est donc auprès du célèbre mathématicien que les deux théoriciens peaufinent leurs idées durant l'été 1994, lors d'un séjour à Vérone, en Italie.
Pour autant, cet espace-temps granulaire ne suffit pas à faire alors de la théorie quantique à boucles une théorie quantique de la gravité. Encore faut-il qu'elle indique comment la dynamique de l'espace-temps met en oeuvre ces quanta d'espace dans des situations physiques concrètes, de la même manière que la relativité générale décrit l'extension de l'Univers dans l'espace-temps comme une solution des équations d'Einstein.
Les premières équations d'évolution d'un Univers quantique sont le fait de Thomas Thiemann, alors à l'université de Penn State, en Pensylvanie, en 1996. Accueillies avec un immense enthousiasme, elles laissent entrevoir la possibilité de calculer les probabilités quantiques précises de chaque modification de l'espace-temps quantifiée. Elles conduisent aussi à se représenter ce dernier telle une « mousse » faite de petits volumes d'espace et de temps, la quatrième dimension - le temps - devenant également une grandeur discontinue, dont le plus petit incrément est environ égal au temps de Planck, soit 10-43 seconde [fig.2] .
Néanmoins, l'euphorie est de courte durée : les équations de Thiemann sont si difficiles à manipuler qu'elles ne sont presque d'aucune utilité pratique. Sans compter qu'à l'horizon des années 2000 personne n'est en mesure de garantir l'unicité des règles conduisant à la quantification de l'espace-temps dans le cadre de la gravité quantique à boucle. D'où un risque de conduire, pour une situation physique donnée, à des prédictions différentes et contradictoires et donc d'invalider la théorie.
Aussi faut-il attendre ces toutes dernières années pour que plusieurs physiciens, notamment Laurent Freidel, à l'institut Perimeter, à Waterloo, au Canada, Etera Livine, à l'école normale supérieure de Lyon, et le groupe de Carlo Rovelli, au Centre de physique théorique, à Luminy, prouvent définitivement le caractère univoque de la gravité quantique à boucles [4] . Et en donnent une formulation permettant de l'utiliser pour réaliser des calculs.

4 Quels sont les succès de cette théorie ?
Tout d'abord, la gravité quantique à boucles est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation, qui intègre à la fois les exigences de la mécanique quantique : description probabiliste des phénomènes physiques, relations d'incertitude, caractère discontinu de la réalité... et le caractère fondamentalement dynamique de l'espace-temps de la relativité générale.
Par ailleurs, John Barrett, Winston Fairbairn et leur groupe de recherche, à l'université de Nottingham en Grande-Bretagne, ont récemment prouvé qu'à grandes échelles la gravité quantique à boucles se résume effectivement à la relativité générale [5] , de même que dans le domaine des faibles champs de gravitation, la relativité générale ne fait qu'une avec la théorie newtonienne.
Dans le même esprit, Eugenio Bianchi et You Ding, à l'université de Aix-Marseille, ont montré que la gravité quantique à boucles permet de décrire certaines propriétés de l'espace-temps en terme de propagation de gravitons, particule élémentaire imaginée être associée au champ de gravité. Et là encore, ses prédictions sont conformes à celles de la relativité générale. Elle permet aussi de retrouver les équations dites de Friedman qui décrivent l'expansion de l'Univers dans le cadre de la théorie d'Einstein de la gravitation.
Mais ce n'est pas tout. L'une des plus grandes réussites de la gravité quantique à boucles concerne la cosmologie. Ainsi, elle permet de dépasser les difficultés posées par la singularité mathématique associée au Big Bang, dont le sens physique est inexistant. Plus précisément, elle montre que notre univers en expansion pourrait résulter du « rebond » d'un univers en contraction qui l'aurait précédé lire « De l'autre côté du Big Bang », p. 46.
Enfin, la gravité quantique à boucles s'est illustrée dans la description de la physique des trous noirs lire « Comment la théorie des boucles voit les trous noirs », p. 44. En effet elle a permis à Carlo Rovelli, dès 1996, de retrouver la formule de l'entropie d'un trou noir. En des termes profanes, l'étrange résultat obtenu au début des années 1970 par Stephen Hawking, à Cambridge, et Jacob Bekenstein, alors à Princeton, selon lequel un trou noir, astre dont la relativité générale indique qu'il est impossible de s'en extraire, émet néanmoins, comme tout corps, un rayonnement thermique lié au fait qu'il possède une température. Et dont le physicien Stephen Hawking avait montré qu'il ne peut s'expliquer qu'en introduisant une dose de mécanique quantique dans la physique de ces astres noirs.

5 Est-il possible de tester la gravité quantique à boucles ?
Sachant que les prédictions de la gravité quantique à boucles concernent des domaines - échelle de Planck de l'espace-temps , Big Bang, trous noirs - totalement inaccessibles à l'expérimentation directe, la réponse est difficile. Et, il y a encore quelques années, d'aucuns auraient assuré que cette théorie, comme du reste toute théorie quantique de la gravitation, ne pourrait jamais être testée. Aujourd'hui, les avis sont partagés. Mais quelques pistes existent.
Ainsi, même s'il n'y a pas consensus sur la question, il n'est pas impossible que la granularité de l'espace prédite par les « boucles » s'accompagne d'une violation du sacro-saint caractère de la vitesse de la lumière. En effet, lorsqu'elle se propage entre les atomes d'un solide, la lumière, si sa longueur d'onde est très grande par rapport à la distance inter-atomique, ne subit pas d'influence du réseau cristallin, comme si elle ne le « voyait » pas. Et sa vitesse est la même que dans le vide. A l'inverse, si sa longueur d'onde est de l'ordre de grandeur de la distance inter-atomique, ou plus petite, elle devient sensible à l'influence du milieu dans lequel elle se propage. Sa vitesse dépend alors de sa longueur d'onde. Il n'est donc pas impossible qu'un photon de très petite longueur d'onde, de l'ordre de la longueur de Planck, puisse voir sa vitesse de propagation dans le vide affectée par la structure quantique de l'espace-temps telle que prédite par la gravité quantique à boucles.
Pour le savoir, les astrophysiciens comptent en particulier sur l'observation de ce qu'ils appellent des sursauts gamma, soit des bouffées de lumière ultra intenses - pendant quelques centaines de secondes, elles sont jusqu'à 10 fois plus lumineuses que toute la galaxie - émis par des galaxies anciennes situées à plusieurs milliards d'années-lumière de la Terre. Ainsi, un décalage constaté dans l'arrivée des photons de différentes longueurs d'onde pourrait être un signe favorable en faveur des boucles.

Autre possibilité : la piste cosmologique. En effet, les calculs montrent que la structure granulaire de l'espace-temps aurait pu imprimer sa marque dans le fond diffus cosmologique, la plus ancienne lumière aujourd'hui observable dans l'Univers. Effets qui pourraient être décelés par les nouveaux télescopes spatiaux. Avec tout de même un bémol : l'impossibilité de prévoir, étant donné l'indétermination qui règne sur certains paramètres de la théorie, si ces modulations dans le fond diffus ne seraient pas plus grandes que l'Univers observable. Auquel cas, même si elles existent, elles resteront à jamais inaccessibles.

Certains « bouclistes » optent enfin pour une approche probabiliste, et se demandent par exemple quelle est la probabilité que la gravité quantique à boucle engendre un Univers compatible avec les propriétés du nôtre. À ce jeu, il sera difficile de vérifier cette théorie.
[1] A. Ashtekar, Phys. Rev. Lett., 57, 2244, 1986.
[2] C. Rovelli et L. Smolin, Nuclear Physics, B331, 80, 1990.
[3] C. Rovelli and L. Smolin, Nuclear Physics, B 442, 593, 1995.
[4] L. Freidel et K. Krasnov, Class. Quant. Grav., 25, 125018, 2008.
[5] J. Engle et al., Nuclear Physics B799, 136, 2008.

LES FONDATEURS DE LA THÉORIE
Abhay Ashtekar, en 1986, alors à l'université de Syracuse, aux États-Unis, propose une reformulation des équations de la relativité générale.
Carlo Rovelli et Lee Smolin, à l'université Yale aux États-Unis, forts de cette reformulation, présentent une nouvelle approche pour quantifier la gravitation : la gravité quantique à boucles.
Lee Smolin et Carlo Rovelli, en 1994, montrent qu'elle conduit à une représentation de l'espace-temps radicalement nouvelle : à très petite échelle, ce dernier possède une structure granulaire.
Thomas Thiemann, en 1996, à l'université de Penn State, en Pensylvanie, établit les premières équations d'évolution d'un Univers quantique.
Laurent Freidel, à l'Institut Perimeter, est l'un de ceux qui ont prouvé ces dernières années le caractère univoque de la théorie.

L'ESSENTIEL
LA GRAVITÉ QUANTIQUE À BOUCLES est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation.
À LA DIFFÉRENCE de sa concurrente principale, la théorie des cordes, elle ne fige pas l'espace-temps, a priori. C'est la matière qui en façonne la géométrie de façon dynamique.
BIEN QUE DIFFICILE À TESTER, cette théorie connaît d'importants succès, en particulier dans le domaine de la cosmologie.
L'AMBITIEUSE THÉORIE DES CORDES
Apparue au début des années 1980, la théorie des cordes consiste à postuler que toutes les particules élémentaires, qui dans le modèle standard sont considérées comme ponctuelles, émanent en réalité des vibrations de minuscules cordes dont la taille avoisine la longueur de Planck 10-35 mètre. Hypothèse suffisante pour engendrer spontanément, du moins en théorie, une particule dont les propriétés sont exactement celles du graviton, particule élémentaire imaginée par les physiciens pour véhiculer la gravitation. Par ailleurs, cette théorie a la faveur de nombreux physiciens car elle offre également un cadre pour unifier l'ensemble des interactions. C'est-à-dire un cadre dans lequel les quatre forces de la nature semblent émerger d'une unique interaction encore plus fondamentale.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google