ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

PHYSIQUE ET MÉCANIQUE

 

 

 

 

 

 

 

PHYSIQUE ET MÉCANIQUE

Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever dans le futur. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, en passant par l'exploitation de l'imagerie bi voire tridimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges. Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolu, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, …

Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet
2005
Par Stéphane ROUX[1] : Physique et Mécanique
Résumé :
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.
Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).
Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.

1 Introduction

Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.
Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.
Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :

*         Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
*         Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
*         Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
*         Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.

2 Enjeu de connaissance fondamentale
La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :

*         Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
*         Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
*         Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
*         Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
*         Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.

2.1 Savoir imbriquer les échelles de description
Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.
Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.
Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.
2.2 Non-linéarité et hétérogénéité : Physique statistique
Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.
Pour des rhéologies plus complexes, l'essentiel reste à construire :
Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.

L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).
Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.

3 Enjeu des nouvelles techniques d'analyse
Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.

3.1 Nouvelles imageries
Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.
La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.
A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.
Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.
De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.
3.2 Que faire avec ces informations ?
Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.
Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :

* Fracture de matériaux vitreux imagée par AFM

En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.

* Comportement plastique de la silice amorphe

La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.

* Détection de fissures et mesure de leur ténacité

Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.

* Comportement de polymères micro-structurés

Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.
4 Enjeu des nouveaux matériaux
Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.

4.1 Matériaux composites et nano-matériaux

L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).
Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).

4.2 Matériaux fibreux/Milieux enchevêtrés
Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.
4.3 Couches minces : Tribologie Frottement adhésion
La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.
Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.

4.4 Couplages multiphysiques
La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.

4.5 Vieillissement
La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.

4.6 Bio-matériaux/bio-mimétisme
La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.

4.7 Mécanique biologique
Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.
5 Enjeu des nouvelles demandes/ nouveaux besoins
Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.
5.1 Essais virtuels
Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.
5.2 Sûreté des prédictions
Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.

5.3 Variabilité Fiabilité
La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.
Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.
5.4 Optimisation
Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.

5.5 Contrôle
Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.

6 Conclusions
Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.

7 Références
Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.



[1] E-mail : stephane.roux@saint-gobain.com

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

LES MATÉRIAUX MOLÉCULAIRES

 

 

 

 

 

 

 

LES MATÉRIAUX MOLÉCULAIRES

L' histoire de l'humanité est scandée par la nature des matériaux que l'homme est capable d'élaborer et d'utiliser pour répondre à ses besoins. Notre époque est marquée par une explosion de la création de nouveaux matériaux, de plus en plus conçus pour répondre à un besoin très précis. Dans ce contexte, les matériaux réalisés à partir de molécules peuvent faire valoir de nombreux avantages : ils sont le plus souvent de faible densité, transparents ou colorés à la demande, solubles, biocompatibles, faciles à mettre en forme, etc. La flexibilité de la chimie moléculaire permet de produire pratiquement " à la carte " de nouvelles molécules et de nouveaux édifices moléculaires en variant de manière de plus en plus subtile structures, structures électroniques et propriétés. Les synthèses sont guidées par les besoins en nouveaux matériaux de structure ou en matériaux fonctionnels. Notre vie quotidienne est ainsi entourée de matériaux moléculaires familiers qu'ils soient d'origine naturelle ou industrielle, créations de l'homme. L'exposé les identifie, illustre et commente quelques unes de leurs propriétés et leurs multiples domaines d'application. Dans le même temps, une recherche pluridisciplinaire se poursuit pour obtenir des matériaux présentant des propriétés inédites, voire des propriétés multiples au niveau macroscopique (grands ensembles de molécules) ou au niveau d'une seule molécule (électronique moléculaire, machines moléculaires…). Quelques aspects de ces recherches sont présentés, en mettant en évidence les principes fondamentaux sur lesquels repose la synthèse des molécules et des édifices moléculaires présentant des propriétés données, les techniques récentes qui permettent un progrès plus rapide en matière de matériaux moléculaires, les contraintes qui s'exercent sur la production de ces matériaux et les perspectives qui s'ouvrent dans un domaine où la riche complexité des matériaux biologiques constitue une matière première et un exemple, une source de réflexion et d'espoir permanents.

Texte de la 240e conférence de l’Université de tous les savoirs donnée le 27 août 2000.Les matériaux moléculaires ou : de la molécule au matériau …par Michel Verdaguer Il est trivial de dire que la notion de matériau a scandé l’histoire de l’humanité : les « âges » qui structurent l’histoire de l’homme portent le nom de matériaux : âge de la pierre, âge du bronze, âge du fer, âge du silicium ou du nylon. Un seul de ces matériaux est un matériau (macro)moléculaire, c’est le nylon, mais c’est le plus récent, le plus complexe, le plus seyant[1]. Qu'est-ce qu'un matériau moléculaire ? Avant toute chose, il est souhaitable de définir ce que l’on entend par matériau moléculaire. Un matériau moléculaire est un matériau constitué de molécules[2]. Une molécule est un ensemble d’atomes reliés entre eux par des liaisons chimiques covalentes. Un matériau est une substance utile qui, convenablement mise en forme, est insérée dans un dispositif pour y remplir une fonction grâce à ses propriétés. C'est souvent un solide. Les matériaux moléculaires sont d'une grande diversité, de la nappe de l’incroyable pique-nique du 14 juillet 2000 (composite de polymères) aux dispositifs d’affichage des écrans de micro-ordinateurs (cristaux liquides). Les matériaux moléculaires parmi les autres matériaux Les grandes classes de matériaux utilisés par l'homme sont les métaux, les céramiques, les polymères[3]. Cette classification, pour une part arbitraire, ne comporte pas de matériau moléculaire au sens strict. Mais les polymères sont des molécules géantes (macromolécules). Chaque type de matériau a des propriétés caractéristiques (mécaniques, physiques, chimiques), correspondant à la structure et au type de liaison concerné : les métaux (liaison métallique) sont des assemblages d'atomes. Ils sont conducteurs, durs, à température de fusion élevée, malléables, ductiles, denses, réfléchissants et opaques. Les céramiques (liaison ionique) sont des assemblages d'ions isolants, réfractaires, denses, résistants mécaniquement et thermiquement mais cassants et fragiles. Les polymères (liaison covalente) sont légers, faciles à mettre en forme, isolants, peu rigides, souvent peu stables à la température. Quand un besoin n'est pas couvert par les grandes classes de matériaux, on fait appel à des composites, mélange complexe de matériaux ou on en crée de nouveaux. Il existe une véritable science des matériaux qui les étudie, les améliore et les crée[4]. Parmi les matériaux nouveaux, figurent précisément les matériaux moléculaires. Contrairement aux céramiques et aux métaux, obtenus à très haute température (donc coûteux en énergie), les matériaux moléculaires et les polymères sont obtenus dans des conditions douces de température et de pression. Ils sont légers, transparents, souvent délicatement colorés, faciles à mettre en forme ; ils sont souvent biocompatibles, biodégradables, recyclables. Dans le cycle des matériaux (Fig. 1), où le souci de l'environnement grandit, ces dernières propriétés sont importantes. Les matériaux moléculaires sont cependant fragiles et peuvent vieillir rapidement (sensibles à l'air, à la lumière …). Les matériaux moléculaires dans l’histoire Un matériau répond le plus souvent à un besoin, individuel ou social. Dans l'histoire, l'apparition de nouveaux matériaux correspond à l'évolution des besoins et à la capacité de l'homme à maîtriser le processus de fabrication du matériau[5] (Fig. 2). La protection contre les éléments est à l'origine de l'utilisation des matériaux moléculaires que sont les fibres naturelles végétales (lin, chanvre, coton à base de cellulose), ou animales (laine, soie à base de polypeptides), les fibres modifiant la matière première naturelle (soie artificielle, nitrate et acétate de cellulose …) ou plus tard les fibres purement synthétiques (nylons)[6]. L'évolution du naturel au synthétique est une constante dans l'histoire des matériaux moléculaires : la nature et les systèmes biologiques sont une source permanente d'exemples, d'inspiration et d'espoir. L'époque contemporaine marque l'accélération vers l'utilisation de matériaux complexes, notamment moléculaires. Le coût des matériaux moléculaires La figure 3 indique le coût des matériaux dans diverses branches industrielles, exprimé en euros par kilogramme. Les matériaux moléculaires interviennent peu dans les industries de la construction. Mais dès que le poids devient un critère de choix (emballage, transport), quand les autres exigences deviennent complexes (équipement sportif, santé …), ils prennent une place importante. Les multiples travaux fondamentaux et appliqués pour leur production industrielle contribuent à l'élévation du coût par unité. Par exemple, les lentilles de contact sont de petits chefs-d'œuvre de transparence, de légèreté, de précision optique et mécanique … Comment créer un matériau moléculaire ? L'élaboration d'un matériau est un long processus qui va de la matière première au produit[7]. Nous n'abordons ici que deux aspects fondamentaux : a) la liaison covalente sur laquelle repose l'existence de molécules stables (dihydrogène, H2 ou fluorure d'hydrogène, HF) et b) les interactions intermoléculaires sur lesquelles repose la construction des solides moléculaires. Nous n'abordons pas les problèmes très importants de mise en forme qui permettent de passer du système moléculaire doté des propriétés requises au matériau. L'existence d'une molécule repose sur l'interaction des atomes qui la constituent. Par combinaison et recouvrement des orbitales atomiques se forment des orbitales moléculaires qui décrivent les électrons dans la molécule[8]. Dans H2, les deux orbitales atomiques forment deux orbitales moléculaires ; les deux électrons se placent dans l'orbitale moléculaire de plus basse énergie (dite liante). L'orbitale la plus haute reste vide (antiliante). La molécule est plus stable que les atomes séparés. Les électrons de la liaison forment un doublet liant. Ils sont également partagés par les deux atomes. La liaison est dite covalente. Pour la casser, il faut fournir une grande quantité d'énergie (environ 450 kiloJoules par mole – ou kJ mol-1 – ; la mole est l'unité de quantité de matière. Au contraire, la molécule HF est formée par deux atomes différents : le fluor et l'hydrogène dont l'énergie des orbitales est différente. La liaison HF est encore plus forte que celle de H2 : 550 kJ mol-1. Mais le doublet de la liaison n'est plus partagé de manière égale entre H et F, il est « attiré » par l'atome de fluor, plus électronégatif ; il apparaît un moment dipolaire électrique dirigé du fluor vers l'hydrogène ; la liaison devient partiellement ionique. Six autres électrons du fluor forment trois doublets non liants. Le dipôle électrique est à l'origine d'interactions intermoléculaires, d'autant plus fortes que le fluor est très électronégatif et que l'hydrogène, petit, peut s'approcher très près du fluor voisin. Ces liaisons hydrogène existent dans l'eau liquide ou solide (glace) où le moment dipolaire électrique O-H est également important. Ces interactions expliquent la structure de la glace et déterminent les températures de changement d'état : pour l'eau, la température d'ébullition Téb est élevée, 100° Celsius, à cause des liaisons hydrogène. Pour le dihydrogène, apolaire, les interactions sont au contraire très faibles (interactions de van der Waals) et la température d'ébullition est très basse (-253° C !). Lorsque l'on place du chlorure de sodium NaCl (sel de cuisine) dans l'eau, le cristal est dissocié et les ions positifs sodium Na+ (cations) et négatifs chlorure Cl- (anions) se « solvatent » i.e. s'entourent de molécules d'eau grâce à des interactions ion-dipôle : ceci est à la base des propriétés de solvant de l'eau et de ses extraordinaires propriétés de transport de matière en biologie et en géologie : l'eau dissout les matières polaires ou ioniques (par interaction hydrophile) et n'interagit pas avec les molécules (ou les parties de molécules) non polaires (par interaction hydrophobe). C'est de la structure et de la nature de la liaison dans les molécules et des interactions entre les molécules que naissent les propriétés, la fonction et l'intérêt du matériau[9]. Molécules et matériaux moléculaires au quotidien Nous utilisons chaque jour des matériaux moléculaires[10] : fibres textiles (vêtements), savons (lessives), cristaux liquides (affichage : montres, ordinateurs, thermomètres) pour ne prendre que trois exemples. Polyamides, polyesters[11] Les fibres textiles artificielles sont des (macro)molécules, formés par l'addition ou la condensation multiple de petites molécules identiques : il se forme de longues chaînes[12]. Les propriétés du matériau reposent sur la structure des molécules de départ, sur les interactions entre les chaînes, puis sur la mise en forme. Ainsi les polyamides sont des polymères obtenus par la création de groupements amide ou peptidique, R-CO-NH-R', tandis que les polyesters comportent des groupements esters, R-CO-O-R'. La liaison hydrogène dans les polyamides renforce les interactions entre les chaînes, donc les propriétés mécaniques des polymères, qui sont excellentes (Fig. 4). Par contre, elle permet l'interaction avec des molécules d'eau : le nylon, qui est un polyamide, retiendra l'eau davantage que les polyesters (qui pourront donc utilisés comme vernis, au contact de l'eau …). D'autres interactions entre les chaînes - par exemple des interactions de van der Waals entre les noyaux aromatiques dans le Kevlar (Fig. 4), améliorent les propriétés mécaniques : le Kevlar est utilisé dans les tissus de protection anti-balles … Le besoin en matériaux complexes conduit à la préparation de composites. Ainsi, la nappe du pique-nique de la méridienne du 14 juillet 2000 assemble astucieusement de nombreux matériaux moléculaires : fibres de cellulose naturelle, liées par pulvérisation avec une émulsion aqueuse d'éthylène-acétate de vinyle ; le support est imperméable en polyéthylène pour la face arrière, contrecollée avec une émulsion aqueuse de styrène-butadiène. L'impression est sérigraphique avec des encres dont le liant est à base de copolymère butadiène. L'épaississant est acrylique. Les encres contiennent des résines acryliques et des pigments minéraux et organiques exempts de métaux lourds[13]. Le revêtement du train à grande vitesse « Méditerranée », conçu par un grand couturier, est également un composite de matériaux moléculaires, intelligemment choisis et artistiquement disposés[14]. Savons dans les lessives[15] Les savons sont obtenus à partir de corps gras, formés à partir de glycérol et d'acides carboxyliques à longues chaînes aliphatiques -(CH2)n-CH3 (Fig. 5A). La stéarine traitée à chaud par une base donne un savon, l'anion stéarate. L'extrémité carboxylate est chargée et hydrophile, l'extrémité aliphatique est hydrophobe. Il s'agit d'une molécule amphiphile ou surfactant. La graisse n'est pas soluble dans l'eau, une tache de graisse sur un tissu ne se dissout dans l'eau pure. On place alors un savon dans l'eau (Figure 5B, Schéma 1) : l'extrémité hydrophobe interagit avec la graisse hydrophobe (2) ; l'extrémité hydrophile est solvatée par l'eau (3). Quand le nombre d'interactions devient suffisant, la graisse est entraînée en tout ou partie (4). Le nettoyage est évidemment favorisé par une température et une agitation adaptées. Les surfactants donnent une nouvelle illustration du remplacement des produits naturels (savons issus de graisses animales ou végétales) par des dérivés de synthèse : les carboxylates ne sont pas très solubles en présence d'ions sodium ou potassium des eaux de lavage « dures » et sont remplacés par des composés plus solubles comme le benzenesulfonate à chaîne branchée, obtenu à partir d'un sous-produit de l'industrie pétrolière le méthylpropène, de benzène et d'acide sulfurique. C'est l'un des « détergents anioniques » des lessives. Les savons illustrent aussi le souci de l'environnement : les chaînes branchées ne sont pas biodégradables et encombrent les eaux, d'où l'apparition sur le marché d'autres détergents « non ioniques », non branchés, tout aussi solubles grâce à des groupements fonctionnels alcool et éther (Fig. 5C). Cristaux liquides[16] Les cristaux liquides sont des matériaux moléculaires qui représentent un nouvel état de la matière, l'état mésomorphe, dont l'organisation est intermédiaire entre l'ordre tridimensionnel du cristal et le désordre relatif du liquide (Fig. 6A). Ils ne présentent pas de température de changement d'état liquide-solide mais des températures correspondant à des organisations intermoléculaires variées : nématiques, smectiques, … (Fig. 6B). Ces propriétés exceptionnelles reposent sur l'auto-organisation d'assemblées de molécules anisotropes, i.e. qui n'ont pas les mêmes propriétés dans les trois directions de l'espace (molécules allongées). La direction dans laquelle les molécules s'orientent en moyenne est appelée directrice. Les interactions entre les molécules qui conduisent à l'état mésomorphe sont faibles de type Van der Waals[17]. Lorsque l'on applique un champ électrique, les molécules s'orientent de manière à minimiser l'énergie du système. Si on place un cristal liquide entre deux plaques, l'une qui polarise la lumière, l'autre qui l'analyse, on peut disposer les polariseurs de manière à ce qu'aucune lumière ne passe (Fig. 6C). L'application d'un champ électrique oriente différemment les molécules et permet le passage de la lumière : le dispositif passe du noir à l'incolore (ou inversement), c'est le principe de l'affichage sur un écran. Des dispositifs électroniques de plus en plus élaborés (nématique « supertordu » et écrans « à matrice active » (où un transistor est associé à chaque domaine de cristal liquide) sont disponibles pour accélérer la vitesse d'affichage. Certains autres cristaux liquides (cholestériques chiraux) sont organisés de telle manière que la directrice tourne régulièrement autour d'un axe perpendiculaire à celle-ci. La directrice reprend la même orientation avec un pas p, dont dépend la réflexion de la lumière par le composé. Quand la température change, p varie (par contraction ou dilatation thermique) et le cristal liquide change de couleur : les thermomètres fondés sur ce principe sont très répandus. Élaboration de nouveaux matériaux fonctionnels L'un des problèmes importants posés aux laboratoires universitaires et industriels est la mise au point de nouveaux matériaux fonctionnels. Le concept de fonction est ici utilisé par opposition à celui de structure : le béton assure des propriétés structurales, le polymère des lentilles jetables assure de multiples fonctions : correction de la vue, transparence, perméabilité au dioxygène, hydrophilie). Les exemples ci-dessous montrent que la structure moléculaire contrôle les propriétés. Propriétés optiques La couleur des composés moléculaires est déterminée par la manière dont ils interagissent avec la lumière : ils peuvent la transmettre, la diffuser, la réfléchir de manière plus ou moins complexe en fonction de la structure moléculaire et de la microstructure du matériau[18]. Une lumière monochromatique de longueur d'onde l est constituée de photons d'énergie hn (h est la constante de Planck et n la fréquence de la lumière). La lumière visible correspond à des longueurs d'onde l comprises entre 400 et 800 nanomètres (nm). L'absorption de la lumière correspond à l'excitation d'un électron d'une orbitale moléculaire occupée vers une orbitale vacante. Seuls les photons dont l'énergie correspond exactement à la différence d'énergie entre les niveaux occupés et vacants sont absorbés. Par transmission, l'œil voit les longueurs d'onde non absorbées : si un matériau absorbe dans le rouge (600-800nm), il apparaît bleu par transmission. La structure des molécules peut être modifiée pour moduler les énergies des orbitales et donc la couleur. La garance, extraite de la racine de Rubia tinctorum, contient de l'alizarine qui peut être produite industriellement (Fig. 7). C'est la compréhension de la structure moléculaire des colorants (alizarine, indigo) qui a permis à l'industrie chimique allemande, à la fin du 19ème siècle d'asseoir sa suprématie dans ce domaine, en ruinant l'industrie d'extraction des colorants naturels[19]. Au-delà de la couleur, l'interaction de la lumière avec les matériaux a de multiples applications : l'absence d'absorption conduit à des matériaux transparents (polymères des lentilles oculaires[20] …) ; les crèmes de protection solaires ou les lunettes de soleil (verres photochromes[21]) protègent des rayons ultraviolets avec des molécules organiques conçues pour arrêter tout ou partie des rayons (écrans A, B …), comme l'ozone le fait dans la haute atmosphère. D'autres matériaux, asymétriques, traversés par une lumière de fréquence donnée, créent une lumière de fréquence double ou triple (matériaux pour l'optique non linéaire). D'autres systèmes émettent de la lumière par désexcitation d'une molécule excitée : ver luisant, diode luminescente, bâton lumineux chimiluminescent à base de luminol …). Le linge « plus blanc que blanc » existe bel et bien : il n'absorbe pas la lumière, il la diffuse et il en émet grâce à des additifs luminescents peroxygénés déposés sur les tissus par la lessive[22] ! Propriétés électriques La conductivité mesure la capacité d'un corps à conduire le courant. C''est l'une des grandeurs physiques qui varie le plus : plus de 20 ordres de grandeur entre les matériaux les plus isolants et les plus conducteurs. Les supraconducteurs ont même une conductivité qui tend vers l'infini. Les matériaux conducteurs métalliques sont généralement des métaux ou des oxydes. Les matériaux moléculaires sont pour la plupart isolants (s très faible), mais les chimistes ont réussi à transformer certains d'entre eux en conducteurs métalliques. L'idée est simple : en plaçant côte à côte un nombre infini d'atomes, on construit une bande d'énergie de largeur finie, formée d'une infinité de niveaux (ou d'orbitales) (Fig. 8, schémas 1-5). Quand la bande est vide et séparée en énergie des autres bandes (1), il y a ni électron, ni conduction. Quand la bande est pleine, chaque O.M. contient deux électrons qui ne peuvent se déplacer (isolant). Pour qu'il y ait conductivité, certains niveaux de la bande doivent être inoccupés (vacants ou partiellement vacants -3,4). Un semi-conducteur correspond au cas 5. La bande peut être construite par des orbitales atomiques du carbone dans un polymère comme le polyacétylène ou par l'empilement de molécules [tétrathiafulvalène (TTF) ou tétracyanoquinodiméthane (TCNQ)]. Le polyacétylène est isolant. Quand on l'oxyde, on enlève des électrons dans une bande qui devient partiellement occupée et le matériau devient conducteur. Il s'agit d'une discipline très active qui a valu le prix Nobel 2000 à trois chercheurs américains et japonais (A.J. Heeger, A.G. MacDiarmid, H. Shirakawa)[23]. Propriétés magnétiques[24] Ici encore les matériaux magnétiques traditionnels sont des métaux ou des oxydes (aimants domestiques, moteurs …). Les chimistes savent aujourd'hui construire des matériaux magnétiques moléculaires, à partir de complexes d'éléments de transition ou de radicaux organiques stables. À chaque électron est associé un spin S = 1/2 et un moment magnétique élémentaire. Les éléments de transition présentent 5 orbitales d où peuvent se placer 10 électrons. L'environnement chimique du métal constitué de molécules appelées ligands, permet de contrôler l'énergie des orbitales et la manière de les remplir avec des électrons : dans un complexe octaédrique ML6, par exemple, l'élément de transition est entouré de six molécules. La symétrie permet de prévoir que les cinq orbitales d dans le complexe sont séparées en deux familles : trois orbitales appelées t2g, deux orbitales appelées eg, séparées par une énergie ∆oct, variable avec les ligands. La théorie qui décrit le phénomène porte le joli nom de « champ cristallin » ou « champ des ligands ». Les électrons ont alors le choix : occuper le maximum d'orbitales (ce qui, pour les orbitales eg, coûte l'énergie ∆, ou se mettre en paire dans une même orbitale (ce qui coûte une énergie d'appariement P). Prenons l'exemple de 5 électrons (Fig. 9) : a) quand ∆ < P, le champ est faible et le spin est fort (S = somme des cinq spins parallèles = 5/2) ; b) quand ∆ > P, les électrons se regroupent par paires dans les orbitales t2g ; le champ est fort et le spin est faible (S = 1/2). Dans la situation intermédiaire où ∆ est à peu près égal à P, le complexe peut être de spin fort ou faible, en fonction des contraintes appliquées (température kT, pression, lumière). C'est le phénomène de transition de spin qui se manifeste par un changement de propriétés magnétiques et de couleur (car ∆ change lors de la transition). Quand la transition se manifeste à température ambiante et présente le phénomène dit d'hystérésis (la température de transition « spin fort-spin faible » (blanc-rouge, par exemple) est différente de celle de la transition inverse, spin faible-spin fort. Il existe un domaine de température où le système peut être spin fort (blanc, quand il vient des hautes températures), ou spin faible (rouge quand il vient des basses températures). C'est un système bistable, « à mémoire » en quelque sorte, qui « se souvient » de son histoire (thermique), utilisable pour l'affichage[25]. Au-delà de cet exemple, l'application de règles simples permet de construire des matériaux magnétiques. Quand deux électrons occupent deux orbitales sur deux atomes voisins A et B, trois situations existent : a) quand les orbitales se recouvrent, comme dans le cas de la molécule de dihydrogène, on obtient un couplage antiferromagnétique entre les spins (les spins sont d'orientation opposée, antiparallèle, le spin total ST = SA - SB = 0) ; b) quand les orbitales ne se recouvrent pas (elles sont orthogonales), les spins s'orientent parallèlement et le couplage est ferromagnétique S = SA + SB = 1) ; c) une situation amusante naît quand les orbitales se recouvrent et que le nombre d'électrons est différent sur A et B, alors ST = SA - SB ≠ 0, le spin résultant est non nul. Paradoxalement et dialectiquement, l'antiferromagnétisme engendre son contraire, un magnétisme résultant. Cette idée a valu le prix Nobel à Louis Néel. En étendant de proche en proche l'interaction dans les trois directions de l'espace, jusqu'à l'infini, à une certaine température critique, TCurie, un ordre magnétique à longue distance apparaît où tous les grands spins sont alignés dans un sens et tous les petits spins sont alignés en sens inverse. C'est ainsi qu'en utilisant la stratégie des orbitales orthogonales [ i.e. avec du chromicyanure de potassium (3 orbitales t2g) combiné avec du nickel(II) (2 orbitales eg)], Véronique Gadet, à obtenu un aimant ferromagnétique avec une température de Curie, 90 Kelvins (K), supérieure à la température de liquéfaction de l'azote liquide, 77K[26]. En utilisant la stratégie du ferrimagnétisme, Sylvie Ferlay a obtenu un aimant qui s'ordonne un peu au-dessus de la température ambiante (42°C ou 315K)[27]. Deux points méritent d'être soulignés dans ce résultat : le caractère rationnel de l'approche et la possibilité qu'il offre désormais de passer aux applications pratiques des aimants à précurseurs moléculaires. Un exemple est donné sur la figure 10. L'aimant à précurseur moléculaire est dans une ampoule dans un gaz inerte (argon) car exposé à l'air, il perd ses propriétés. Il est suspendu à un point fixe, comme un pendule. Quand il est froid, il est attiré par un aimant permanent (1). En ce point, il est chauffé par un faisceau lumineux (lampe, soleil). Quand sa température dépasse la température d'ordre, il n'est plus attiré par l'aimant et repart vers la verticale (2). Hors du faisceau, l'air ambiant le refroidit (3) et il est à nouveau attiré : d'où un mouvement oscillant où l'énergie lumineuse se transforme en énergie mécanique, en utilisant deux sources gratuites d'énergie : l'énergie solaire et l'air ambiant. Des millions de cycles ont ainsi été effectués sans fatigue du système. La recherche de nouveaux matériaux magnétiques moléculaires est très active, au niveau national et international. Certains matériaux sont capables de présenter plusieurs fonctions (magnétisme modulé par la lumière pour l'enregistrement photomagnétique)[28], aimants optiquement actifs (qui font tourner à volonté la lumière polarisée soit à droite soit à gauche)[29] … Matériaux pour l’électronique moléculaire[30] L'un des développements le plus excitant est celui des matériaux pour l’électronique moléculaire. Sous ce terme se cachent diverses interprétations : matériaux moléculaires pour l'électronique (dont les cristaux liquides ou les polymères sont des exemples) ou l'électronique à l'échelle de la molécule. Tous les exemples que nous avons cités jusqu'à présent faisaient intervenir des ensembles macroscopiques de molécules, i.e. des moles de molécules. La recherche se développe pour concevoir et réaliser des molécules se prêtant à des expériences d'électronique sur une seule entité moléculaire avec notamment des techniques de microscopie à champ proche (où la molécule joue le rôle de conducteur, de diode, de photodiode …). Par exemple le mouvement de miniaturisation de l'électronique (électronique portable, enregistrement de quantités de plus en plus grande d'information sur des surfaces de plus en plus petites, calcul quantique …) peut aboutir à la mise au point de dispositifs permettant de stocker l'information à l'échelle ultime, celle d'une seule molécule[31]… Le présent se conjugue déjà au futur. Conclusion Dans un monde qui va vers plus de complexité, le développement des matériaux moléculaires n'en est qu'à son début. Les possibilités offertes par la flexibilité de la chimie moléculaire et supramoléculaire qui ont ouvert ce cycle de leçons[32], la chimie des métaux de transition et la chimie du carbone, sont pour l'essentiel inexplorées mais immenses[33]. La compréhension fondamentale et pluridisciplinaire des propriétés de la matière, la capacité du chimiste à maîtriser la synthèse pour obtenir les propriétés souhaitées peuvent permettre de répondre de mieux en mieux aux nouveaux besoins de l'homme et de la société. À eux d'en faire bon usage. Remerciements Ce travail sur les matériaux moléculaires a été alimenté par de nombreuses discussions dans mon équipe, dans mon laboratoire et dans les nombreux établissements que j'ai fréquentés et financé par le Ministère de l'Education Nationale, le C.N.R.S., les contrats européens M3D et Molnanomag, l'ESF (Molecular Magnets). Les expériences ont été préparées par F. Villain. Les matériaux présentés ont été aimablement prêtés par de nombreux fournisseurs auxquels je suis reconnaissant. Je dédie cette contribution à la mémoire de deux scientifiques français dont j'ai beaucoup appris, Olivier Kahn décédé en décembre 1999 et Louis Néel, prix Nobel de Physique 1970, dont j'apprends la disparition.
[1] Elsa Triolet, L’âge de nylon, Œuvres romanesques croisées d'Elsa Triolet et d'Aragon, Robert Laffont, Paris, 1959. [2] Jacques Simon, Patrick Bernier, Michel Armand, Jacques Prost, Patrick Hémery, Olivier Kahn, Denis Jérôme, Les matériaux moléculaires, p. 401-404, La Science au présent, Tome II, Encyclopædia Universalis, 1992. P. Bassoul, J. Simon, Molecular materials, Wiley, New York, 2000. [3] J.P. Mercier, G. Zambelli, W. Kurz, Introduction à la science des matériaux, Presses polytechniques romandes, Lausanne, 1999. [4] R.E. Hummel, Understanding Materials Science, Springer, Berlin, 1998. [5] André Leroi-Gourhan, L'homme et la matière, Albin Michel, Paris, 1971. B. Bensaude-Vincent, I. Stengers, Histoire de la chimie, La découverte, Paris, 1993. [6] Encyclopædia Universalis, Paris, 1990, article Textiles (Fibres). Pour la Science, N° spécial, Fibres textiles et tissus biologiques, Décembre 1999. [7] Encyclopædia Universalis, Paris, 1990, article Matériaux. [8] Encyclopædia Universalis, Paris, 1990, articles Liaisons chimiques et Molécule. J.P.Malrieu, ce volume. L. Salem, Molécule, la merveilleuse, Interéditions, Paris, 1979. Y. Jean, F. Volatron, Atomistique et liaison chimique, Ediscience, Paris, 1995. T. A. Nguyen, Introduction à la chimie moléculaire, École Polytechnique, Ellipses, 1994. [9] P.W. Atkins, Molecules, Freeman, New York, 1987 et traduction française. [10] Ben Selinger, Chemistry in the Market Place, Harcourt Brace, Sidney, 1998. [11] Jean Bost, Matières plastiques (Tomes I et II), Technique et Documentation, Paris, 1985. Groupement Français des Polymères, Les polymères, Paris. [12] Encyclopædia Universalis, Paris, 1990, articles Macromolécules, Polymères et Textiles (Fibres). [13] Communication de la société Fort Williams (Lotus), Gien. [14] Communication du service commercial de la SNCF, Paris. [15] Encyclopædia Universalis, Paris, 1990, article Corps gras. Ben Selinger, Chemistry in the Market Place, Harcourt Brace, Sidney, 1998. [16] Encyclopædia Universalis, Paris, 1990, article Cristaux liquides et Mésomorphe (État). [17] Encyclopædia Universalis, Paris, 1990, article Van der Waals. [18] Encyclopædia Universalis, Paris, 1990, article Couleur. [19] Pour la Science, Dossier « La couleur », Avril 2000, notamment G. Bram, N. T. Anh, L'avènement des colorants synthétiques p. 52. [20] Communications de la société Ciba, Paris. [21] Communications de la Société Essilor, Paris. [22] Ben Selinger, Chemistry in the Market Place, Harcourt Brace, Sidney, 1998. [23] L'actualité Chimique, Société Française de Chimie, Novembre 2000, p. 64. [24] O. Kahn, Molecular Magnetism, VCH, New York, 1993. M. Verdaguer et al., Images de la Physique, CNRS, Paris, 2000. [25] O. Kahn, Magnétisme moléculaire, La Recherche, Paris, 1994. [26] V. Gadet et al., J. Am. Chem. Soc. 1992, 114, 9213-9214. [27] S. Ferlay et al. Nature, 378, 701, 1995. [28] M. Verdaguer, Science, 272, 698, 1996. A. Bleuzen, J. Am. Chem. Soc., 2000, 122, 6648. C. Cartier ibid. 6653. d) H. Hashimoto et al. ibid 704. [29] M. Gruselle, C. Train travail en cours. [30] M.C. Petty, M.R. Bryce, D. Bloor, Molecular Electronics, Edward Arnold, Londres, 1995. J. Jortner, M. Ratner, Molecular Electronics, I.U.P.A.C., Blackwell Science, 1997. [31] D. Gatteschi, R. Sessoli et al. Nature 1993, 365, 141. V. Marvaud, travail en cours. [32] J.M. Lehn, Chimie supramoléculaire, VCH, New York, 1997. T.A. Nguyen, J.M. Lehn, ce volume. [33] Dossier : 1999, Année internationale de la chimie, Pour la Science, Décembre 1999, p. 69-84 : J.M. Lehn, J.P. Launay, T. Ebbesen, G. Ourisson … La Science au présent, Encyclopædia Universalis, 1998 ; a) M.W. Hosseini, b) J.P. Sauvage, ; c) P. Bernier.

 

 VIDEO     canal U       LIEN

 
 
 
 

LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE

 

 

 

 

 

 

 

LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE


La qualité de l'air par Gérard Mégie La présence de la vie sur Terre est indissociable de la composition chimique de l'air que nous respirons. C'est à ce titre que nous pouvons parler de " qualité de l'air " puisque tous les constituants de l'atmosphère - azote, oxygène, vapeur d'eau, gaz carbonique, ozone... - jouent, à des titres divers, un rôle déterminant dans l'équilibre précaire qui conditionne le maintien des différentes formes de vie sur Terre. Si les dangers des émanations liées à l'usage du charbon étaient mentionnés dès le XVIIe siècle et l'apparition de pluies acides mise en évidence au XIXe siècle, le développement des activités industrielles et agricoles, la multiplication des moyens de transport, l'explosion démographique, ont entraîné, au cours du dernier siècle , une modification de la composition chimique de l'atmosphère sans commune mesure avec celle induite par les phénomènes naturels. La pollution de l'air concerne aujourd'hui aussi bien l'air ambiant, de l'échelle locale à l'échelle planétaire, que celui des locaux de travail et des habitations domestiques. Les mécanismes physiques et chimiques qui conduisent à la production de composés nocifs pour la santé humaine, l'équilibre des écosystèmes et l'environnement global de la Terre, sont pour l'essentiel élucidés. Les principales sources des précurseurs de la pollution photo-oxydante et acide sont également connus : transports, foyers de combustion, procédés industriels fixes. Les études épidémiologiques montrent également que si la pollution de l'air a été sensiblement réduite par rapport aux situations qui prévalaient il y a quelques décennies, principalement par la réduction des émissions des sources fixes, elle continue aujourd'hui à exercer des effets néfastes sur la santé, particulièrement sur les populations à risques, dont les conséquences à long terme sont encore mal comprises. La prise en compte des problèmes de qualité de l'air nécessite donc une action cohérente en termes de politique publique, qui prenne en compte à la fois des efforts ciblés sur les lieux et niveaux d'exposition affectant le plus de personnes pendant le plus de temps, et une réduction générale, tout au long de l'année, des niveaux moyens de pollution. Pour autant qu'elle soit respectée, la loi sur l'air et l'utilisation rationnelle de l'énergie de 1996, offre le cadre nécessaire à une mise en oeuvre efficace de telles politiques.

Texte de la 288e conférence de l'Université de tous les savoirs donnée le 14 octobre 2000.

Ozone et qualité de l'air
par Gérard Mégie

La composition chimique de l'atmosphère terrestre résulte d'échanges permanents de matière avec les autres compartiments de la planète Terre : biosphère, océans, surfaces continentales. Ces échanges sont initiés par des sources naturelles à la surface de la Terre. Ils mettent ensuite en jeu des interactions chimiques complexes, qui conduisent à la formation de constituants qui seront à leur tour éliminés par déposition à la surface, principalement du fait des précipitations. De ce fait, un constituant donné ne restera qu'un temps fini dans l'atmosphère et l'équilibre de l'environnement terrestre est donc dynamique et non statique. Ainsi, depuis la formation de la Terre voici quatre milliards et demi d'années, la composition chimique de l'atmosphère a continûment changé à l'échelle des temps géologiques passant d'une atmosphère originelle essentiellement réductrice au mélange azote moléculaire (78 %) - oxygène moléculaire (21 %) qui caractérise l'atmosphère actuelle. L'apparition de la vie sur la Terre est d'ailleurs directement liée à ce caractère oxydant de l'atmosphère terrestre, qui constitue un fait unique dans l'ensemble des planètes du système solaire.
Les sources des constituants atmosphériques résultent de processus physiques, comme l'évaporation ou le dégazage des roches, et biologiques comme la dénitrification ou la fermentation anaérobique, en l'absence d'oxygène. Elles correspondent à la production à la surface de la Terre de constituants gazeux comme la vapeur d'eau, l'hydrogène moléculaire, le méthane, l'hémioxyde d'azote, et certains composés organo-halogénés. La concentration relative en vapeur d'eau dans la basse atmosphère est directement fonction des propriétés thermodynamiques de l'air. Elle décroît rapidement dans la troposphère, passant de quelques fractions de % au niveau du sol à 4 à 5 millionièmes (ppm) dans la basse stratosphère. Les autres constituants, dont les abondances relatives sont également de l'ordre de quelques ppm, diffusent verticalement dans l'atmosphère. Cette diffusion est relativement rapide entre le sol et 12 km d'altitude en moyenne, dans la région inférieure appelée troposphère, qui se caractérise par l'influence des mécanismes de convection liés au chauffage de la surface par le rayonnement solaire. Elle est plus lente dans la région supérieure, la stratosphère, qui s'étend jusqu'à 50 km, et les temps nécessaires pour que les constituants atteignent une altitude moyenne de 30 km sont de l'ordre de 3 à 5 ans.
Ces constituants sources sont principalement détruits par l'action du rayonnement solaire, soit directement par photodissociation, soit de façon indirecte par des mécanismes d'oxydation, eux-mêmes induits par le rayonnement. Des constituants chimiquement actifs sont ainsi créés, dans des rapports d'abondance de l'ordre de quelques milliardièmes (ppb) ou moins, dont les interactions chimiques régissent les équilibres atmosphériques. Ceux-ci sont ensuite éliminés par des processus de recombinaison, qui conduisent en règle générale à la formation d'espèces acides solubles dans l'eau.
Jusqu'au début du XXe siècle, l'évolution de la composition chimique de l'atmosphère, que les archives glaciaires et sédimentaires permettent de relier aux grandes oscillations climatiques, trouvent leur origine dans des phénomènes naturels. L'explosion démographique, le développement des activités industrielles et agricoles, la multiplication des moyens de transport ont entraîné au cours des cinquante dernières années un changement profond de notre environnement, traduit notamment par une modification de la composition chimique de l'atmosphère.

La couche d'ozone stratosphérique

L'ozone est certainement le constituant atmosphérique qui permet le mieux de rendre compte de ces équilibres physico-chimiques de l'atmosphère terrestre et de leur évolution sous l'influence des activités humaines. Molécule constituée de trois atomes d'oxygène (O3), il joue en effet dans les équilibres de l'environnement un rôle essentiel. 90 % de l'ozone atmosphérique est contenu dans le domaine des altitudes comprises entre 20 et 50 km et son abondance relative maximale est de l'ordre de 6 à 8 ppm à 30 km d'altitude. Mais, bien que constituant minoritaire de l'atmosphère, l'ozone est l'unique absorbant, entre le sol et 80 km d'altitude, du rayonnement solaire ultraviolet de longueurs d'onde comprises entre 240 et 300 nanomètres (nm). Cette absorption permet le maintien de la vie animale et végétale à la surface de la Terre, en éliminant les courtes longueurs d'onde susceptibles de détruire les cellules de la matière vivante et d'inhiber la photosynthèse.
Comme pour les autres constituants, l'équilibre de l'ozone dans l'atmosphère terrestre résulte d'un grand nombre d'interactions chimiques mettant en jeu, outre le rayonnement solaire, des constituants minoritaires de l'atmosphère représentant, pour certains, moins d'un milliardième en volume de la concentration totale. En 1974, F.S. Rowland et M.J. Molina attirent l'attention de la communauté scientifique sur des gaz supposés inertes, les chlorofluorocarbures (CFC), produits par les industries chimiques et utilisés principalement pour la réfrigération, les mousses synthétiques, les solvants organiques et comme gaz porteur dans les bombes aérosols. Photodissociés par le rayonnement solaire plus intense qui irradie la stratosphère, ces constituants libèrent du chlore chimiquement actif, susceptible de détruire l'ozone. La découverte en 1985 d'un phénomène de grande ampleur au dessus du continent antarctique, correspondant à une diminution de plus de 50 % de l'épaisseur de la couche d'ozone au moment du printemps austral, largement médiatisé sous le nom de « trou d'ozone » polaire, relance les recherches sur les conséquences potentielles des activités humaines sur la couche d'ozone stratosphérique. De nombreuses campagnes internationales organisées dans l'Antarctique puis dans l'Arctique démontrent que l'explication la plus vraisemblable des diminutions d'ozone observées au printemps austral est d'origine chimique et correspond à un déplacement de l'équilibre des constituants chlorés stratosphériques en faveur des formes chimiques susceptibles de détruire l'ozone. Sur la base des rapports rédigés par la communauté scientifique, les négociations conduites au niveau international conduisent à la suppression totale des CFC à partir de 1995, et à leur remplacement par des produits de substitution à durée de vie plus courte dans l'atmosphère, les hydro-chloro-fluorocarbures (HCFC) et les hydro-fluorocarbures (HFC).
Malgré ces mesures, la charge en chlore de la stratosphère continuera au cours du siècle prochain à être dominé par les émissions des CFC émis dans les années 1960-1990, du fait notamment de la très longue durée de vie de ces constituants, supérieure au siècle pour certains d'entre eux. Le retour au niveau de concentration qui existait antérieurement à l'apparition des phénomènes de destruction de l'ozone dans les régions polaires ne sera pas effectif avant les années 2040-2050. En revanche, la contribution à la charge totale en chlore de la stratosphère des produits de substitution, HCFC et HFC, restera limitée, compte tenu des mesures de réglementation déjà prises. En trois décennies, le problème de l'ozone stratosphérique est ainsi passé de la simple hypothèse scientifique à la mise en évidence d'une atteinte de grande ampleur à l'environnement global. Si les conséquences sur l'équilibre de la vie de cette évolution restent encore aujourd'hui non quantifiables, les conséquences économiques sont particulièrement importantes puisqu'elles ont conduit à la suppression totale des émissions des composés organo-chlorés jugés responsables de cette perturbation des équilibres globaux de l'atmosphère. Celle-ci a été suffisamment importante pour modifier profondément les équilibres stratosphériques, faisant apparaître du fait de la croissance rapide des concentrations du chlore dans la stratosphère, des processus chimiques entièrement nouveaux, qui ne pouvaient que difficilement être imaginés dans les conditions « naturelles » qui prévalaient au début des années 1950, avant la mise massive sur la marché des CFC.
On pourrait penser que du fait des mesure réglementaires prises dans le cadre du Protocole de Montréal, qui vise à l'élimination de la cause, en l'occurrence les émissions des composés organo-halogénés, les efforts de recherche sur la couche d'ozone devraient être ralentis dans l'attente d'un retour à l'équilibre de la stratosphère terrestre. Malgré les incertitudes qui limitent fortement notre capacité à prédire l'évolution future de la couche d'ozone stratosphérique, plusieurs faits scientifiques plaident contre une telle attitude attentiste. D'une part, l'effet maximum des composés chlorés sur la couche d'ozone ne sera atteint qu'après l'an 2000. La couche d'ozone sera donc dans un état très vulnérable au cours de la prochaine décennie, et les non linéarités du système atmosphérique déjà mises en évidence par l'apparition du « trou d'ozone », ne nous mettent pas à l'abri des surprises, bonnes ou mauvaises. D'autre part, il n'est pas possible d'affirmer de façon scientifiquement fondée que la diminution des concentrations en chlore dans la stratosphère, entraînera de facto un retour à l'équilibre qui prévalait au début des années 1970. La stratosphère, et plus généralement l'atmosphère terrestre, ont en effet évolué au cours de deux dernières décennies sous l'effet des perturbations anthropiques, et les contraintes globales d'environnement sont donc totalement différentes de celles des années « pré-industrielles ». On sait notamment que si l'augmentation du gaz carbonique induit un réchauffement de la surface terrestre, elle refroidit la stratosphère et de ce fait favorise la destruction d'ozone dans les régions polaires. C'est donc au cours de la prochaine décennie que l'on pourra effectivement mesurer l'impact réel des mesures réglementaires sur l'évolution de la couche d'ozone stratosphérique.

Ozone troposphérique

Dans la troposphère, le contenu en ozone reste limité à 10 % du contenu atmosphérique total et les concentrations relatives sont de l'ordre de quelques dizaines de milliardièmes (ppb). L'origine de l'ozone troposphérique est double. D'une part, les transferts de masse d'air entre la stratosphère, réservoir principal, et la troposphère. D'autre part, la photo-oxydation de constituants précurseurs - hydrocarbures, oxydes d'azote, monoxyde de carbone, méthane - dont les émissions sont aujourd'hui largement dominées par les sources anthropiques (industrie, transport, pratiques agricoles). L'existence de cette formation photochimique d'ozone a été depuis longtemps mise en évidence dans les atmosphères urbaines et péri-urbaines des grandes cités fortement polluées (Los Angeles, Milan, Athènes, Mexico, New York..). L'ozone ainsi formé à l'échelle locale constitue une source qui, alliée à la production directe d'ozone dans l'atmosphère libre hors des régions de forte pollution, contribue à l'augmentation des concentrations observées aux échelles régionales et globales. Ainsi, la comparaison avec les valeurs actuelles des concentrations d'ozone mesurées au début du XXe siècle dans plusieurs stations de l'hémisphère Nord (Observatoire Météorologique du Parc Montsouris à Paris, Observatoire du Pic du Midi, Observatoire de Montecalieri en Italie) et de l'hémisphère Sud (Montevideo en Uruguay, Cordoba en Argentine) montrent que le niveau d'ozone dans l'atmosphère « non polluée » a été multiplié par 4 dans l'hémisphère Nord et par près de 2 dans l'hémisphère Sud. L'influence des sources anthropiques est confirmée par les observations de la variation en latitude des concentrations d'ozone qui montrent des valeurs deux fois plus élevées dans l'hémisphère Nord (40-60 ppb) que dans l'hémisphère Sud (20-25 ppb), reflétant ainsi la dissymétrie dans la distribution des sources, plus de 80 % des précurseurs polluants étant émis dans l'hémisphère Nord et dans les régions tropicales, notamment par la combustion de la biomasse.
Les enjeux pour l'environnement de l'augmentation de l'ozone troposphérique et des constituants photo-oxydants qui lui sont liés sont particulièrement importants. Oxydant puissant, l'ozone constitue un danger pour la santé des populations lorsque les teneurs relatives dépassent des seuils de l'ordre de la centaine de ppb. Cet effet oxydant est également néfaste pour la croissance des végétaux, et constitue une cause additionnelle du dépérissement des forêts et de la dégradation des matériaux. Par ailleurs, du fait de ses propriétés d'absorption du rayonnement ultra-violet solaire, l'ozone peut être photodissocié dans la basse atmosphère et toute modification de sa concentration influe directement, à courte échelle de temps, sur les propriétés oxydantes de la troposphère. Enfin, l'ozone est un gaz à effet de serre 1200 fois plus actif à masse égale dans l'atmosphère que le gaz carbonique. L'augmentation de sa concentration dans la troposphère conduit donc à un renforcement de l'effet de serre additionnel. Le problème de l'ozone troposphérique est ainsi étroitement lié au problème climatique. Il constitue en fait l'essentiel du couplage entre le climat et la chimie de l'atmosphère.
Dans la troposphère, les concentrations d'ozone, polluant secondaire produit par réaction chimique dans l'atmosphère, sont étroitement liées à celles des ses précurseurs oxydes d'azote, méthane, monoxyde de carbone, hydrocarbures. Elles sont donc particulièrement sensibles à la part prise par les sources anthropiques dans les émissions de ces constituants, part qui atteint 65 % pour le méthane et le monoxyde de carbone et près de 75 % pour les oxydes d'azote. En revanche à l'échelle planétaire, les émissions d'hydrocarbures non méthaniques par la végétation dominent, ramenant la part anthropique à seulement 20 à 25 % des émissions totales.
Aux échelles locales et régionales, la distribution de l'ozone et de ses précurseurs résulte alors de la combinaison entre les processus chimiques de formation ou de destruction, et les processus de mélange qui conduisent au transport et à la dispersion des constituants atmosphériques. Localement, notamment l'été, apparaissent dans les grandes agglomérations des pics de pollution dus à l'ozone. Les causes premières en sont connues, qui impliquent conditions météorologiques propices et émissions de constituants chimiques. Par temps calme, avec un rayonnement solaire maximal, l'accumulation des polluants primaires - oxydes d'azote, monoxyde de carbone et hydrocarbures - conduit à la production d'ozone dans les basses couches. Les activités humaines liées aux combustions, associées aux modes de transport et de chauffage, font ainsi des zones urbaines et périurbaines un champ privilégié de la pollution par l'ozone. Depuis de nombreuses années, les métropoles mondiales sont concernées et les grandes villes françaises ne sont plus épargnées. Ainsi, Paris et la région marseillaise enregistrent pratiquement tous les étés des pics de pollution pouvant atteindre des niveaux d'alerte à partir desquels des mesures restrictives doivent être mises en place par les pouvoirs publics. Lors de tels épisodes, les effets de la pollution oxydante sur la santé sont apparents, en particulier les affections du système respiratoire chez les personnes à risque.
Ces pollutions fortes et localisées agissent également comme révélateur d'une tendance continue de l'augmentation du pouvoir oxydant de l'atmosphère des basses couches observée à l'échelle globale. L'augmentation, déjà citée, d'un facteur 4 des concentrations d'ozone troposphérique dans l'hémisphère Nord depuis le début du siècle ne doit cependant pas être traduite sans précaution en termes de tendance annuelle, comme il est d'usage de le faire pour les constituants à durée de vie plus longues tels que le dioxyde de carbone ou les chlorofluorocarbures. En effet, les temps caractéristiques des processus photochimiques qui régissent l'équilibre de l'ozone dans la troposphère sont de quelques mois au maximum, et les concentrations observées reflètent donc les variations à la fois spatiales et temporelles des constituants précurseurs. Il est ainsi probable que les mesures de réduction des émissions d'oxydes d'azote et d'hydrocarbures prises dans les années 1970, aient conduit à une diminution du rythme annuel d'accroissement des concentrations d'ozone à la surface au cours de la dernière décennie. En revanche, si les augmentations maximales d'ozone ont été observées au cours des dernières décennies en Amérique du Nord et en Europe, il est vraisemblable que les régions de l'Asie du Sud-Est seront les plus sensibles au cours de la première moitié du XXIe siècle en termes d'augmentation des concentrations d'ozone troposphérique.
La compréhension et la quantification des mécanismes de couplage de la pollution oxydante aux différentes échelles de temps et d'espace concernées est aujourd'hui un sujet de recherche ouvert. De ce fait, la mise en place de politiques de prévention et de réglementation efficaces reste difficile, tant les paramètres à prendre en compte sont nombreux et les mécanismes qui régissent la capacité d'oxydation de l'atmosphère complexes. Des régimes très différents sont observés suivant les concentrations des espèces primaires impliquées, oxyde d'azote et hydrocarbures en particulier, et les effets peuvent être non-linéaires. Par exemple, à proximité de sources d'émissions intenses d'oxyde d'azote, l'ozone peut, dans un premier temps, être détruit, avant que le transport et la dilution des masses d'air ne provoquent une augmentation rapide de sa concentration dans l'atmosphère. C'est ainsi qu'en région parisienne, l'on observe parfois des concentrations en ozone bien plus élevées dans la grande banlieue qu'au centre-ville, et qu'une diminution du trafic automobile peut s'accompagner d'une augmentation rapide des concentrations d'ozone dans Paris intra muros et d'une baisse de ces mêmes concentrations, le lendemain, en banlieue.

Conclusion

Notre compréhension actuelle des mécanismes qui régissent le comportement de l'ozone atmosphérique montre, qu'au-delà des problèmes spécifiques posés par la destruction de couche d'ozone stratosphérique et l'augmentation des propriétés oxydantes de la troposphère, cette problématique rejoint celle du changement climatique dû aux émissions de gaz à effet de serre. En effet, la diminution de l'ozone stratosphérique influe directement sur le bilan d'énergie de la basse atmosphère et l'ozone troposphérique est un gaz à effet de serre. De même, les CFC, agents destructeurs de la couche d'ozone stratosphérique, mais aussi les constituants amenés à les remplacer dans leurs principales utilisations, sont des gaz à effet de serre particulièrement actifs, comme le sont certains précurseurs de l'ozone troposphérique, notamment le méthane. Les oxydes d'azote qui influent directement sur les concentrations d'ozone et des oxydants dans l'atmosphère ont également un effet indirect important sur l'effet de serre additionnel. Tous ces faits scientifiquement établis plaident pour une étude approfondie de l'influence de l'ozone atmosphérique sur le changement climatique.
Cette complexité des problèmes d'environnement implique une prise en compte rapide dans la décision politique et économique de l'avancée des connaissances scientifiques dans un domaine où l'incertitude domine, et dominera encore au cours des prochaines décennies, les rapports science - expertise - décision publique. De ce fait, la multiplication des lieux d'échanges entre les différents acteurs, décideurs, scientifiques mais aussi acteurs privés ou associatifs, reste indispensable à l'émergence des questions stratégiques pertinentes et de leur résolution.

Bibliographie

Ozone et propriétés oxydantes de la troposphère, Académie des Sciences, Rapport n° 30, Octobre 1993, Éditions Lavoisier, Technique et Documentation
Ozone Stratosphérique, Académie des Sciences, Rapport n° 41, Juin 1998, Éditions Lavoisier, Technique et Documentation

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

 

 

 

 

 

 

 

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)


"La théorie quantique, centrale à notre compréhension de la nature, introduit en physique microscopique les notions essentielles de superpositions d'états et d'intrication quantique, qui nous apparaissent comme "" étranges "" et contre-intuitives. Les interférences quantiques et la non-localité - conséquences directes du principe de superposition et de l'intrication - ne sont en effet pas observables sur les objets macroscopiques de notre expérience quotidienne. Le couplage inévitable de ces objets avec leur environnement détruit très vite les relations de phase entre les états quantiques. C'est le phénomène de la décohérence qui explique pourquoi autour de nous l'étrangeté quantique est généralement voilée. Pendant longtemps, superpositions, intrication et décohérence sont restés des concepts analysés à l'aide d'" expériences de pensée " virtuelles, dont celle du chat de Schrödinger à la fois mort et vivant est la plus connue. À la fin du XXe siècle, les progrès de la technologie ont rendu réalisables des versions de laboratoire simples de ces expériences. On peut maintenant piéger et manipuler des atomes et des photons un par un et construire des systèmes de particules suspendus entre deux états quantiques distincts qui apparaissent ainsi comme des modèles réduits de chats de Schrödinger. Au delà de la curiosité scientifique et du défi que constitue l'observation de l'étrangeté quantique pour ainsi dire in vivo, ces expériences éclairent la frontière entre les mondes classique et quantique et ouvrent des perspectives fascinantes d'applications. "

Texte de la 213ème conférence de l’Université de tous les savoirs donnée le 31 juillet 2000.
Une exploration au cœur du monde quantique par Serge Haroche
Cent ans de physique quantique
L’an 2000 marque le centenaire de la physique quantique. C’est en 1900 que Planck, pour comprendre les propriétés du rayonnement des corps chauffés, émit la fameuse hypothèse que les échanges d’énergie entre la matière et la lumière devaient se faire par quanta discrets, et non de façon continue. Einstein reprit cette notion de quanta cinq ans plus tard en montrant que la lumière elle-même était constituée de grains discrets, appelés par la suite photons, et en interprétant à l’aide de cette idée révolutionnaire l’effet photoélectrique, l’émission d’électrons par les métaux éclairés. Dans les vingt ans suivants, la théorie quantique, cherchant à comprendre le comportement de la nature à l’échelle atomique, se développa à partir d’hypothèses hardies et d’intuitions géniales, notamment grâce aux travaux de Niels Bohr. En 1925 et 1926, Heisenberg, Schrödinger et Dirac arrivèrent indépendamment à la formulation complète de la théorie, qui constitue sans nul doute une des plus grandes conceptions de l’esprit humain.
La théorie quantique sert en effet de cadre essentiel à notre compréhension de la Nature, de l’infiniment petit à l’infiniment grand. La physique des particules dites élémentaires, celle des atomes et des molécules, toute la chimie sont basées sur les lois quantiques. Les ensembles d’atomes que constituent les solides obéissent également à ces lois, qui seules peuvent expliquer, par exemple, la conductivité électrique, le magnétisme ou la supraconductivité de certains métaux aux basses températures. Même la vie, dans la mesure où elle dépend de processus physico-chimiques au niveau de la molécule d’ADN, ne pourrait être comprise en dehors des lois quantiques. Enfin, la cosmologie, la science qui s’attache à l’étude de l’évolution de l’univers, donne une grande importance aux phénomènes quantiques qui se sont produits au moment du big-bang initial.
Et pourtant, malgré ses succès éclatants, la physique quantique est souvent perçue comme étrange. Elle introduit en effet dans la description du monde des notions bizarres qui défient notre intuition classique. Il s’agit du principe de superposition des états qui implique qu’un système physique peut être comme suspendu entre différentes réalités, ou encore du concept d’intrication quantique qui introduit une notion troublante de non-localité en physique. Le caractère étrange de ces concepts provient en grande part de ce que nous n’en observons jamais les effets sur les objets macroscopiques qui nous entourent et que donc notre esprit n’est pas préparé à les comprendre. Cette étrangeté troublait les fondateurs de la théorie, et son interprétation a fait l’objet entre eux de discussions très animées. Ces débats se sont en particulier déroulés au cours des fameux Congrès Solvay, à l’époque de l’élaboration de la théorie. Les participants à ces congrès prirent l’habitude d’imaginer des expériences virtuelles dans lesquelles ils isolaient et manipulaient en pensée des particules obéissant aux lois quantiques pour essayer de mettre en évidence des contradictions internes de la théorie. Tous ces débats se conclurent par la victoire de la théorie quantique, à laquelle ni Einstein ni Schrödinger qui jouaient volontiers le rôle d’avocats du diable ne purent trouver de faille. L’intérêt de la majorité des physiciens se détourna alors de ces discussions sur des expériences infaisables, et se consacra à l’exploitation de la théorie pour comprendre la nature, avec le succès évoqué plus haut.
Depuis quelques années cependant, les progrès de la technologie ont permis de réaliser des versions simples des expériences de pensée des fondateurs de la théorie. On peut maintenant piéger des photons, des atomes ou des molécules un à un, les manipuler pour ainsi
dire in vivo à l’aide de faisceaux lasers et ainsi construire des objets étranges, relativement complexes, obéissant à la logique quantique. On peut alors aborder à nouveau, mais de façon concrète, l’étude des fondements de la théorie. On peut également commencer à envisager des applications fascinantes. C’est à ces expériences de pensée devenues réelles qu’est consacré cet exposé, brève exploration au cœur du monde quantique.
Superpositions, interférences quantiques et complémentarité
Commençons par une introduction au principe de superposition. La théorie quantique nous dit que, d’une certaine manière, toute particule microscopique possède un don d’ubiquité. Alors que classiquement elle doit à tout instant être en un point bien précis, quantiquement, elle peut se trouver comme « suspendue » dans une superposition des états correspondant à toutes les positions classiques possibles. À chacune de ces positions est associé un nombre appelé fonction d’onde de la particule au point considéré. Cette fonction a été introduite par de Broglie et c’est Schrödinger qui a établi l’équation qui décrit son évolution, jetant ainsi les bases des lois de la dynamique quantique. La fonction d’onde est en général un nombre complexe. Alors qu’un nombre réel peut être symbolisé par un segment sur une droite, un complexe est représenté par un vecteur dans un plan et possède donc une amplitude (la longueur du vecteur) et une phase (sa direction). C’est le physicien Max Born qui donna l’interprétation physique de la fonction d’onde. Le carré de son amplitude représente la probabilité de trouver la particule au point correspondant lorsqu’une mesure est effectuée. Ainsi, d’après la théorie, l’ambiguïté quantique, la superposition, ne subsiste que tant que l’on ne cherche pas à savoir où est la particule. Si on cherche à déterminer sa position, on force la nature à abandonner son étrangeté quantique, la particule apparaît bien en un point et en un seul, mais cette apparition ne peut être que prévue statistiquement et non déterminée de façon absolue comme en physique classique. C’est ce qui fit dire à Einstein que selon la physique quantique « Dieu joue aux dés », ce qu’il se refusait personnellement à admettre.
La physique atomique permet d’illustrer un aspect élémentaire du principe de superposition. Les chimistes représentent l’état d’un électron dans un atome – par exemple le plus simple d’entre eux, l’hydrogène – par un volume de l’espace qu’on appelle son orbitale (Figure 1a). Ce volume est, pour l’état fondamental de l’hydrogène, une petite sphère centrée sur le noyau de l’atome d’environ un Angström (soit 10-10 m) de diamètre. Il décrit la région de l’espace dans laquelle l’électron est délocalisé. Il se trouve en fait dans une superposition de toutes les positions possibles à l’intérieur de cette sphère. Lorsque l’on porte l’électron de l’atome dans un niveau électronique excité en lui fournissant de l’énergie lumineuse, la forme de l’orbitale change, elle s’étire en général pour occuper des régions plus éloignées du noyau comme le montre la figure 1b. Les états très excités de l’atome s’appellent des états de Rydberg. Dans certains de ces états, l’électron occupe une orbitale très étendue, en forme de tore, dont le rayon peut atteindre un millier d’Angströms (figure1c). Ces états excités géants ont des propriétés très intéressantes que nous retrouverons plus loin.
Abordons maintenant une conséquence essentielle du principe de superposition, l’existence d’interférences quantiques. Considérons la fameuse expérience des fentes de Young réalisée au début du XIXe siècle avec de la lumière, c’est-à-dire des photons, et au XXe siècle avec des électrons, et plus récemment avec des atomes et des molécules : des particules traversent une paroi percée de deux fentes avant d’atteindre un écran. Les particules sont détectées en des points discrets sur l’écran, comme le montre la figure 2a. Après avoir enregistré l’arrivée d’un grand nombre de particules, on constate que les points d’impact se regroupent suivant un réseau de franges « brillantes », séparées par des franges « noires » où les particules n’arrivent jamais. L’expérience se comprend bien en termes de fonction d’onde
des particules. Cette fonction possède en effet deux composantes, correspondant au passage de la particule par chacune des deux fentes. La fonction d’onde totale est la somme des deux composantes, au sens de l’addition des nombres complexes, ou encore des vecteurs qui les représentent. En certains points de l’écran, les ondes sont en phase, leurs vecteurs de même direction, et la probabilité de trouver la particule est importante. En d’autres points, les ondes sont en opposition de phase, leurs vecteurs opposés, et la particule a une probabilité nulle d’arriver. La figure d’interférence s’évanouit si on ferme une des deux fentes, puisque alors une des composantes de la fonction d’onde disparaît.
Cette interprétation ondulatoire est étrange si l’on note que l’expérience peut être faite dans des conditions de flux très faible, où il ne se trouve à chaque instant qu’une particule dans l’appareil. On obtient alors les mêmes franges, après un temps de moyen-âge très long. On peut alors se demander comment une particule, seule dans l’interféromètre, peut « savoir » si les deux trous sont ouverts, auquel cas elle doit éviter les franges noires, ou si un trou est bouché, auquel cas elle peut arriver n’importe où ! On a là un exemple typique de logique non-classique : un phénomène (arrivée de la particule en un point) est moins probable lorsque deux possibilités sont offertes à la particule que si une seule ne l’est ! Un physicien classique posera immédiatement des questions simples : par quel trou passe réellement la particule ? Est ce une onde (auquel cas on comprend les interférences mais pas l’arrivée discrète sur l’écran) ou une particule (auquel cas on comprend les impacts discrets mais plus les interférences). La mécanique quantique répond qu’en vertu du principe de superposition, la particule passe par les deux trous à la fois, aussi longtemps qu’on ne la force pas à choisir ! Notons enfin que de telles expériences, relativement faciles à réaliser avec des particules microscopiques, deviennent de plus en plus difficiles avec des particules de taille importante. C’est encore possible avec des molécules, mais pas avec des boules de billard ou un quelconque objet macroscopique !
Les interférences quantiques jouent un rôle capital en physique microscopique et l’on peut s’en servir pour des applications importantes. Considérons par exemple un atome possédant deux niveaux d’énergie, un niveau fondamental g d’énergie Eg, et un niveau excité e, d’énergie Ee. On sait qu’en absorbant de la lumière dont la fréquence ν satisfait la relation Ee – Eg = hν (où h est la constante de Planck) l’atome peut être porté du niveau g au niveau e en absorbant un photon. Si on excite l’atome par une impulsion lumineuse et si on ajuste la durée de cette impulsion, on peut s’arranger pour que l’atome se trouve excité « à mi-
chemin » entre e et g, dans une superposition de ces deux états. Appliquons maintenant à l’atome initialement dans l’état g deux impulsions identiques, séparées dans le temps, à deux instants t1 et t2. Chacune des impulsions superpose les deux états e et g. Mesurons enfin l’énergie de l’atome et, en recommençant l’expérience un grand nombre de fois, déterminons la probabilité de le trouver finalement dans l’état e. La fonction d’onde associée à l’atome va, comme dans le cas de l’expérience de Young, présenter deux termes. L’un correspond à l’excitation de l’atome de g à e à l’instant t1, l’autre à l’instant t2. À ces termes correspondent des amplitudes complexes qui interfèrent. Leur phase relative peut être variée en balayant la fréquence ν autour de la fréquence de résonance atomique. On observe alors que la probabilité de trouver l’atome dans l’état e oscille en fonction de ν. On obtient un signal d’interférence dit « de Ramsey », du nom du physicien qui a mis au point cette méthode interférométrique. Alors que dans l’expérience de Young l’interférence provient du fait que l’on ne sait pas par quelle fente la particule est passée, ici elle résulte de l’ambiguïté sur l’instant de l’excitation de l’atome. C’est en détectant de telles franges sur l’atome de Césium que l’on fait fonctionner l’horloge atomique qui définit actuellement la seconde.
Revenons un instant sur la question de savoir par quel chemin la particule est passée. L’interférence ne s’observe que si on n’a aucun moyen de connaître ce chemin. Si on cherche à le déterminer, il faut introduire un nouvel élément dans l’appareillage expérimental, par
exemple ajouter dans l’expérience des fentes d’Young une source lumineuse, un laser, qui éclaire les fentes (figure 2b). Lorsque la particule passe, elle diffuse de la lumière au voisinage de la fente correspondante et l’éclair lumineux peut être détecté pour déterminer le trajet de la particule. On constate bien alors que la particule passe aléatoirement par un trou ou par l’autre, mais aussi que les franges disparaissent : les points d’impact sont maintenant distribués de façon uniforme. En d’autres termes, la particule, en diffusant la lumière qui révèle son chemin a été perturbée de façon telle que les relations de phase existant entre les deux composantes de la fonction d’onde associée sont brouillées, entraînant la disparition des franges. Ce résultat exprime ce que Bohr a appelé le principe de complémentarité. L’existence des franges et l’information sur le chemin suivi sont deux aspect exclusifs l’un de l’autre et complémentaires de la réalité physique. Ils nécessitent l’utilisation d’appareils différents. On est sensible tantôt à l’aspect ondulatoire de la particule, si on utilise un appareil rendant les chemins indiscernables, tantôt à l’aspect corpusculaire, si on utilise un appareil permettant de distinguer les chemins.
Intrication quantique, chat de Schrödinger et décohérence
Venons-en maintenant à une autre conséquence essentielle du principe de superposition, observable dans des systèmes constitués d’au moins deux particules qui interagissent entre elles, puis se séparent. Pour fixer les idées, considérons la collision de deux atomes identiques. Chacun de ces atomes possède deux niveaux d’énergie e et g. Supposons qu’avant la collision, l’atome 1 est excité (état e) et l’atome 2 est dans son état fondamental (état g). Au cours de la collision deux événements différents peuvent survenir. Ou bien les atomes conservent leurs énergies initiales, ou bien ils les échangent. Classiquement, les atomes devraient « choisir » l’une de ces deux possibilités. La règle quantique est différente. Ils peuvent suivre les deux voies à la fois. Le système se trouve après la collision dans une superposition de l’état où l’atome 1 est dans e et 2 dans g et de l’état où 1 est dans g et 2 dans e. À chacun de ces états est associée une amplitude complexe. Les modules élevés au carré de ces amplitudes représentent les probabilités de trouver l’une ou l’autre de ces deux situations au cours d’une mesure effectuée sur les deux atomes. Notons que si le résultat de la mesure sur chaque atome est aléatoire, les corrélations entre les résultats des mesures sont certaines. Si l’atome1 est trouvé dans e, l’atome 2 est dans g et inversement. C’est cette corrélation parfaite, observable quel que soit le type de mesure effectué sur les atomes, que l’on appelle intrication (« entanglement » en anglais). Cette intrication subsiste même si les deux atomes se sont éloignés l’un de l’autre et se trouvent séparés après la collision par une distance arbitrairement grande. Elle décrit une non-localité fondamentale de la physique quantique. Une mesure de l’atome 1 peut avoir un effet immédiat à grande distance sur le résultat de la mesure de l’atome 2 ! Il y a donc entre les deux particules un lien quantique immatériel et instantané. C’est Einstein, avec ses collaborateurs Podolski et Rosen, qui a discuté le premier en 1935 cet aspect troublant de la théorie quantique. On l’appelle depuis le problème EPR. Pour Einstein, il s’agissait là d’un défaut grave de la théorie puisqu’elle prévoyait des effets qui lui paraissaient manifestement absurdes. Depuis, le problème a été repris par d’autres physiciens, notablement John Bell dans les années 60, et des expériences effectuées sur des photons intriqués ont montré que la nature se comportait bien comme la théorie quantique le prescrit. L’une des expériences les plus probantes a été effectuée dans les années 1980 par Alain Aspect et ses collègues à Orsay. Notons que la non-localité vérifiée par ces expériences ne contredit pas le principe de causalité. On ne peut se servir des corrélations EPR pour transmettre de l’information instantanément entre deux points.
Si l’intrication nous apparaît comme bizarre, c’est pour une bonne part parce que, comme les interférences quantiques, elle ne s’observe jamais sur des objets macroscopiques.
Ceci nous conduit à la métaphore fameuse du chat de Schrödinger. Réfléchissant sur le problème EPR, Schrödinger alla en effet plus loin. Qu’est ce qui empêcherait, se demanda-t- il, d’amplifier un phénomène d’intrication microscopique pour y impliquer un système macroscopique? Considérons un atome excité qui émet un photon en se désexcitant. La mécanique quantique nous apprend qu’avant que le photon n’ait été émis de façon certaine, le système se trouve dans une superposition d’un état où l’atome est encore excité et d’un état où il s’est déjà désexcité. Chacun de ces termes est affecté de son amplitude complexe dans l’expression de l’état global du système. Mais, remarque Schrödinger, un seul photon peut déclencher un événement macroscopique. Imaginons en effet notre atome enfermé dans une boîte avec un chat. Supposons que le photon émis par l’atome déclenche un dispositif qui tue le chat. Si l’atome est dans une superposition d’un état où il a émis un photon et d’un état où il ne l’a pas encore émis, quel est à cet instant l’état du chat ? Si l’on admet que le chat peut être décrit par un état quantique bien défini ( et l’on touche là, comme nous le montrons plus loin, à un aspect crucial du problème), on conclut immanquablement à l’existence d’une intrication du système « atome + chat » qui devrait se trouver dans une superposition du chat vivant associé à l’atome excité et du chat mort associé à l’atome désexcité. Une telle situation laissant le malheureux chat suspendu entre la vie et la mort, représentée sur la figure 2c, était jugée burlesque par Schrödinger. Ce problème a fait couler beaucoup d’encre. Certains ont dit que c’est au moment où on cherche à observer si le chat est vivant ou mort qu’un processus mental chez l’observateur « force » la nature à décider. D’autres se sont demandé s’il fallait tenir compte du processus mental du chat lui-même et la discussion a vite versé dans la métaphysique.
Si on veut éviter un tel débat, l’approche pragmatique de Bohr est utile. Pour savoir si la superposition d’états existe, il faut imaginer un dispositif d’observation spécifique. La superposition « chat vivant- chat mort » ne peut être prouvée que si l’on sait réaliser une expérience susceptible de révéler l’interférence des amplitudes complexes associées aux parties « vivante » et « morte » du chat. Schrödinger n’a pas poussé la discussion jusque-là, mais on peut par exemple songer à utiliser comme sonde de l’état du chat une souris
« quantique» à qui l’on demanderait de traverser la boîte. La probabilité que la souris s’échappe devrait alors être le carré de la somme de deux amplitudes, une correspondant au chat vivant, l’autre au chat mort. Verra-t-on dans la probabilité finale un terme
d’interférence ? C’est peu probable et fortement contraire à notre intuition.
La question qui se pose est alors : qu’est-il arrivé aux interférences, pourquoi ont-elles disparu ? La réponse fait intervenir la notion fondamentale de décohérence. La situation que nous avons schématisée à l’extrême a négligé un élément essentiel. Notre chat ne peut être isolé en présence d’un seul atome « décidant » de son sort. Le chat – comme en général tout système macroscopique - est en effet baigné par un environnement constitué de très nombreuses molécules, de photons thermiques, et son couplage avec cet environnement ne peut être négligé. Pour mieux comprendre ce qui se passe, revenons à l’expérience d’Young. Si l’on cherche à déterminer le chemin par lequel la particule est passée, on doit par exemple lui faire diffuser un photon (figure 2b). On intrique alors ce photon avec la particule et on obtient une espèce de paire EPR dont un élément est la particule et l’autre le photon. Si on mesure le photon dans un état, on sait que la particule est passée par un trou. L’autre état a alors disparu. Il n’y a plus d’interférence. On comprend ainsi mieux la complémentarité comme un effet d’intrication de la particule avec l’environnement (ici le photon) qui interagit avec elle. La situation de notre chat est similaire. Notons tout d’abord que le point de départ de notre raisonnement, l’existence d’un état quantique bien déterminé pour le chat à l’instant initial de l’expérience, doit être remis en question. Dès cet instant, le chat est déjà intriqué avec son environnement et ne peut donc pas être décrit par un état quantique qui lui est propre. En admettant même que l’on puisse le découpler du reste du monde à cet instant
initial, il serait impossible d’éviter son interaction avec l’environnement pendant qu’il interagit avec l’atome unique imaginé par Schrödinger. Dès qu’il serait placé dans un état de superposition, il interagirait aussi avec un bain de molécules et de photons qui se trouveraient rapidement dans des états quantiques différents suivant que le chat est vivant ou mort. Très vite, une information sur l’état du chat fuirait dans l’environnement, détruisant les interférences quantiques, de la même façon que le photon diffusé par la particule dans l’expérience de Young fait disparaître les franges. L’environnement agit comme un « espion » levant l’ambiguïté quantique.
Notons enfin que la décohérence se produit de plus en plus vite lorsque la taille des systèmes augmente. Ceci est dû au fait que plus le système est gros, plus il est couplé à un grand nombre de degrés de libertés de l’environnement. Il n’est pas nécessaire de considérer des systèmes aussi macroscopiques qu’un chat pour que la décohérence domine. C’est déjà le cas pour les systèmes microscopiques au sens de la biologie que sont les macromolécules, les virus ou les bactéries. Le fait que l’on aît raisonné sur des êtres vivants n’a non plus rien d’essentiel ici. La décohérence est tout aussi efficace sur un objet inerte constitué d’un grand nombre de particules (agrégat d’atomes, grain de poussière...). L’image du chat n’est qu’une métaphore extrême imaginée par Schrödinger pour frapper les esprits.
Des atomes et des photons dans une boîte
Passons à la description de quelques expériences récentes sur l’intrication quantique, véritables réalisations des expériences de pensée. Il existe essentiellement trois systèmes sur lesquels des manipulations relativement complexes d’intrication ont été réalisées. Les sources de photons intriqués se sont considérablement améliorées depuis les expériences d’Aspect. On réalise à présent des paires de photons intriqués en décomposant dans un cristal non-linéaire un photon ultraviolet en deux photons visibles ou infrarouge. De belles expériences sur ces paires de photons ont été récemment réalisées, à Innsbruck, à Genève et aux États-Unis. Dans certains cas, il est préférable de disposer de particules massives, qui restent un long moment dans l’appareil pour être manipulées, au lieu de photons qui s’échappent du système à la vitesse de la lumière. On peut alors utiliser des ions piégés dans un champ électromagnétique. Il s’agit d’atomes auxquels on a arraché un électron et qui possèdent ainsi une charge sensible aux forces électriques exercées sur elle par un jeu d’électrodes métalliques convenablement agencées. On peut ainsi piéger quelques ions observables par la lumière de fluorescence qu’ils émettent lorsqu’ils sont éclairés par un laser. D’autres lasers peuvent servir à manipuler les ions. De belles expériences d’intrication ont été ainsi faites à Boulder dans le Colorado.
Le troisième type d’expérience, réalisé à l’École Normale Supérieure à Paris, est intermédiaire entre les deux précédents. On y intrique à la fois des photons et des atomes. Les photons ne se propagent pas, mais sont piégés dans une cavité électromagnétique traversée par les atomes. La cavité est formée de miroirs métalliques en niobium supraconducteur à très basse température placés l’un en face de l’autre. Des photons micro-onde peuvent se réfléchir des centaines de millions de fois sur ces miroirs et rester ainsi piégés pendant un temps de l’ordre de la milliseconde. Des atomes, préparés dans un état de Rydberg très excité, traversent un à un la cavité, interagissent avec les photons et sont ensuite ionisés et détectés. La grande taille de ces atomes (figure 1c) les rend extrêmement sensibles au couplage avec le rayonnement de la cavité, une condition essentielle à l’observation des phénomènes d’intrication quantique.
Nous donnerons ici simplement un aperçu général sur quelques expériences récentes d’intrication atome-cavité. Pour simplifier, admettons que nos atomes possèdent essentiellement deux niveaux de Rydberg appelés comme précédemment e et g. La séparation des miroirs est, dans un premier temps, réglée pour que les photons de la cavité soient
résonnants avec la transition entre ces deux niveaux. Cela veut dire que si l’atome entre dans la cavité dans le niveau e, il peut, en conservant l’énergie, y émettre un photon en passant dans le niveau g et que s’il y entre dans g, il peut absorber un photon présent pour passer dans l’état e. Envoyons un atome dans e à travers la cavité initialement vide et réglons le temps de traversée de la cavité par l’atome pour que la probabilité d’émission d’un photon soit de
50 %. L’état final obtenu est une superposition d’un atome dans e avec une cavité vide et d’un atome dans g avec une cavité contenant un photon, ce qui constitue une intrication atome- photon. Cette intrication survit à la sortie de l’atome de la cavité.
Compliquons maintenant la situation en envoyant dans la cavité deux atomes, l’un dans e, l’autre dans g. Le premier atome a sa vitesse réglée pour émettre avec 50 % de probabilité un photon et le second interagit le temps qu’il faut pour absorber à coup sûr le photon s’il y en a un. Il s’agit donc d’un transfert d’énergie entre les deux atomes induit par la cavité. Si on se demande, après la traversée des deux atomes, si l’excitation a été transférée de l’un à l’autre, la théorie quantique nous donne une réponse ambiguë : oui et non à la fois. Le résultat est une paire d’atomes intriqués. Le schéma – illustré sur la figure 3 - se généralise avec un plus grand nombre de particules. On peut réaliser des situations où deux atomes et un photon, ou encore trois atomes, sont intriqués...
Une version de laboratoire du chat de Schrödinger
Envisageons maintenant une situation où la cavité est désaccordée par rapport à la fréquence de la transition atomique. La non-conservation de l’énergie interdit alors l’émission ou l’absorption de photons par l’atome. Cela ne veut pas dire cependant que les deux systèmes n’interagissent pas. La simple présence de l’atome dans la cavité modifie légèrement la fréquence du champ qu’elle contient. Cet effet dépend de l’état d’ énergie de l’atome. La fréquence du champ est augmentée ou diminuée, suivant que l’atome se trouve dans un niveau ou l’autre. Que se passe-t-il alors si l’atome est dans une superposition des deux états ? Les lois quantiques disent que l’on doit avoir en même temps une fréquence diminuée et augmentée. Cette réponse ambiguë conduit à la possibilité de créer un nouveau type d’intrication.
Commençons par injecter entre les miroirs un champ contenant quelques photons à l’aide d’une source micro-onde couplée à la cavité par un guide d’onde, puis coupons cette source. Nous piégeons ainsi quelques photons dans la cavité pendant un temps d’une fraction de milliseconde. Le champ électrique de l’onde qui leur est associée est une fonction périodique du temps. On peut représenter cette fonction par un nombre complexe dont le module et la phase correspondent à ceux du champ. Ce nombre complexe est associé à un vecteur (on retrouve la représentation des nombres complexes évoquée plus haut, introduite en optique par Fresnel). L’extrémité du vecteur se trouve dans un petit cercle d’incertitude qui reflète l’existence pour de tels champs contenant quelques photons des fluctuations quantiques d’amplitude et de phase. Envoyons à présent dans la cavité notre atome dans une superposition des états e et g (Figure 4a). Sa présence a pour résultat de changer de façon transitoire la période des oscillations du champ et donc de le déphaser, c’est-à-dire de déplacer les instants où il passe par ses maxima et minima (Figure 4b). De façon équivalente, le vecteur représentatif tourne dans le plan de l’espace des phases. Mais du fait que l’atome est dans une superposition de deux états produisant des effets de signes opposés, on a deux états de phases différentes, intriqués aux deux états atomiques, une situation qui rappelle celle du chat de Schrödinger (Figure 4c). On voit également que le champ est une espèce d’aiguille de mesure qui « pointe » dans deux directions différentes du plan de Fresnel suivant que l’atome est dans e ou g, jouant ainsi le rôle d’un appareil de mesure qui « observe » l’atome.
Cette remarque nous conduit à décrire une expérience de démonstration simple du principe de complémentarité. Nous avons vu qu’ en soumettant l’ atome à deux impulsions lumineuses mélangeant les états e et g, aux instants t1 et t2 (en appliquant à l’atome deux impulsions dans les « zones de Ramsey » indiquées par des flèches sur la Figure 5a), on obtient, pour la probabilité finale de trouver l’atome dans g, un signal de franges d’interférence. Ces franges ne s’observent que si rien dans le dispositif ne nous permet de savoir dans quel état se trouve l’atome entre les deux impulsions. Soumettons alors l’atome entre t1 et t2 à un petit champ non résonnant stocké dans une cavité. La phase de ce champ tourne d’un angle dépendant de l’état de l’atome. Le champ « espionne » l’atome et les franges vont donc s’effacer. C’est bien ce qu’on observe (figure 5b). Si la rotation de phase du champ est faible, on ne peut en déduire avec certitude l’état atomique et les franges subsistent avec un contraste réduit. Elles disparaissent par contre totalement dans le cas d’une rotation de phase importante, rendant certaine l’information sur le chemin suivi par l’atome. On modifie simplement la rotation de phase du champ en changeant le désaccord de fréquence entre l’atome et la cavité.
La décohérence quantique saisie sur le vif
L’expérience que nous venons de décrire s’intéresse à la superposition des états de l’atome, influencée par la présence du champ. Que peut-on dire de la superposition des états du champ lui-même ? Combien de temps cette superposition d’états survit-elle ? L’environnement du champ est constitué par l’espace qui entoure la cavité, qui peut se remplir de photons diffusés par les défauts de surface des miroirs. En fait, c’est ce processus de diffusion qui limite dans notre expérience la durée de vie du champ à un temps Tcav d’une fraction de milliseconde. Si la cavité contient en moyenne n photons, un petit champ contenant environ un photon s’échappe donc dans l’environnement en un temps très court, Tcav divisé par n. Ce champ microscopique emporte une information sur la phase du champ restant dans la cavité. Ainsi, au bout d’un temps Tcav/n, la cohérence quantique entre les deux composantes du champ dans la cavité a disparu. Ceci explique pourquoi des champs macroscopiques, pour lesquels n est très grand (de l’ordre d’un million ou plus), se comportent classiquement, la décohérence y étant quasi-instantanée. Dans notre expérience cependant, n est de l’ordre de 3 à 10. Le temps de décohérence est alors assez long pour permettre l’observation transitoire d’interférences quantiques associées aux deux composantes de notre « chat de Schrödinger ». Pour cette observation, nous envoyons dans la cavité, après le premier atome qui prépare le « chat », un second atome jouant le rôle de la « souris quantique » évoquée plus haut. Cet atome recombine les composantes du champ séparées par le premier atome de telle sorte qu’il apparaît, dans un signal de corrélation entre les résultats des détections des deux atomes, un terme sensible à l’interférence associée aux deux composantes du chat créé par le premier atome. Ce signal d’interférence (voir Figure 6) décroît lorsque le délai entre les deux atomes augmente. Ce phénomène est d’autant plus rapide que les deux composantes du « chat » sont plus séparées, ce qui illustre un des aspects essentiels de la décohérence, qui agit d’autant plus vite que le système est plus
« macroscopique ». Cette expérience constitue une exploration de la frontière entre les mondes quantique (dans lequel les effets d’interférences sont manifestes) et quantique (dans lequel ces effets sont voilés).
Vers une utilisation pratique de la logique quantique ?
En dehors de leur intérêt fondamental, quelles peuvent être les retombées pratiques de ces expériences et de celles qui sont effectuées sur des ions piégés ou des photons intriqués ?
La logique qui y est à l’œuvre peut être décrite dans le cadre d’une branche en plein développement de l’informatique, qui s’intéresse à la façon dont on peut transmettre et manipuler de l’information en exploitant les lois quantiques. On peut en effet considérer les systèmes à deux états que nous avons considérés (atome à deux niveaux, cavité avec 0 ou 1 photon, champ présentant deux phases possibles) comme des « porteurs » d’information, des « bits » à l’aide desquels on peut coder deux valeurs, 0 ou 1. Nos expériences peuvent être vues comme des opérations sur ces bits, qui les couplent suivant une dynamique conditionnelle. On peut par exemple considérer que le champ (0 ou 1 photon) est un bit
« contrôle » et que l’atome est un bit « cible ». On peut réaliser l’expérience en cavité de sorte que si le bit contrôle est dans l’état 0, le bit cible ne change pas, et que par contre il change d’état si le bit contrôle est dans l’état 1. On obtient alors une porte conditionnelle analogue aux portes utilisées dans les ordinateurs classiques. La nouveauté de cette porte par rapport à celles des ordinateurs usuels est que les bits peuvent être mis dans des superpositions d’états. On manipule ainsi non pas seulement les valeurs 0 ou 1, mais aussi des superpositions de ces valeurs. On parle alors de bits quantiques ou « qubits ». Si on prépare le qubit contrôle dans une superposition de 0 et de 1, le fonctionnement de la porte conditionnelle génère en sortie deux bits intriqués. Cette intrication élémentaire peut être amplifiée en se servant de la sortie d’une porte comme entrée d’une porte en cascade et ainsi de suite. On peut construire de la sorte des combinaisons complexes d’opérations. L’intrication ainsi réalisée permettrait en principe d’obtenir des situations équivalentes à la superposition cohérente d’un grand nombre d’ordinateurs classiques, travaillant en parallèle et interférant entre eux. Pour certains types de calculs (comme la factorisation des grands nombres), on devrait gagner énormément en vitesse d’exécution par rapport à ce que permettent les algorithmes de calcul classiques.
Cette constatation explique en grande part l’engouement actuel pour ce type de recherche. Il faut cependant faire ici une réserve importante. La décohérence est un problème très sérieux pour ce genre de système. Ce que l’on cherche à construire ainsi n’est autre qu’un super chat de Schrödinger dont nous venons de voir la sensibilité extraordinaire au couplage avec l’environnement. Dès qu’un quantum s’échappe de l’ « ordinateur », la cohérence quantique est perdue. Certains espèrent résoudre la difficulté en ajoutant des dispositifs correcteurs d’erreurs quantiques. Il s’agit de processus complexes, dont la mise en œuvre efficace est loin d’être évidente. L’ avenir de l’ordinateur quantique reste – et c’est un euphémisme – bien incertain. D’autres applications de la logique quantique, moins sensibles à la décohérence, sont plus prometteuses. Le partage entre deux observateurs de paires de particules intriquées ouvre la voie à une cryptographie quantique permettant l’échange d’informations secrètes, suivant une procédure inviolable. Des expériences très encourageantes ont été réalisées en ce domaine. La téléportation quantique permet de reproduire à distance, en se servant des propriétés de l’intrication, l’état d’une particule quantique. Cet effet pourrait lui aussi être utilisé dans des dispositifs de traitement quantique de l’information.
Conclusion : la « gloire et la honte du quantum »
Au terme de cette brève exploration de la physique quantique, concluons sur un mot du physicien Archibald Wheeler, l’un des derniers survivants de la génération des fondateurs de la théorie. Réfléchissant sur ce siècle des quanta, il a parlé sous une forme lapidaire de « la gloire et de la honte du quantum ». La gloire c’est bien sûr l’immense succès de cette théorie pour nous faire comprendre la nature. La honte, c’est qu’au fond, on ne « comprend » pas la théorie. En essayant d’utiliser un langage issu de notre monde classique, on arrive à des problèmes d’interprétation troublants. En fait, beaucoup de physiciens ne se posent pas ces problèmes. La nature est ce qu’elle est, quantique sans doute, et ils l’admettent sans états
d’âme, obéissant à l’injonction de Bohr à Einstein : « arrête de dire à Dieu ce qu’il doit
faire » ! Pour d’autres, il manque encore une formulation de la théorie qui réconcilierait notre intuition avec le monde tel qu’il est. La nouveauté de cette fin de siècle est que ce problème, longtemps réservé aux théoriciens et aux « imagineurs » d’expériences de pensée, s’ouvre maintenant aux expériences réelles.
Réaliser ces expériences de pensée est un défi amusant et excitant. C’est un plaisir rare de pouvoir suivre in vivo la danse des atomes et des photons qui obéissent de façon si parfaite aux injonctions de la théorie quantique. Il faut cependant constater que ces expériences deviennent de plus en plus difficiles lorsqu’on augmente la taille du système. Maintenir ne serait-ce qu’un modèle réduit de chat de Schrödinger suspendu dans une superposition cohérente d’états est vraiment difficile. Même si l’ordinateur quantique n’est pas vraiment en vue, ce domaine de recherche nous réserve cependant encore bien des surprises. Il y aura sans doute des applications de toute cette physique, et, comme c’est souvent le cas, ce ne seront vraisemblablement pas celles que l’on prévoit.
RÉFÉRENCES :
Sur l’intrication quantique et la décohérence :
W. ZUREK, « Decoherence and the transition from quantum to classical », Physics Today, Vol 44, No 10, p36 (1991).
Sur les expériences d’atomes en cavité :
P.R. BERMAN (éditeur) : « Cavity Quantum Electrodynamics », Academic Press, Boston (1994)
S. HAROCHE, J.M. RAIMOND et M. BRUNE, « Le chat de Schrödinger se prête à l’expérience », La Recherche, 301, p50, Septembre 1997.
Sur l’information quantique :
D. BOUWMEESTER, A. EKERT et A. ZEILINGER (éditeurs) « The physics of quantum information », Springer Verlag, Berlin, Heidelberg (2000).
Légendes des figures :
Figure 1. Représentation des orbitales de l’état fondamental (a), du premier état excité (b) et d’un état de Rydberg très excité (c) de l’électron de l’atome d’hydrogène. La figure (c) n’est pas à l’échelle (une orbitale de Rydberg peut avoir un diamètre mille fois plus grand que celui d’un état fondamental).
Figure 2. Interférences quantiques : (a) Expérience d’Young : chaque particule traverse l’interféromètre suivant deux chemins indiscernables et les points d’impact sur l’écran reproduisent une figure de franges. (b) Si on cherche à déterminer le chemin suivi, l’interférence disparaît (complémentarité). (c) quand on essaye de superposer deux états distincts d’un système macroscopique (superposition symbolisée par le signe + d’un « chat vivant » et d’un « chat mor t » dans une boîte), l’environnement (molécules dans la boîte) s’intrique avec le système, supprimant très rapidement les effets d’interférence (décohérence).
Figure 3. Expérience préparant une paire d’atomes intriqués : deux atomes, le premier dans l’état e, le second dans g sont envoyés dans une cavité initialement v ide, formée de deux miroirs se faisant face. Si les temps d’interaction atome-champ sont convenablement réglés, les deux atomes émergent dans une superposition d’états.
Figure 4 : Principe de la préparation d’un état « chat de Schrödinger » du champ dans la cavité : (a) un atome dans une superposition de deux états traverse la cavité. (b) il donne au champ deux phases à la fois. (c) Chaque composante de phase est représentée par un vecteur pointant dans une direction donnée.
Figure 5 : Expérience de complémentarité : (a) Principe : l’atome suit deux
« chemins » entre les zones de Ramsey et la phase du champ dans la cavité fournit une information levant l’ambiguité. (b) Signal : La probabilité de détecter l’atome dans le niveau g est enregistrée en fonction de la fréquence appliquée dans les zones de Ramsey, pour trois valeurs du déphasage du champ. Les franges sont d’autant moins visibles que les deux composantes du champ dans la cavité sont plus séparées.
Figure 6. Expérience de décohérence : (a) Principe : l’atome 1 prépare la superposition d’états de phases différentes du champ dans la cavité et l’atome 2 la sonde après un délai variable. (b) Signaux de corrélation à deux atomes en fonction du délai entre eux, obtenus en moyennant les résultats d’un grand nombre de réalisations. Le nombre moyen de photons est 3,3. L’expérience est effectuée pour deux séparations différentes des composantes du champ (cercles et triangles expérimentaux). Les courbes sont théoriques.

 

  VIDEO       CANAL  U         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google