ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

ATOME

 

 

 

 

 

 

 

ATOME

 

PLAN
                *         ATOME
                *         PHYSIQUE ET CHIMIE
                *         1. Description d'un atome
                *         1.1. La structure interne des atomes
                *         1.3. Les atomes isolés
                *         1.4. Les atomes naturels et artificiels
                *         2. Historique de la notion d'atome
                *         2.1. Vingt-trois siècles de tâtonnements
                *         2.1.1. Au Moyen Âge
                *         2.1.2. La théorie du phlogistique
                *         2.1.3. La chimie devient une science
                *         2.2. L'approche de la connaissance actuelle de l'atome
                *         2.2.1. La théorie atomique de Dalton
                *         2.2.2. Atome et tableau périodique des éléments
                *         2.3. Découvertes des constituants de l'atome
                *         2.3.1. L'électron
                *         2.3.2. La radioactivité et les nucléons
                *         2.3.3. Le noyau
                *         2.3.4. Le proton
                *         2.3.5. Le neutron
                *         2.3.6. Mésons et quarks
                *         3. La représentation de l'atome
                *         3.1. La représentation symbolique de l'atome
                *         3.2. La représentation spatiale ou la notion de modèle
                *         3.2.1. Le modèle planétaire
                *         3.2.2. Limites du modèle planétaire
                *         3.2.3. Dualité onde-corpuscule
                *         3.3. L'atome en mécanique ondulatoire
                *         3.4. Paramètres caractéristiques des électrons dans l'atome
                *         3.4.1. Le nombre quantique principal
                *         3.4.2. Le nombre quantique azimutal
                *         3.4.3. Le nombre quantique magnétique

atome
(latin atomus, du grec atomos, qu'on ne peut couper)

Consulter aussi dans le dictionnaire : atome
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière dont les mouvements et les combinaisons rendent compte de l'essentiel des propriétés macroscopiques de celle-ci. (Un corps constitué d'atomes de même espèce est appelé corps simple ou élément chimique.)

PHYSIQUE ET CHIMIE

Le mot « atome » est aujourd'hui un paradoxe scientifique : en effet, les Grecs avaient désigné par ce terme, qui veut dire « indivisible », le plus petit élément, simple et stable, de la matière ; or on sait à présent qu’un atome est composé de particules plus petites : des électrons, des protons et des neutrons. Les protons et les neutrons, appelés nucléons, forment le noyau de l’atome et sont eux-mêmes composés de particules encore plus élémentaires : les quarks. La connaissance de cette structure ultime de la matière est à l’origine d’une révolution tant dans le domaine de la connaissance que dans celui des rapports entre les peuples (la fission de noyaux atomiques étant à la base des armes nucléaires).


1. Description d'un atome

Les atomes sont les plus petites parcelles d'un élément chimique qui puissent être conçues : ils sont constitués d'un noyau chargé positivement autour duquel gravitent des électrons chargés négativement, l'ensemble étant électriquement neutre.

Les ions dérivent des atomes par la perte ou par le gain d'un ou de plusieurs électrons : il existe des ions positifs (cations), qui résultent d'une perte d'électrons, et des ions négatifs (anions), qui résultent d'un gain d'électrons.


Les électrons ainsi impliqués sont situés à la partie la plus externe des atomes, qui est seule perturbée par un gain ou une perte d'électrons. Seuls ces électrons (électrons de valence) interviennent dans les réactions chimiques. Ces dernières se distinguent donc fondamentalement des phénomènes qui se produisent lors de l'explosion d'une bombe atomique, lesquels se situent au niveau du noyau. Les transformations intervenant au niveau nucléaire mettent en jeu une énergie (→  énergie nucléaire) un million de fois plus élevée que celle que libère une réaction chimique (→  énergie chimique).
En première approximation, on peut considérer qu'un atome occupe une partie de l'espace, de forme sphérique, d'un diamètre de quelques angströms (1 Å = 10−10 m).

1.1. La structure interne des atomes
L'étude de la structure interne des atomes a montré que tous, quel que soit l'élément qu'ils constituent, sont formés de trois espèces de particules élémentaires : les électrons, les protons et les neutrons.
Les électrons sont des particules légères de charge électrique négative, toutes identiques, qui se meuvent à grande vitesse dans le champ d'attraction du noyau chargé positivement.


D'un diamètre très petit par rapport à celui de l'atome, le noyau – dans lequel presque toute la masse est concentrée – est composé de particules appelées nucléons.
Les nucléons sont de deux espèces : les protons, possédant une charge électrique positive, égale en valeur absolue à la charge des électrons, et les neutrons, électriquement neutres.
Les propriétés d'un atome sont déterminées par le nombre d'électrons présents autour du noyau : ce nombre est égal au nombre Z de protons contenus dans ce noyau.
Les propriétés ne dépendent pas, pour l'essentiel, du nombre N de neutrons : les atomes d'un même élément peuvent contenir un nombre variable de neutrons. Les atomes d'un élément qui contiennent un nombre différent de neutrons constituent des isotopes de cet élément. En général, il existe plusieurs isotopes d'un même élément.

Z représente le nombre atomique ou numéro atomique de l'élément.


La somme Z + N = A est le nombre de masse du noyau.

Pour distinguer les isotopes d'un élément, on les désigne par leur symbole précédé des nombres A et Z qui lui sont propres : ainsi, 146C désigne l'isotope de carbone dont l'atome possède 14 nucléons (6 protons et 8 neutrons).

1.2. Quelques ordres de grandeurs
La masse de l'atome est de l'ordre de 10−26 kg. Un atome peut être assimilé à une sphère dont le rayon, variable d'un élément à l'autre, est de l'ordre de 10−10 m (soit 1 Å).
L'électron porte une charge élémentaire − e (e = 1,602 × 10−19 C), pour une masse m de 9,1093897 × 10−31 kg ou de 5,4 × 10−4 u en unité de masse atomique (1 u = 1,6605402 × 10−27 kg).
Il existe donc un rapport de 1 à 10 000 entre la masse de l'atome et celle de l'électron : dans un atome, la masse des électrons apparaît donc comme négligeable comparée à la masse du noyau.
La masse du proton est de 1,6726231 u (mp = 1,673 × 10−27 kg), et celle du neutron est de 1,6749286 u (mn = 1,675 × 10−27 kg).

Assimilé à une sphère, le volume du noyau est à peu près proportionnel au nombre de nucléons A : le rayon du noyau est, selon une formule empirique, proche de la racine cubique de A, r ≈ 1,41 × 10−15 × A1/3 m (de l'ordre de 10−15 m), ce qui correspond à 1 fm (femtomètre ou fermi).
Un facteur de 100 000 existe entre le rayon de l'atome et celui du noyau, et, si l'on néglige la masse des électrons, le noyau a une densité 10−15 fois plus élevée que celle de l'atome, ce qui correspond à une concentration énorme de matière. La même concentration appliquée à la masse totale de la Terre ramènerait notre planète à une sphère de 60 m de rayon.

1.3. Les atomes isolés
Les rares atomes isolés se rencontrent sous forme de gaz.
Les gaz rares (argon, hélium, krypton, néon, xénon) sont un exemple de la présence d'atomes isolés dans la nature : ils sont en très faible proportion dans l'air, où l'on trouve essentiellement de l'azote (78,084 %) et de l'oxygène (20,946 %) sous forme de molécules diatomiques (N2 et O2), du dioxyde de carbone et de la vapeur d'eau également sous forme de molécules.
Les gaz rares, qui ont été découverts par le chimiste britannique William Ramsay entre 1894 et 1898, ne représentent que 1 % du volume de l'air : argon 0,934 % ; hélium 0,52 × 10−3 % ; krypton 0,11 × 10−3 % ; néon 1,8 × 10−3 % ; xénon 8,7 × 10−6 %.
L'existence d'atomes libres de gaz rares résulte de leur configuration particulièrement stable : les ions se forment d'ailleurs à partir des atomes de telle sorte que, en général, la perte ou le gain d'électrons leur permette d'acquérir une configuration électronique d'atome de gaz rare.

1.4. Les atomes naturels et artificiels

Outre les éléments identifiés dans la nature, et leurs isotopes naturels, on connaît aujourd'hui des éléments plus lourds que l'uranium (le plus lourd des éléments existant à l'état naturel, répertorié avec le numéro atomique 92), et de nouveaux isotopes d'éléments qui existent, en revanche, à l'état artificiel.
Les atomes de ces éléments, ou de ces isotopes, sont fabriqués artificiellement en faisant intervenir des réactions nucléaires, qui consistent à bombarder, par des particules variées et animées d'une très grande vitesse, les noyaux des atomes d'éléments connus.
Ces réactions permettent d'accroître le nombre Z de protons du noyau (et on obtient des atomes plus lourds que ceux de l'élément bombardé) ou de modifier le nombre N de neutrons (et on obtient des isotopes nouveaux).

En règle générale, les éléments artificiels ainsi obtenus sont radioactifs : leurs noyaux se désintègrent rapidement, et leur durée de vie peut donc être très brève, ce qui explique leur absence dans les milieux naturels. Les atomes artificiels d'éléments plus lourds que l'uranium (appelés transuraniens ou éléments superlourds) sont obtenus à partir de noyaux naturels d'uranium ou de thorium. Le premier d'entre eux, dans la séquence des numéros atomiques, est le neptunium, qui porte le numéro Z = 93 ; puis le plutonium (Z = 94), synthétisé en 1940, etc. Le bombardement de l'uranium par des particules chargées et accélérées dans des cyclotrons a ainsi permis d'obtenir de nombreux éléments transuraniens. Les éléments artificiels ainsi fabriqués ont une durée de vie de plus en plus courte à mesure que leur numéro atomique est plus grand.

On peut également fabriquer des isotopes, le plus souvent radioactifs, d'éléments connus, en soumettant les atomes d'éléments naturels à un bombardement de particules accélérées ou à l'action des neutrons émis par une pile atomique. Ces isotopes sont utilisés soit en médecine, notamment pour le traitement du cancer (bombe au cobalt) ou pour réaliser des diagnostics (radio-iode), soit en analyse chimique pour identifier et doser des éléments présents en très petites quantités (de l'ordre de la partie par million), soit en mécanique pour radiographier des pièces de grandes dimensions.

2. Historique de la notion d'atome

La constitution de la matière a très tôt préoccupé les philosophes. L'atomisme, où l'atome est l'« essence de toutes choses », constituant ultime et indivisible de la matière, tel que le concevaient dans l'Antiquité des philosophes comme Empédocle, Leucippe et Démocrite, et tel qu'il fut repris par Épicure et Lucrèce, ne pouvait guère dépasser la vision mécaniste de particules se combinant pour former des corps, à la suite d'une légère et aléatoire modification de leur trajectoire dans le vide (c'est le phénomène du clinamen, chez Épicure). Les philosophes observaient surtout ce qui les entourait et tombait immédiatement sous leurs sens : d'où la suprématie du concept des quatre éléments (l'air, l'eau, la terre, le feu) énoncé par Homère, repris par Thalès et conforté par Aristote, et qui perdurera jusqu'au xviiie s. C'est la chimie qui, 2 500 ans environ après les philosophes grecs, établira la notion moderne d'atome.

2.1. Vingt-trois siècles de tâtonnements
L'alchimie est pratiquée dès la plus haute Antiquité dans les grandes civilisations orientales, notamment en Chine et en Inde, où elle est appelée « science des saveurs » ou « science des élixirs ». En Occident, elle fleurit dans le monde hellénistique et sera transmise par les Arabes au monde chrétien.

2.1.1. Au Moyen Âge
Au Moyen Âge les alchimistes classent les substances en fumées, esprits, eaux, huiles, laines, cristaux… Mais ils cherchent moins à identifier des corps différents qu'à découvrir la réalité « philosophale » fondamentale cachée derrière les apparences. États et propriétés physiques dominent ces classifications, et du ixe au xvie s. s'ajoutent trois autres éléments : le mercure pour l'état métallique et l'état liquide, le soufre pour la combustion et le sel pour la solubilité (ces éléments sont dits « philosophiques » pour ne pas les confondre avec les corps du même nom).

2.1.2. La théorie du phlogistique

Au xviie s. apparaît avec l'Allemand Georg Ernst Stahl la théorie du phlogistique : fluide miracle associé à tous les corps, il s'ajoute, se retranche, et permet d'expliquer le processus de combustion. Cependant, la chimie moderne est amorcée par le Français Jean Rey qui reconnaît, dès 1630, la conservation de la masse dans les transformations chimiques et le rôle de l'air dans les combustions. L'Irlandais Robert Boyle, dès 1661, fait la distinction entre mélanges et combinaisons chimiques.

2.1.3. La chimie devient une science

Au xviiie s., la chimie devient une véritable science avec le Britannique Joseph Priestley et le Français Antoine Laurent de Lavoisier qui imposent, par des méthodes dignes de la recherche actuelle, de nouvelles règles de nomenclature permettant de comprendre le processus des combinaisons chimiques. Lavoisier définit l'élément chimique, qui ne peut pas être décomposé en substances plus simples par la chaleur ou par une réaction chimique, ainsi que le composé, qui est la combinaison de deux éléments, ou plus, dans une proportion de poids déterminée.

2.2. L'approche de la connaissance actuelle de l'atome

2.2.1. La théorie atomique de Dalton

La première théorie moderne sur l'atome est énoncée, en 1808, par le Britannique John Dalton : tous les atomes d'un même corps simple, autrement dit d'un même élément, sont identiques, mais diffèrent des atomes d'autres éléments par leur dimension, leur poids et d'autres propriétés. Il donne d'ailleurs une liste de poids relatifs, par rapport à l'hydrogène, de quelques atomes (azote, carbone, oxygène, etc.).

2.2.2. Atome et tableau périodique des éléments

En 1869, le Russe Dimitri Ivanovitch Mendeleïev publie le premier tableau périodique des éléments classés en fonction de leur poids atomique. Il démontre que les propriétés chimiques des éléments sont des fonctions périodiques de leur « poids ». Pour cela, il est conduit, d'une part, à inverser certaines positions dans le classement (inversions qui s'avéreront, par la suite, en accord avec le fait que presque tous les éléments chimiques sont des mélanges de plusieurs isotopes) et, d'autre part, à laisser des cases vides correspondant, selon lui, à des éléments non encore découverts, mais dont il prévoit l'existence et les propriétés chimiques.

2.3. Découvertes des constituants de l'atome
Il faut attendre la fin du xixe s., avec les premières découvertes sur les constituants de l'atome, pour que la matière livre ses premiers secrets.
2.3.1. L'électron

.En 1891, l'Irlandais George Johnstone Stoney propose le nom d'électron pour désigner une particule qui porterait une charge électrique élémentaire négative. Mais c'est l'étude des rayons cathodiques par le Français Jean Perrin et par le Britannique Joseph John Thomson qui permet, en 1897, la découverte de l'électron, particule chargée négativement. J. Thomson mesure la charge e de l'électron par rapport à sa masse. La valeur de cette charge (− 1,6 × 10−19 C) est précisée, à 1 % près, en 1911, par l'Américain Robert Andrews Millikan.

2.3.2. La radioactivité et les nucléons

L'observation en 1896 par Henri Becquerel d'un rayonnement inconnu, les mystérieux « rayons uraniques », excite la curiosité de nombreux chercheurs. En effet, les sels d'uranium émettent un rayonnement capable de rendre l'air conducteur d'électricité, d'impressionner une plaque photographique, et qui est aussi pénétrant que les rayons X.
Les radioéléments

À partir de cette observation, Marie Curie commence, en 1898, ses recherches sur la pechblende (oxyde naturel d'uranium) ; son but est de quantifier le rayonnement émis en mesurant l'intensité du courant d'« ionisation » qui est établi dans l'air, sous son action. Elle montre que l'intensité de ce rayonnement est proportionnelle à la quantité d'uranium présent, et elle retrouve ce même phénomène avec l'étude du thorium. Elle propose d'appeler radioactivité cette propriété, et substances radioactives les corps émetteurs de ce rayonnement.
Puis, en collaboration avec Pierre Curie, elle découvre d'autres radioéléments beaucoup plus radioactifs que l'uranium : le polonium en juillet 1898 et le radium en décembre de la même année. Les sources de radium sont un million de fois plus radioactives que les sels d'uranium. Dès ce moment, les découvertes de nouveaux éléments radioactifs se succèdent ; ainsi, André Louis Debierne isole l'actinium en 1899.
Le rayonnement radioactif

L'étude du rayonnement radioactif, émetteur de particules, peut alors être entreprise. Les physiciens reconnaissent deux espèces de rayonnements, que le Britannique Ernest Rutherford désigne par les lettres grecques α et β – par la suite un troisième rayonnement, γ (→  rayons gamma), sera identifié –, qui se distinguent par leur aptitude à pénétrer la matière et par leur comportement sous l'action d'un champ magnétique ou électrique. En 1903, ses compatriotes W. Ramsay et F. Soddy montrent que le rayonnement α est formé de noyaux d'hélium, projetés à grande vitesse.

2.3.3. Le noyau

   


L'existence du noyau est démontrée en 1907 par Rutherford, qui a l'idée de bombarder la matière, afin de mieux comprendre sa nature, à l'aide de particules α utilisées comme de véritables projectiles. À cet effet, il réalise, dans un tube sous vide, un faisceau étroit de particules α émises par désintégration radioactive du polonium, et place sur son trajet une feuille d'or très mince. Il constate que la plupart des particules n'ont pas rencontré d'obstacles en traversant la feuille d'or, et que par conséquent la matière est pratiquement vide. Cependant, quelques particules sont fortement déviées, et le calcul montre qu'elles ne peuvent être repoussées que par des charges positives concentrées dans un très petit volume.

2.3.4. Le proton
Un des élèves de Rutherford, H. G. Jeffreys Moseley, détermine en 1913 le nombre de charges électriques unitaires et positives que contient l'atome (numéro atomique Z), tandis que son maître découvre, en 1919, la particule positive constitutive du noyau, qu'il nomme proton. Il pressent l'existence d'une particule semblable mais neutre.

2.3.5. Le neutron
En 1930, les Allemands Walter Bothe et Heinrich Becker observent, en bombardant des éléments légers (lithium, béryllium, bore) par des particules α, l'apparition d'un nouveau rayonnement encore plus pénétrant que les protons, qui n'est pas dévié par un champ électrique ou magnétique. C'est encore un élève de Rutherford, James Chadwick, qui en 1932 montre que ce rayonnement est constitué de particules de masse quasi identique à celle du proton, mais neutres, insensibles aux charges électriques, et donc très pénétrantes : les neutrons.

2.3.6. Mésons et quarks

Par la suite, on s'aperçoit que les nucléons (neutrons et protons) ne restent pas inertes dans le noyau : ils interagissent en échangeant des particules plus élémentaires, les mésons π (ou pions), découverts en 1947 par le Japonais Yukawa Hideki et le Britannique Cecil Frank Powell.
Dans les années 1960, l'Américain Murray Gell-Mann introduit l'hypothèse que les nucléons sont eux-mêmes composés de trois grains quasi ponctuels, les quarks, liés par des gluons. Avec l'avancée des constructions théoriques pour rendre compte des faits expérimentaux, le nombre des quarks a été porté à six. Ainsi, en moins d'un siècle, la notion de particule élémentaire est passée de la molécule à l'atome, puis au noyau, ensuite au nucléon puis au quark, et d’autres particules théoriques sont encore à l’étude dans les gigantesques accélérateurs.

3. La représentation de l'atome
Dès que la notion scientifique d'atome apparut, il s'avéra nécessaire de la symboliser pour parvenir à une meilleure compréhension des processus chimiques.
3.1. La représentation symbolique de l'atome

Bien que les termes d'atome et d'élément y soient parfois confondus avec celui de molécule, la première tentative de représentation de l'atome peut être attribuée à John Dalton, qui donne une table des « poids » des différents éléments connus : ces derniers sont représentés par des cercles dans lesquels des lettres, des points ou des traits caractérisent la nature de l'élément. À la même époque, en 1814, la première notation systématique des éléments par le Suédois Jöns Jacob Berzelius annonce la représentation qui sera retenue par la suite. Chaque élément chimique est représenté par un symbole : la première lettre du nom en latin suivi éventuellement d'une deuxième lettre pour distinguer des éléments ayant des initiales identiques. Ainsi, le fluor (F) se distingue du fer (Fe), du fermium (Fm), ou du francium (Fr).

3.2. La représentation spatiale ou la notion de modèle
Dès les premiers résultats expérimentaux, les physiciens entreprennent de proposer une représentation de l'atome capable d'intégrer dans un ensemble cohérent les observations fragmentaires. Ils vont ainsi élaborer un modèle qui rend compte à un instant donné de la totalité des informations recueillies et validées.
3.2.1. Le modèle planétaire

En 1901, Jean Perrin propose une représentation planétaire de l'atome où l'électron décrit une trajectoire circulaire autour du noyau. Reprise et mise en équation par le Danois Niels Bohr en 1913, cette interprétation va s'installer durablement dans les esprits, alors que dès 1927 de nouvelles découvertes la mettent en cause.

Ce modèle s'impose au début du xxe s., car il concilie des résultats provenant d'horizons divers. En effet, on a observé, dès 1850, que chaque gaz, quand il est excité par des décharges électriques, émet une lumière qui, en passant dans un spectroscope à prisme, donne un spectre d'émission différent. Même l'hydrogène, l'élément le plus simple, donne naissance à un spectre complexe.
À la suite des travaux du Suisse Johann Jakob Balmer, en 1885, sur le spectre d'émission de l'hydrogène, le Suédois Johannes Robert Rydberg a proposé une relation mathématique simple entre les longueurs d'onde λ des raies caractéristiques du spectre de l'hydrogène :
1/λ = RH (1/n12 − 1/n22).
• RH est une constante spectroscopique appelée constante de Rydberg (RH = 109 737,32 cm−1) ;
• 1/λ est l'inverse de la longueur d'onde, appelé nombre d'onde (exprimé en cm−1) ;
• n1 et n2 sont des nombres entiers tels que n2 > n1, une série de raies du spectre de l'hydrogène étant caractérisée par une valeur donnée de n1, et par des valeurs de n2 égales à n1 + 1, n1 + 2, n1 + 3.

En 1913, James Franck et l'Allemand Gustav Hertz démontrent qu'un atome ne peut absorber de l'énergie que par quantités discrètes (ΔE) : ce phénomène donne naissance à un spectre d'absorption. Réciproquement, une perte de ces quantités d'énergie (ΔE) engendre une radiation (→  rayonnement) dont la fréquence (ν) émise vérifie la relation avancée par un autre Allemand, Max Planck, pour définir un quantum d'énergie :
ν = ΔE/h
dans laquelle h est la constante de Planck (h = 6,626 × 10−34 J . s).
Ces propositions sont corroborées par le calcul qui mène à la valeur expérimentale de la constante de Rydberg.
Ainsi, il apparaît que l'ensemble des travaux menant à la quantification des niveaux d'énergie des électrons dans l'atome s'accorde avec le phénomène de discontinuité des spectres d'émission de l'atome d'hydrogène : c'est la raison de la faveur du modèle de Bohr.

Selon ce modèle, les électrons se déplacent autour du noyau central sur des orbites analogues à celles que parcourent les planètes autour d'un astre. Au centre se trouve le noyau, chargé positivement, autour duquel gravitent les électrons négatifs ; la charge du noyau est égale à la valeur absolue de la somme des charges des électrons.
Ces électrons planétaires ne peuvent se situer que sur certaines orbites stables, associées chacune à un niveau d'énergie formant une suite discontinue, et correspondant aux différentes couches désignées par les lettres K, L, M, N, etc. On dit que l'énergie de l'atome est quantifiée.
La couche électronique K, la plus proche du noyau, peut au plus contenir deux électrons, et la couche L, huit électrons. Sous l'effet d'une excitation extérieure, l'électron peut passer d'une orbite à une autre, d'énergie supérieure. Mais il revient ensuite spontanément sur des orbites d'énergie inférieure. C'est alors qu'il rayonne de l'énergie.

3.2.2. Limites du modèle planétaire
En dépit du perfectionnement du modèle de Bohr, en 1928, par l'Allemand Arnold Sommerfeld, qui propose pour l'électron une trajectoire elliptique, une rotation sur lui-même (spin de l'électron) et la quantification étendue à l'espace pour tenter de rendre compte de la décomposition des raies spectrales émises quand on place l'atome dans un champ magnétique (effet Zeeman, du Néerlandais Pieter Zeeman), ce modèle avait des difficultés à interpréter les résultats obtenus pour les atomes à plusieurs électrons.
De plus, l'électron, qui rayonne de l'énergie, devait logiquement tomber sur le noyau.
Malgré le succès remporté par le modèle atomique de Bohr, il est très vite apparu impossible de développer une théorie générale pour tous les phénomènes atomiques en surimposant simplement aux principes de la mécanique classique ceux de la mécanique quantique.

3.2.3. Dualité onde-corpuscule

Vers 1900, Max Planck avait associé au caractère ondulatoire du rayonnement défini par une longueur d'onde λ un caractère corpusculaire sous forme de photons dont l'énergie E est liée à cette longueur d'onde λ par la relation (où c est la vitesse de la lumière) :
E = hν = hc/λ.

Le Français Louis de Broglie extrapole cette théorie des photons à toute particule, dans sa thèse en 1924, où il montre que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire.
Dès 1927, les Américains Clinton Joseph Davisson et Lester Halbert Germer prouvent le bien-fondé de cette relation en réalisant la diffraction d'électrons par un cristal, démontrant ainsi le caractère ondulatoire des électrons (en 1978, on réalisera aussi la diffraction de l’antiparticule de l’électron nommée positon, découvert en 1932 par l'Américain Carl David Anderson).
Par ailleurs, en 1927, l'Allemand Werner Heisenberg traduit par une inégalité l'impossibilité de connaître simultanément deux paramètres pour une particule en mouvement (vitesse et position, par exemple). C'est le principe d'incertitude, incompatible avec le modèle de Bohr :
Δp × Δx > h
où Δp et Δx expriment respectivement les incertitudes sur les paramètres p (quantité de mouvement) et x (position).
3.3. L'atome en mécanique ondulatoire
Le caractère double de la matière, ondulatoire et corpusculaire, et le principe d'incertitude font abandonner le modèle de Bohr et sa représentation ponctuelle de l'électron parcourant une trajectoire. Une démarche neuve apparaît avec des modes de raisonnement et de calcul qui lui sont propres. La position, la vitesse et la direction du déplacement d'un électron ne pouvant être définies simultanément, on détermine la probabilité de sa présence dans un certain volume de l'espace situé autour du noyau, que l'on appelle orbitale ou nuage électronique. On lui associe une fonction complexe purement mathématique nommée fonction d'onde (Ψ), qui se calcule par la résolution d'une équation posée par l'Autrichien Erwin Schrödinger.

L'application de l'équation de Schrödinger à l'électron unique de l'atome d'hydrogène dans son état de plus faible énergie, appelé état fondamental, permet de retrouver les résultats expérimentaux déjà interprétés par le modèle planétaire. Mais elle intègre les états inhabituels, dits états excités, où les énergies sont plus élevées que dans le cas de l'état fondamental, et permet l'extension et la généralisation du modèle aux atomes autres que l'hydrogène : les électrons de ces derniers occupent, à l'état fondamental, des orbitales comparables à celles des états excités de l'atome d'hydrogène.

Pour rendre compte du comportement des atomes possédant un seul électron sous l'effet d'un champ magnétique ou d'un champ électrique, on a été amené à introduire la notion de spin, qui trouve sa formulation mathématique grâce au Britannique Paul Dirac (en première approximation par rapport à la mécanique classique, le spin traduit un mouvement propre de rotation de l'électron sur lui-même).
On déduit par ailleurs de la mécanique ondulatoire le principe dit d'exclusion de Pauli, selon lequel deux électrons d'un même atome ne peuvent pas être repérés par le même ensemble de nombres quantiques n, l, m, s.
Il apparaît en outre que les électrons sont généralement localisés plus particulièrement dans certaines directions de l'espace autour du noyau.

3.4. Paramètres caractéristiques des électrons dans l'atome

La résolution mathématique de l'équation de Schrödinger impose des restrictions qui conduisent à l'introduction de nombres appelés nombres quantiques – n, l, m, s – devant satisfaire à certaines conditions ; l'énergie et la localisation spatiale des électrons gravitant autour du noyau sont déterminées par ces nombres .

3.4.1. Le nombre quantique principal
Le nombre quantique principal n est un entier strictement positif : il se nomme nombre quantique principal, car il quantifie l'énergie. On retrouve par la mécanique ondulatoire la même expression des différents niveaux d'énergie de l'atome d'hydrogène que celle obtenue dans le modèle de Bohr soit :
En = −13,6/n2 en eV (1 eV = 1,6 × 10−19 J)
avec n = 1, 2, 3…

Le nombre n détermine également le volume à l'intérieur duquel l'électron a le plus de chance de se trouver : quand n croît, le volume augmente. Les valeurs successives 1, 2, 3, etc. correspondent à l'ancienne notation des couches atomiques par les lettres K, L, M, etc.
Cependant, pour décrire une orbitale atomique, le nombre quantique principal n n'est pas suffisant, car si l'énergie fixe la taille de l'orbitale, elle ne donne pas la direction de l'espace où la probabilité de trouver l'électron est importante.

3.4.2. Le nombre quantique azimutal
Le nombre l est un entier positif, strictement inférieur à n, appelé nombre quantique azimutal, ou nombre quantique secondaire (par exemple, si n = 2 alors l = 0 ou 1) ; l quantifie le module du moment cinétique orbital.
De plus, l détermine la forme de l'orbitale dont les grands axes indiquent la direction où l'on a le plus de chance de trouver l'électron. Selon que l = 0, 1, 2, 3 ou 4, les différents types d'orbitales atomiques sont désignés respectivement par s, p, d, f ou g.
Ainsi, pour l = 0, la distribution électronique est symétrique autour du noyau et la probabilité de trouver l'électron est la même dans toutes les directions ; c'est le cas de l'hydrogène à l'état fondamental.
Si l = 1 ou 2 (orbitales p ou d), la fonction d'onde présente des « excroissances » dans des directions privilégiées de l'espace, justifiant l'orientation et les valeurs précises des angles de liaison des atomes entre eux dans les molécules.

3.4.3. Le nombre quantique magnétique
Le nombre m est un entier variant de − l à + l, prenant donc 2l + 1 valeurs : on l'appelle nombre quantique magnétique, car il quantifie la projection du moment cinétique sur un axe privilégié, celui selon lequel on applique un champ magnétique.
Ainsi, pour n = 2 :
• à l = 0 correspond m = 0 ;
• à l = 1 correspond m = − 1, 0, + 1,
m indique donc le nombre d'orbitales.
Pour l = 1 on a des orbitales p, où la probabilité de trouver l'électron est importante sur l'axe Oz pour m = 0, et suivant les axes Oy ou Ox pour m = − 1 ou + 1. À chaque type d'orbitale atomique (s, p) correspondent donc (2l + 1) orbitales atomiques, soit 1 de type s, 3 de type p, 5 de type d, 7 de type f, qui ont chacune une forme et une orientation bien particulières.
Ψn, l, m est la fonction d'onde qui exprime la forme de l'orbitale atomique occupée par un électron ; cette fonction au carré Ψ2n, l, m exprime la probabilité de présence de cet électron dans les différents domaines de l'espace.
(Ψn, l, m est une fonction des coordonnées de l'espace : x, y, z en coordonnées cartésiennes, ou r, θ, φ en coordonnées polaires.)

3.4.4. Le spin
Le quatrième nombre quantique est le spin s, qui prend deux valeurs opposées (+ 1/2 et − 1/2) pour chaque ensemble n, l, m.
Aucun électron d'un même atome n'a ses quatre nombres quantiques identiques à ceux d'un autre électron (principe d'exclusion). Pour une valeur n du nombre quantique principal le nombre maximum d'électrons est 2n2.
La résolution de l'équation de Schrödinger n'est rigoureuse que pour l'atome d'hydrogène. Elle s'étend toutefois aisément aux ions hydrogénoïdes, tels que He+ (un seul électron autour du noyau), et avec des approximations satisfaisantes elle s'applique aux atomes à plusieurs électrons.
Jusqu'à présent, l'hypothèse quantique, tout en se modifiant au fur et à mesure des nouvelles données, permet d'expliquer l'ensemble des connaissances.
À partir du nombre global d'électrons, et en jouant avec les valeurs que peuvent prendre entre eux les nombres quantiques, il est possible de construire la carte d'identité de chaque atome tout en respectant les règles qui, parfois sous des noms différents, ne sont qu'une même expression du fait que l'énergie la plus faible confère à l'édifice la stabilité la plus grande.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

LA CATALYSE

 

  DOCUMENT           cnrs       LIEN

 

LA CATALYSE


La plupart des réactions biologiques qui forment le corps humain sont des réactions catalytiques. La catalyse joue un rôle également déterminant dans des processus industriels majeurs comme la synthèse de l'ammoniac, le raffinage du pétrole ou la réduction des oxydes d'azote dans les pots catalytiques. Un catalyseur est un composé qui rend possible une réaction chimique mais qui sort indemne de la transformation. Un catalyseur peut agir sur un acte élémentaire ou sur le bilan d'une réaction complexe ; enfin il peut orienter vers une réaction plutôt qu'une autre. La catalyse concerne tous les domaines de la chimie. La catalyse acido-basique concerne le domaine de la chimie organique. Les catalyseurs dans le domaine de la biochimie sont les enzymes qui doivent épouser une forme complémentaire du substrat pour s'adapter à lui, puis présenter un site actif où la réactivité est modifiée. La catalyse homogène est le domaine de la chimie organométallique ; elle concerne un centre métallique dont l'environnement électronique et géométrique est bien défini, ce qui permet de bien contrôler la réaction. La catalyse hétérogène concerne la science des surfaces et des interfaces. Du point de vue industriel, ces catalyseurs sont les plus employés car ils présentent de nombreux sites actifs qui sont utilisés de nombreuses fois de façon consécutive. Comprendre un processus catalytique, c'est aller au delà d'un simple bilan, cela nécessite de décrire les étapes du voyage partant des réactifs et allant vers les produits. Comprendre la catalyse, c'est décrire la réaction dans son environnement. Cela devrait être de plus en plus le cas durant le prochain siècle et cela devrait permettre d'améliorer les performances des catalyseurs déjà connus.

 

Consulter  le  document  PDF

 
 
   Fichier à télécharger : CATALYSE
 
 

CHIMIE ET ART

 

 

 

 

 

 

 

CHIMIE ET ART


C'est Gaston Bachelard qui, après Pasteur, attira l'attention sur les transactions et les créations matérielles dans la science et la chimie. Il rappelle que ce domaine dépasse, par sa richesse, la mémoire et l'imagination de tout homme. En réalité depuis qu'ils fabriquent des pierres taillées et des épieux appointés, depuis qu'ils utilisent le feu, depuis qu'ils tannent des peaux, qu'ils enduisent de couleurs leurs corps ou les parois des cavernes les Hommes sont plongés dans le monde de la chimie par l'intermédiaire de tous ces matériaux qu'ils expérimentent concrètement mais dont ils ne connaissent absolument pas la théorie.

Les métallurgistes, les verriers, les fabricants de couleurs ont sans doute compris quelques processus de la transformation des matériaux mais il semble que leur savoir soit resté empirique. Nous avons à faire à un énorme matériel, d'énormes vestiges que les Hommes ont produits d'une manière synthétique, ingénieuse, mais ils n'en savaient pas la théorie. Ils avaient un sentiment d'empirisme, ils réussissaient, et parfois d'une manière géniale, ces objets que l'on retrouve dans les tombes et les habitats. Tous ces objets, nous en avons la charge, des témoins, des références qu'il faut comprendre et essayer de conserver.

Tout a commencé lorsque Roentgen, il y a environ un siècle, a inventé les rayons X. En inventant les rayons X, il inventait l'invisible, il permettait de voir quantités de choses que nous ne pouvions percevoir avec nos yeux. Cet invisible va être source de quantité de travaux que ce soit en médecine, en physique et dans le monde du patrimoine. Une science, la science des matériaux, l'art dans le sens de ce qu'a fabriqué l'Homme, y a trouvé un outils précieux.


Texte de la 353e conférence de l’Université de tous les savoirs donnée le 18 décembre 2000. Art et Chimie Par Jean-Pierre MOHEN La chimie dont il est question n’est pas seulement l’étude de chaque élément séparé d’un corps complexe, ce qui est le cas général dans la nature ; elle est aussi l’observation de l’interaction des éléments entre eux, celle des éléments contenus dans ce corps mais aussi celle des éléments de leur environnement. Cette chimie analytique selon l’expression contemporaine se préoccupe des conditions de l’échantillonnage et de la mesure aussi bien que de la valeur sociale et culturelle de ses interrogations sur le vieillissement et la transformation de ses composantes avec le temps. Elle est malgré son autonomie méthodologique, une science appliquée. Quant à l’art, il est considéré dans son sens général qu’il avait encore au XVIIIe siècle, au temps de l’Encyclopédie de Diderot, c’est-à-dire qu’il désigne les produits des arts de l’humanité, il est lui aussi soumis à l’évolution des matériaux qu’il met en œuvre et à celle des mentalités de son auteur et des publics qui le reçoivent. La rencontre de plus en plus fréquente de l’art et de la chimie suscite une double interrogation : « que sommes-nous en mesure d’attendre d’une science des matériaux de l’art ? » et « en quoi celle-ci a-t-elle révélé un champ nouveau de la recherche appliquée, entraînant une prise de conscience liée à la responsabilité patrimoniale ? » Gaston Bachelard après Pasteur, attira avec le même enthousiasme, l’attention sur les transactions et les créations matérielles dont la science est la chimie. Il rappelle que ce domaine dépasse par sa richesse la mémoire et l’imagination de tout homme. Celui-ci est lui-même le résultat de cette chimie et pour exister il devient encore plus chimiste. Depuis que les humains fabriquent des pierres taillées et des épieux appointés depuis qu’ils utilisent le feu, depuis qu’ils tannent des peaux, depuis qu’ils enduisent de couleurs leur corps ou certaines parois de cavernes, ils manipulent les matériaux de la chimie pour en faire des matières vitales qu’ils expérimentent concrètement mais dont ils ne connaissent absolument pas la théorie. Les métallurgistes, les verriers, les fabricants de couleurs ont sans doute compris quelques processus de la transformation des matières premières mais bien qu’il semble que leur savoir soit resté empirique, ils ont créé des combinaisons nouvelles pour leurs besoins spécifiques. Les artisans ne peuvent se concevoir sans ces défis matériels qui prolongent directement leurs intentions. Sur ce point de la recherche des matériaux adaptés ou inventés, il existe une grande continuité entre les temps les plus anciens de l’humanité et les temps les plus récents. Pour approfondir la connaissance de ces patrimoines et en améliorer la conservation en les abordant par leur matérialité, la chimie analytique a su mettre au point des méthodes le plus souvent non destructives et constituer les fondements d’une science du patrimoine. L’approche consiste en un examen physique et optique préalable susceptible d’orienter la stratégie analytique. Les moyens d’étude du laboratoire du Centre de recherche et de restauration des musées de France (C2RMF) au Louvre permettent de mettre en œuvre cette méthodologie. Les examens comprennent des observations, sources d’imageries scientifiques obtenues grâce à des éclairages en lumière visible directe ou rasante, en ultraviolet, en infra rouge, en radiographie, en gammagraphie, en bétagraphie, etc. La microscopie se fait grâce à la binoculaire, au microscope métallographique ou au microscope électronique. La plupart de ces observations sont faites directement sur l’œuvre sans prélèvement d’échantillon ; le polissage d’une « lame mince » à partir d’un minuscule prélèvement est nécessaire pour le microscope métallographique et parfois (pas toujours si l’objet assez petit rentre dans la chambre d’observation) pour le microscope électronique. La numérisation en haute définition de ces images scientifiques permet non seulement de les consulter par thèmes indexés mais aussi de les traiter pour en accentuer les contrastes, les agrandir, en isoler certains détails. Les examens renseignent sur la technique de fabrication, sur les « repentirs », sur les réparations, sur les états de conservation successifs. Les analyses élémentaires étudient la composition chimique des différents constituants de l’œuvre. Les méthodes classiques de la chimie peuvent être utilisées mais elles sont destructives. Des échantillons sont également analysés en fluorescence X ou en diffraction X. Un appareil de fluorescence X portable a été testé sur la polychromie d’une tombe égyptienne nouvellement découverte à Saqqarah. L’analyse par faisceau d’ion mise au point avec l’accélérateur du Louvre AGLAE, permet aussi grâce à la méthode non destructive PIXE, de connaître la composition non organique d’une œuvre. Pour les matières organiques, on a recours à la chromatographie en phase gazeuse. Un appareil Raman, transportable permet d’évaluer les teneurs des matières organiques mais aussi des matières non organiques. L’originalité de ces méthodes est de fonctionner avec des échantillons très petits ou même de plus en plus directement sur l’œuvre. Une autre tendance est de mettre au point des appareils transportables pour étudier les œuvres fragiles ou monumentales des musées, ou les vestiges en cours de dégagement lors de la fouille archéologique. Un dernier secteur doit être ajouté, celui des méthodes de datation : la thermoluminescence étudie les minéraux chauffés (lœss, pierres de foyer, céramique) ; la méthode du carbone 14 pour laquelle un plan national est en cours d’élaboration, appréhende les échantillons organiques. Enfin, quelques autres méthodes plus particulières sont sollicitées comme l’étude utilisant le rayonnement du synchrotron du Lure à Orsay et du ESRF de Grenoble. Quelques exemples donnent une idée de la variété et de la richesse de l’exploration physico-chimique de ce patrimoine dans son contexte culturel archéologique ou artistique. Sept objectifs pour une science du patrimoine La finalité des recherches et des applications d’une science du patrimoine peut correspondre à six grands thèmes qui donnent une idée de l’ampleur du champ couvert par cette discipline essentiellement interdisciplinaire. 1 – Le premier thème concerne la science des matériaux du patrimoine. Elle identifie chacun de ces matériaux et peut en rechercher l’origine géologique pour les minéraux. Elle caractérise aussi les molécules des matières organiques. La chimie de la matière aide à reconnaître la richesse du monde, source d’objets multiples de prestige et de valeur culturelle. Elle seule nous permet d’appréhender à l’époque actuelle des nuances reconnues à travers le temps, à la suite d’une infinie curiosité empirique : il en est ainsi de la profondeur verte d’un jade et d’une jadéite, de l’intensité d’un bleu lapis-lazuli, de la pureté d’un or. Le vocabulaire chimique fonctionne alors comme une clé qui peut ouvrir un vaste champ d’investigation archéologique et historique. Deux exemples illustrent cette approche « archéométrique » appliquée au contexte fonctionnel et culturel, l’un concernant un minéral et l’autre un matériau organique (Amatore, Blanzat, 2000). La statuette en albâtre de la déesse Ishtar (du IIe siècle avant J.-C. à la fin du IIIe siècle après J.-C.) trouvée à Babylone en Mésopotamie, est conservée au musée du Louvre. Elle est représentée nue avec un croissant sur la tête. Elle est parée d’un collier et de deux boucles d’oreille en or. Ses yeux et son nombril sont incrustés de trois cabochons rouge. L’expertise en est réalisée à l’aide de l’accélérateur de particules du C2RMF, grâce à la méthode non destructive PIXE, directement sur la statuette. Les éléments majeurs, en particulier l’oxygène et l’aluminium, un corindon coloré par du chrome définirent un rubis. Les éléments traces, dont le fer, le vanadium, le titane et le gallium rapprochent les trois rubis d’une même origine géochimique, d’un groupe déterminé à la suite d’une enquête géologique et provenant de Birmanie. Se pose alors la question en termes inédits, des relations entre la Mésopotamie et l’Extrême-Orient. Les adhésifs utilisés par les hommes préhistoriques semblaient ne pas poser de problèmes particuliers. On pensait que pour fixer les pointes en os ou en silex à l’extrémité des sagaies et des flèches ou pour réparer des fissures de vases en céramique, le seul matériau facilement accessible était le brai de bouleau obtenu en faisant brûler de l'écorce de cet arbre. L’étude en chimie analytique a montré à partir d’échantillons néolithiques (4000 – 3000 avant J.-C. ) provenant de la grotte de Giribaldi près de Nice (Alpes Maritimes) et du site lacustre de Chalain (Jura) qu’outre le brai de bouleau, d’autres brais très variés avaient été fabriqués à partir d’écorces de résineux tel le pin à Nice et de feuillus tels l’aulne, le chêne ou le hêtre à Chalain ; un mélange de graisse animale et de bitume sans doute originaire de Suisse occidentale était également utilisé dans le Jura. Dans le cas des adhésifs, le type de matériau qui semblait banal, s’avère varié et de qualité sans doute diversifiée. Cette découverte ouvre la voie à une nouvelle recherche intéressante sur une technologie préhistorique originale. 2 – Le thème suivant, le deuxième, étudie la mise en œuvre des matériaux, c’est-à-dire la technique. Lorsque celle-ci est appréhendée dans sa complexité, elle est la source des critères qui étayent l’expertise d’authenticité. La technique révèle en effet son auteur grâce à des indices souvent ténus qui prouvent que les matériaux produits ne sont pas le plus souvent naturels comme l’apparence le ferait croire mais artificiels et synthétiques. Les études sur la technique révèlent en outre les degrés d’innovation de certains corps de métier ou de créativité de certains artistes. Les fards de l’Égypte ancienne sont connus par quelques poudres conservés dans des flacons ou petits pots funéraires conservés au Musée du Louvre : ils sont fabriqués pour les trois quarts à partir d’un produit à base de plomb associant quatre phases principales, la galène pour les tons foncés et trois matières blanches, la cérusite, la phosgénite et la laurionite, les deux dernières étant obtenues artificiellement à la suite d’un traitement aqueux répétitif associé à du sel gemme et parfois à du natron. Les résultats sont des « écumes d’argent lavées » selon l’expression de l’auteur ancien Pline qui explique qu’elles servaient encore à l’époque gréco-romaine à soigner les maladies des yeux et de la peau et à laver les cheveux. Il semble bien que les Égyptiens ont découvert d’une manière empirique mais déterminée, l’intérêt de ces préparations par voie aqueuse pour allier les effets esthétiques des fards à leurs vertus pharmaceutiques. Ce programme de recherche qui s’étend maintenant à la Méditerranée antique, est mené par le Centre de recherche et de restauration des musées de France en partenariat avec L’Oréal (Walter, Martinetto, Tsoucaris, …1999). La technique de Rembrandt met en valeur l’originalité de l’artiste. Elle a été précisée à l’occasion de la préparation en 1995 d’une exposition au Metropolitan Musuem, au titre suggestif « Rembrandt Not Rembrandt ». Il s’agissait pour le musée new-yorkais de faire le point sur la collection du Musée, comprenant dix-huit peintures du maître et vingt-cinq autres désormais attribués à des élèves, des continuateurs ou des imitateurs. Ces tableaux ont fait l’objet d’examens radiographiques, auto-radiographiques, neutro-radiographiques, chimiques, etc. La caractérisation originale de Rembrandt est d’avoir substitué au blanc de plomb du calcaire appelé « lowitt » qui mélangé à de l’huile, devient transparent et se mêle à des pigments de terre ou des laques, pour donner des effets de profondeur comme dans La Toilette de Bethsabée. Rembrandt avait aussi le secret d’introduire dans sa couche de préparation de la toile, du quartz et de l’argile blanche qui avaient le meilleur effet sous la couche picturale. Comme liant, il préférait l’huile de noix alors que ses élèves utilisaient plus communément l’huile à base de résine de pin. Pour les couleurs, le maître savait jouer en complément du smalt (couleur bleu), des effets optiques de poudres de verre contenant du cobalt, ou de l’arsenic pour les couleurs sombres. Ces exemples montrent combien la technique était maîtrisée et inséparable du génie de l’artiste. 3 – Le troisième thème est la datation qui grâce au développement des méthodes physico-chimiques des cinquante dernières années élabore une chronologie universelle qui recule de plusieurs milliers d’années les limites de l’histoire humaine traditionnelle puisant ses sources dans les seules archives écrites de quelques grands états. La méthode du carbone 14 en particulier mise au point en 1949 par le physicien américain Libby, ce qui lui valut le prix Nobel, permet de dater tout échantillon de matière organique ayant absorbé l’isotope 14 radioactif du carbone. Les résultats de cette méthode, pertinents jusqu’à 50 000 ans, sont précisés grâce à la dendrochronologie qui mesure les cernes des arbres anciens et fossiles jusqu’à 10 000 ans. La thermoluminescence évalue l’ancienneté de la dernière chauffe des minéraux (pierre ou poterie). D’autres méthodes isotopiques datent des strates géologiques plus anciennes, ce qui rendent possibles les recherches spectaculaires sur l’hominisation. Parmi les applications récentes de ces datations, celles des grottes ornées paléolithiques ont remis en cause le primitivisme des manifestations les plus anciennes comme celles de la grotte Chauvet (Ardèche) fréquentée il y a 32 000 ans. L’incroyable grotte peinte de Cosquer (Bouches-du-Rhône) a pu être authentifiée malgré une entrée à 40 m au-dessous du niveau de la mer ! Cette bizarrerie s’explique en fait par la remontée des eaux après la dernière période glaciaire qui correspond aux époques de fréquentation des artistes préhistoriques. Grâce à l’utilisation d’un accélérateur AMS, les échantillons organiques nécessaires à l’étude du carbone 14 sont de plus en plus microscopiques. Ainsi quelques particules prélevées dans des poteries (laboratoire de Lyon) ou dans la couche de préparation de tableaux (laboratoire Smithsonian à Washington) suffit pour obtenir des résultats. C’est ainsi également que le suaire de Turin a commencé à poser le problème de la relation entre la foi et l’image historique. 4 – Le quatrième thème attire l’attention sur les problèmes d’altération de vieillissement ou tout simplement de transformation des matériaux. L’introduction dans l’approche des œuvres patrimoniales, de la dimension du temps, incite à aborder de manière scientifique et inédite les caractérisations des altérations pour en comprendre les processus en temps réel et non en temps compressé à l’aide de méthodes artificielles comme on le fait d’ordinaire dans les étuves des laboratoires des sciences des matériaux. L’altération des verres anciens est un bon exemple qui intéresse à la fois des responsables des collections d’émaux médiévaux ou ceux des vitraux de cathédrale, et en même temps les scientifiques du stockage des déchets nucléaires. Les verres potassiques sont plus instables que les verres sodiques plus anciens. La déficience chimique entraîne une réaction physique qui fissure le réseau cristallin et laisse s’introduire l’humidité qui provoque les écailles. Des recommandations de conservation préventive peuvent être faites. Dans d’autres cas, la reconnaissance de la décoloration irréversible de pigments entraîne une prise de conscience sur la fragilité de l’œuvre et les limites de notre appréhension de l’œuvre originelle. C’est le cas de deux pigments organiques rouge, l’éosine et le carmin de cochenille, couleurs de synthèse instables que Van Gogh a utilisées dans sa dernière période, celle d’Auvers-sur-Oise. Décolorés par la lumière, ils apparaissent de nos jours blancs, alors qu’ils devaient cerner de rouge les contours des visages et des mains du « Docteur Gachet » et les « Deux petites filles »… (Giraudy, 1999). Les effets de couleur et de surface sont également étudiés dans le cas des patines préméditées ou naturelles. Le problème se pose aussi bien pour les peintures et leur glacis délicat, pour les bronzes antiques traités selon des recettes transmises par Pline, pour ceux de la Renaissance imitant l’ancienneté des précédents, pour les bronzes récents monumentaux destinés à être exposés dans des centres urbains pollués, etc. Parmi les sujets originaux de ce thème, il faut signaler l’examen des produits de corrosion des métaux qui ont minéralisé de nombreux restes organiques ainsi fossilisés : ce sont des textiles de tous genres, des fourrures, des cuirs renseignant sur les vêtements et sur les rites des tombes dans lesquelles ces vestiges sont trouvés. De nombreuses études existent aussi sur le vieillissement des matériaux de construction. Le laboratoire de recherche des monuments historiques à Champs-sur-Marne travaille surtout sur la pierre et les bétons. Comment en extraire les sels qui s’infiltrent depuis le sol humide par capillarité ? Comment consolider certaines pierres de manière efficace ? Faut-il remplacer les pierres malades ? Des grands monuments comme les cathédrales de Strasbourg, d’Amiens, de Chartres, de Notre-Dame de Paris sont des chantiers quasi permanents. Les travaux y sont de plus en plus minutieux et les recherches sur les évolutions de la polychromie des sculptures ont donné quelques résultats spectaculaires à Poitiers et à Amiens. 5 – Le cinquième thème couvre à lui seul un champ considérable, celui de la restauration, considérée comme une « reconnaissance » de l’objet ou de l’œuvre d’art, au-delà des injures du temps et au-delà des anciennes restaurations qui masquent souvent des aspects originels. La chimie des matériaux de la restauration renseigne sur les vieux produits, mastics, jus ou vernis qu’il convient d’enlever et parfois de remplacer. Elle évalue les nouveaux adhésifs, solvants et vernis mais aussi les types de peinture, souvent des aquarelles destinées à combler les surfaces lacunaires. Le principe de la réversibilité de la restauration doit être chimiquement assuré. Malgré une théorie bien élaborée de la restauration (C. Brandi, 1963), les décisions à prendre sont souvent subtiles et apparaissent souvent comme des compromis car si le but est bien de se rapprocher le plus possible de l’état originel de l’œuvre, un autre principe recommande que cette œuvre se manifeste aussi dans son état historique patrimonial. De nombreuses sculptures antiques en marbre ont ainsi reçu des compléments de nez, ou de main ou même de bras ou de jambe. Dans la mesure où l’œuvre est connue complétée, l’intervention minimaliste de restauration consiste à laisser ces ajouts que l’on reconnaît grâce à une coloration légèrement différente. Le cas de la sculpture grecque du musée du Louvre, représentant un guerrier combattant et appelée Le Gladiateur Borghèse est révélateur : cette œuvre est signée de son auteur, Agasias d’Ephèse, fils de Dosithéos, date d’environ 100 avant J.-C. ; trouvée au début du XVIe siècle à Anzio, sur la côte du Latium en Italie, elle a été restaurée en 1611 sur l’ordre du cardinal Scipion Borghèse, pour être représentée dans la villa Borghèse. Elle fut achetée en 1807 pour le musée du Louvre. Lors de la restauration de la sculpture en 1996, une étude détaillée permit d’identifier le marbre d’origine et celui des pièces complémentaires, de repérer avec précision par gammagraphie les différents montages des fragments, de localiser par fluorescence UV les mastics des différentes interventions qui furent ensuite analysés chimiquement comme références des mastics utilisés au XVIIe siècle. Les principes retenus pour une restauration prudente de cette œuvre célèbre ont été de vérifier l’authenticité du remontage de chaque partie de la sculpture pour rendre compte en particulier du mouvement voulu par l’artiste, de respecter l’historicité de la restauration « Borghèse » et d’atténuer l’assombrissement de la patine de la pierre, dû à la crasse accumulée année après année (Bourgeois, Pasquier, Pontabry, 1997). Les résultats de l’analyse chimique ont été décisifs aussi pour caractériser un repeint de goût du manteau de l’intendant du tableau des Noces de Cana (1563) peint par Véronèse et conservé au musée du Louvre. Lorsque, entre 1990 et 1992, on décida de restaurer cette toile peinte de grandes dimensions (6,77 m de hauteur par 9,94 m de largeur) une étude détaillée pluridisciplinaire a permis d’argumenter chaque décision. Celle qui s’est imposée pour le manteau de l’intendant a consisté à enlever une couche de couleur rouge qui avait été ajoutée sur une couche verte. Quand les restaurateurs de l’équipe de Marie-Alice Belcour s’aperçurent à la suite de micro-sondages que le manteau vert était complet et que la couche rouge recouvrait aussi en partie l’un des doigts de la main de l’intendant, des doutes sur l’authenticité de la seconde couche se précisèrent. Jean-Paul Rioux, chimiste, a constaté que la composition du liant du manteau rouge est différente de celle des autres couleurs du tableau, avec en particulier de l’adjonction de la résine de pin. D’autre part, la couche verte assez usée a été aplanie à la suite du bouchage de certaines lacunes avant que la couche rouge ne soit étalée ; il a donc fallu une certaine durée entre la fin du tableau de Véronèse et l’ajout de la couche rouge sur le manteau vert. Deux repaires chronologiques confirment ce scénario et nous donnent une indication sur le temps qui s’est écoulé entre les deux couches. En effet, une première copie des Noces de Cana de Véronèse a été peinte par Andrea Vincentino en 1594, 31 ans après que Véronèse eût terminé son tableau : le manteau de l’intendant est alors vert. La première copie montrant le manteau rouge date au plus tôt de 1607 et a donc été ajouté après la mort de Véronèse en 1588, 48 années après que le maître eût posé la dernière retouche sur les Noces de Cana (Habert, Volle, 1992). 6 – La complicité de l’art et de la chimie vient du même besoin d’invention dans l’expérience de la matière. L’artisan ou l’artiste, comme le chimiste, sont confrontés aux éléments naturels qu’ils veulent explorer et maîtriser. La création chimique rejoint la création artistique. Née de la nomenclature de Lavoisier, la chimie moderne, créatrice du schéma de la complexité ordonnée du monde, a lié son destin à l’avenir de l’homme en continuant à découvrir la nature et en l’enrichissant de produits synthétiques parfois fabriqués à l’échelle industrielle. Ces vastes perspectives chimiques ont des incidences sur la création artistique et dans le domaine patrimonial dans ce qu’ils ont de matériel et de subtilement spirituel. Parmi les matériaux de l’art du XXe siècle, si variés et si nombreux, une attention particulière doit être portée à l’acier, au plastique et au béton. Avec les constructivistes et les futuristes des années 1900-1920, la technique et la participation des techniciens sont introduits dans la dynamique conçue par l’artiste. Louis Nevelson en 1983 après Anthony Caro en 1969 découvrent ainsi la « légèreté » de l’acier ; le béton armé apparu vers 1850, constitue une roche artificielle qualifiée de « matériau miracle » par l’architecte Louis Kahn. Picasso et Kleinholz dans les années 1960, Arman et Vostell à partir des années 1970 ont exploité cette matière première structurante pour des sculptures de plus en plus monumentales qui s’intègrent dans des ensembles urbains bétonnés. Le premier plastique artificiel est inventé en 1907 par un chimiste belge, Léon Baekeland qui met au point la « bakélite ». La gamme des plastiques de synthèse envahit le monde moderne à partir de 1920, avec en particulier la mousse de polyuréthane et l’acrylique. César produit ses expansions avec cette mousse dont il contrôle les effets de la réaction chimique jusqu’à la solidification et il recouvre la surface d’une laque acrylique. Un autre type de plastique, le polystyrène expansé est utilisé vers 1966 par Dubuffet pour ses sculptures hautes et légères comme L’Hourloupe ou Coucou Bazar. Les Nanas plantureuses de Niki de Saint-Phalle sont élaborées en polyester puis peintes de bandes de couleurs vives (de Méredieu, 1995). La recherche des matériaux est aussi importante dans l’art contemporain que dans l’art ancien. La variété plus grande des produits modernes donne parfois l’impression d’une dispersion de l’activité artistique. Mais l’artiste et le scientifique ont ceci de commun qu’ils se placent à la frange du connu pour explorer les possibilités inédites. Les questions posées aux laboratoires par les artistes contemporains et par les responsables de la conservation de leurs œuvres, font apparaître à propos de ces matériaux deux aspects majeurs, celui de la mise en œuvre novatrice et de la création et celui du destin de l’œuvre éphémère, modifié ou stabilisé. Et lorsque l’art se veut exploration de l’invisible, langage pur, art conceptuel, il retrouve comme pour la danse ou le chant, la partition, l’enregistrement sous toutes ses formes, image numérisée, bande sonore, cahier des charges, traces d’un instinct de mémoire qui s’apparente à une réaction de survie, par enrichissement illimité de nos images mentales dont les enchaînements forment « la matière-esprit » (Piet Mondrian ou la conscience d’être). La relation art et chimie pose donc aussi le problème de l’avenir de cet art qu’il soit patrimonial ou en cours de conception. 7 - Connaître pour prévoir, prévoir pour sauvegarder et créer. La chimie et les autres approches scientifiques permettent d’appréhender les systèmes naturels ou anthropiques qui conditionnent l’évolution des matériaux de l’art. Les observations liées souvent à l’interprétation de mesures renseignent sur les mécanismes d’altération et confortent quelques recommandations sur les états stables favorables à la préservation des œuvres ou des documents. La sensibilité des pigments à la lumière et en particulier aux ultra-violets, celle de céramiques égyptiennes imbibées de salpêtre migrant vers la surface quand l’humidité rentre dans la poterie puis s’en évapore ou celle de l’argent qui se ternit en fonction de la pollution de l’air sont évaluées lors d’un diagnostic qui est la reconnaissance du phénomène, puis d’une prédiction qui signifie la connaissance du processus d’évolution et enfin l’appréhension des causes du phénomène sur lequel il est parfois possible d’agir : ainsi, dans les trois exemples précédents, le filtre UV est parfois suffisant pour protéger certaines couleurs, la désalinisation de la poterie s’impose et la purification de l’air est recommandée pour garder l’éclat de l’argent. La conservation préventive tente ainsi de modéliser les paramètres environnementaux et leurs implications sur les œuvres selon des échelles de temps plus ou moins lointains. Elle répond ainsi à des exigences sociales des décideurs politiques et des responsables des collections ainsi que des visiteurs aussi bien qu’à des règles déontologiques de la préservation des valeurs culturelles. Conclusion Le chimiste de Jules Vernes naufragé sur une île déserte sait reconnaître les matériaux bruts et les minéraux nécessaires à sa survie. C’est dans le même esprit que l’humanité a cherché et adapté les matériaux des arts les plus variés, produits de son imagination, de sa technique, de sa culture. Ainsi les yeux du scribe de Saqqarah (vers 2400 avant J.-C.), conservé au musée du Louvre sont-ils une construction savante imitant les yeux anatomiques avec le globe oculaire, un cristal de roche tronconique pour la pupille avec en son centre une cupule noire pour l’iris, une magnésite pour le blanc de l’œil veiné de filets roses, des sourcils en cuivre dont le vert de gris remplaçait le fard couleur de mer originelle. Les yeux sont devenus regard exprimant la notion d’éternité qui prévalait au temps des premiers pharaons. La rencontre de l’art et de la chimie révèle à partir d’une interrogation fondamentale sur l’activité humaine, et à partir d’une méthodologie analytique et prédictive appliquée qui lui est en partie propre, en développant par exemple les méthodes non destructibles, une vie patrimoniale qui participe à la vie sociale de notre époque contemporaine. Bibliographie Amatore C., Blanzat B., éd., 2000, La chimie analytique, Mesure et Société, rapport sur la science et la technologie n° 6, Académie des Sciences, Ed. Tec et Doc, Londres, Paris, New-York, Chimie analytique et patrimoine, p. 40.63. Berducou M.C., éd., 1990, La conservation en archéologie, Masson, Paris. Bergeon S., 1990, Science et Patience ou la restauration des peintures, Réunion des musées nationaux, Paris. Bourgeois B., Pasquier A., Pontabry A., 1997, La restauration du Gladiateur Borghèse, La Revue du Louvre et des musées de France, n° 4, pp.21.24. Brandi C., 1963 (1966), Il restauro, teoria e pratica, Editori Riuniti, Roma. Giraudy D., éd.1999, Cézanne Van Gogh et le docteur Gachet, Dossier de l’Art, Mars Habert J. Volle N., éd. 1992, « Les Noces de Cana » de Véronèse, une œuvre et sa restauration, Réunion des Musées Nationaux, Paris Méredieu F. de, 1995, Histoire matérielle et immatérielle de l’art moderne, Bordas, Culture, Paris. Mohen J.-P., 1996, L’art et la science, l’esprit des chefs-d’œuvre, Découvertes Gallimard, Réunion des musées nationaux, Sciences, 299, Paris. Mohen J.-P., 1999, Les sciences du patrimoine, identifier, conserver, restaurer, Edition Odile Jacob, Paris. Stanley Price N., Talley M. Kirby Jr., Melucco Vaccaro A., éd., 1996, Historical and Philosophical Issues in the Conservation of Cultural Heritage, the Getty conservation institute, Los Angeles. Techné, La science au service de l’histoire de l’art et des civilisations, Centre de recherche et de restauration des musées de France, Réunion des musées nationaux, 1 à 14, Paris en particulier : 7, Art et Chimie au Louvre, 1998. Walter P.,Martinetto P., Tsoucaris G., Breniaux R. Levebvre M.A., Richard G., Talabot J., Dooryhee E., 1999, Making make-up in Ancient Egypt, Nature, 397, p.483.484
.

 

 DOCUMENT       canal-u.tv     LIEN

 

 

 
 
 
 

MORPHOGENÈSE CHIMIQUE

 

 

 

 

 

 

 

 

Texte de la 237e conférence de l’Université de tous les savoirs donnée le 24 août 2000.

Morphogenèse chimique : les réactions créatrices des rythmes et de formes par Patrick De Kepper

La chimie est la science des transformations moléculaires de la matière. Les réactions chimiques expriment au niveau macroscopique les bilans de ces transformations, autrement dit quantifient comment les composés initiaux (dits réactifs) sont convertis en d'autres composés plus stables (dits produits). Le plus souvent, ces opérations se font à travers des cascades de composés intermédiaires. Au niveau microscopique ces transformations résultent de recombinaisons et d'échanges d'éléments constitutifs (électrons, atomes ou groupes d'atomes) au cours de collisions aléatoires entre ces composés. Les collisions sont rendues possibles grâce aux mouvements aléatoires des molécules sous l'effet de l'agitation thermique (mouvement brownien). En principe, des collisions ultérieures entre les produits peuvent redonner naissance aux réactifs de départ mais l'efficacité des conversions n'est généralement pas identique dans les deux sens. Pour des conditions données, une direction de transformation est privilégiée. Dans un système fermé, par exemple un simple flacon, une concentration fixe de toutes les molécules est atteinte au bout d'un certain temps, quand les vitesses de transformation dans les deux sens sont égales. Cet état stationnaire où plus aucun changement global n'a lieu correspond à l'état d'équilibre thermodynamique. Dans un fluide (liquide ou gaz) les mouvements aléatoires dispersent les différentes molécules dans tout le milieu. Au niveau macroscopique ce phénomène de dispersion des molécules est le moteur de ce que l'on appelle la diffusion. La diffusion est un processus homogénéisant ; c’est ce qui fait qu’une goutte d’encre déposée dans un verre d’eau non agitée se répartit lentement et uniformément dans tout le contenu du verre.

L’application la plus connue de la réaction chimique est celle de la synthèse : matériaux, engrais, médicaments, etc. L’autre grande utilisation de la réaction chimique est liée à la production de chaleur qui lui est souvent associée. C'est le cas de la combustion (oxydation par l'oxygène de l'air) du charbon ou du fuel dans nos chaudières ou dans les centrales « thermiques ». Ce dégagement de chaleur et la dilatation des gaz qu'il entraîne est aussi mis à profit dans les moteurs de nos voitures ou dans la propulsion des fusées.

Mais la réaction chimique a une propriété à laquelle on pense beaucoup moins : sa capacité à générer des signaux périodiques dans le temps ou des motifs organisés dans l'espace Cette propriété est directement liée aux aspects dynamiques des transformations chimiques (et paradoxalement aux processus de diffusion). Pourtant, ces phénomènes sont à l’œuvre dans la plus grande « industrie chimique » qu'il soit à la surface de nôtre planète, celle des êtres vivants.

L'objet de cette conférence est de vous présenter cet aspect encore bien souvent méconnu de la réaction chimique.

Des structures dissipatives

Les lois de la thermodynamique sont formelles, quelle que soit la complexité d’une réaction, aucune variation temporelle ou modulation spatiale des concentrations n'est possible en solution, à l'équilibre thermodynamique. Dans les années 60, I. Prigogine (prix Nobel 77) et ses collaborateurs de l'École de thermodynamique de Bruxelles établissent clairement dans quelles conditions des solutions réactionnelles peuvent présenter des phénomènes d'auto organisation. Ceux-ci ne sont possibles que si le système évolue suffisamment loin de son état d'équilibre thermodynamique. Or, comme toute réaction chimique en système fermé évolue inexorablement vers l’équilibre, les pulsations et les motifs chimiques dont il sera ici question ne peuvent prendre naissance que lorsque les réactions n'ont soit pas encore consommé de façon significative les réactifs de départ, soit parce qu'elles sont maintenues loin de l'équilibre par des apports constants

1

de réactifs frais et par l'évacuation des produits de la réaction. Dans ce dernier cas, on dit que le système est ouvert. L’observation de nos phénomènes d’auto organisation sont donc subordonnés à une consommation d’énergie, ici il s’agit d’énergie chimique, on les qualifie de « structures dissipatives »1.

Les réactions oscillantes

Loin de l'équilibre toutes les réactions ne donnent pas naissance à des structures dissipatives. Seules des réactions chimiques dont les mécanismes cinétiques présentent des boucles de rétroactions activatrices en sont capables. Le cas le plus simple d'une telle boucle de rétroaction est l'auto-catalyse (on entend par là qu'un produit de la réaction catalyse sa propre formation). Ce type de rétroaction est caractéristique des systèmes explosifs au sein desquels une réaction « s'emballe ». Dans les systèmes qui s'auto organisent, il est évident que cette rétroaction doit à un moment ou à un autre être tempérée, inhibée par un processus antagoniste. De tels mécanismes cinétiques où entrent en compétition des processus activateurs et inhibiteurs se retrouvent dans une classe spéciale de réactions chimiques : les réactions chimiques oscillantes. Si celles-ci sont relativement exceptionnelles dans les réactions inorganiques, elles sont au contraire très courantes dans les systèmes biochimiques où elles régissent des processus physiologiques essentiels ainsi que la régulation de ceux-ci. Mentionnons, à titre d’exemple, les réactions de la glycolyse, le moteur énergétique des cellules. La production de l’AMP-cyclique chez certains amibes accrasiales, les pulsations des cellules nodale du cœur, les rythmes circadiens.2

Découvertes à l'aube de ce siècle, les réactions chimiques oscillantes en solution homogène n'ont donné lieu à une étude extensive que dans la deuxième moitié des années 70, après que l'on ait appris à les mettre en œuvre dans des réacteurs ouverts. Toutefois, on connaissait dès la fin du XIXe siècle des phénomènes oscillants impliquant des réactions chimiques mais, le plus souvent, ils mettaient en jeu des échanges à l'interface entre deux phases (liquide-solide, liquide-gaz).3 La première réaction chimique oscillante dont le mécanisme ne fait pas intervenir d’interface fut découverte, en 1921, par William Bray de l'université de Californie, lors de ses études sur la décomposition de l'eau oxygénée par l'ion iodate. À l'époque, le caractère homogène de la réaction fut mis en doute par une grande majorité de chimistes qui imprégnés des principes de la thermodynamique des systèmes à l'équilibre, ne pouvaient admettre que de telles oscillations puissent se produire dans des solutions monophasiques.

La découverte, en 1951, d'une autre réaction oscillante par Boris P. Belousov, biochimiste soviétique, ne reçut pas un meilleur accueil de la part de ses pairs. Ce n'est qu'en 1958 que Belousov réussit à publier sa découverte dans un obscur journal de médecine. Mais sa découverte éveilla l'attention d'autres physico-chimistes et électrophysiologistes russes parmi lesquels Anatol Zhabotinsky, alors jeune étudiant à Moscou. Celui-ci proposa entre autre une version modifiée de la réaction de Belousov constituée d'une solution contenant initialement les ions bromate et céreux, de l'acide malonique, et un indicateur red-ox la ferroïne, permettant d'obtenir de spectaculaires changements périodiques de couleur, du rouge au bleu. Cette réaction, maintenant connue sous le nom de « réaction de Belousov-Zhabotinsky » (ou « réaction BZ »), est encore l'une des plus populaires. Le caractère homogène du processus oscillant de cette réaction fut admis, par un nombre croissant de chimistes au cours des années 70, grâce à élucidation du mécanisme cinétique de la réaction par Richard Noyes et de ses collaborateurs de l'université de

l'Oregon. L’histoire du développement des réactions oscillantes est rapportée dans un ouvrage récent par A. Pacault et J.J. Perraud.4

Les premières réactions oscillantes avaient été découvertes par pur hasard. Bien à la fin des années 70, de nombreuses variantes des deux premières réactions fussent connues, il n'existait pas de méthode systématique pour découvrir des réactions chimiques oscillantes réellement nouvelles. Durant toutes ces années, la plupart des études sur les réactions oscillantes étaient menées en réacteur fermé. Nous savons maintenant que, dans ces conditions, la grande majorité des réactions atteignent leur état d'équilibre en un temps plus court qu'une période d'oscillation et qu’en conséquence de tels réacteurs sont inappropriés pour la recherche de nouvelles réactions oscillantes. Pour une démonstration spectaculaire de réaction oscillante voir annexe 1.


Notre équipe au centre de recherche Paul Pascal à Bordeaux a été la première à faire un usage systématique de réacteurs ouverts dans l'étude des réactions oscillantes. Nous avons utilisé Des réacteurs de volume constant, vigoureusement brassés, pour assurer l’homogénéité des solutions, et alimentés en continu par des solutions de réactifs frais, la conception de ces réacteurs a été empruntée aux génie chimique. Dans de tels systèmes . le comportement oscillant d'une réaction peut être maintenu tant que le réacteur est alimenté. On a pu ainsi, non seulement observer de nombreux comportements périodiques mais aussi des oscillations non périodiques (chaos déterministe) et des phénomènes de multistabilité (phénomènes de mémoire dynamique). L'utilisation de ces réacteurs continus agités à aussi permis de développer des méthodes pour découvrir de nombreuses autres réactions chimiques oscillantes dont la réaction entre les ions chlorite, iodure et l’acide malonique, dite réaction CIMA. Celle-ci a joué un rôle important dans les développements récents de structures spatiales chimiques. On compte maintenant une trentaine de familles de telles réactions totalisant plus de trois cents variantes. Elles sont essentiellement fondées sur la chimie des composés oxygénés des halogènes, du manganèse, du soufre et de certains composés azotés.5

Les ondes chimiques et les réacteurs « spatiaux ouverts »

Il est assez facile d'imaginer que, lorsqu'une solution chimique oscillante n'est plus rapidement uniformisée par brassage mécanique, l'on puisse, au moins temporairement, produire une différence de phase entre les différents points du système réactionnel et ainsi engendrer une onde de phase. Cette onde fait naître des différences de concentrations locales, qui peuvent être assez importantes. En principe, la diffusion moléculaire devrait graduellement estomper ces différences et, à terme, la solution devrait osciller uniformément, sans déphasage ; mais de telles inhomogénéités spatiales ne régressent pas toujours et des ondes peuvent subsister aussi longtemps le système réactionnel évolue suffisamment loin de l'équilibre. Dans certains cas ces ondes sont liées aux propriétés fortement relaxationnelles de certains états oscillants ou des états stationnaires voisins de ces états oscillants. Le mécanisme de propagation sans amortissement de ces ondes est associé à un phénomène d'amplification chimique locale des variations de concentration, elles-mêmes induites de proche en proche par la diffusion. Par analogie avec la propagation d'un stimulus le long d'un axone, on qualifie ces ondes « d'ondes d'excitabilité ». Lorsque des mélanges appropriés de la réaction BZ (voir annexe 2) sont répandus en couche mince dans une boite de Pétri ces ondes d'excitabilité peuvent former des motifs soit en forme de « cible » (figure 1a) dont les anneaux s'éloignent du centre pendant que, périodiquement, un autre

anneau émerge au centre de la « cible » ; soit en forme de spirale d'Archimède (figure 1b) obtenue par rupture volontaire ou non d’un front d’onde circulaire. Mais dans ces expériences en réacteur fermé le milieu évolue inexorablement vers son état d'équilibre thermodynamique et les ondes disparaissent au bout d'un temps plus ou moins court. Dans ces conditions, seules les propriétés les plus simples et les plus robustes de ces trains d'ondes pouvaient être examinées.

a) Structures « cibles » b) Structure en spirales obtenues après rupture d’un front d’onde (image A.-T. Winfree).

À partir du milieu des années 80, un petit nombre d'équipes dont la notre ont commencé à concevoir et construire différents réacteurs spatiaux ouverts. Ceux-ci devaient satisfaire à deux exigences apparemment contradictoires : alimenter en permanence des mélanges réactionnels en réactifs frais, en tous points, et éviter de créer des écoulements fluide qui perturberaient le transport diffusif des molécules. Ceci a été résolu en travaillant dans des réacteurs constitués par de minces blocs d’hydrogel (en forme de bande parallélépipédique, d’anneau ou de disque) alimentés à l’intérieur par diffusion de réactifs à partir de faces opposées en contact avec des réservoirs de réactifs constamment renouvelés. Rappelons qu'un gel est généralement constitué d'un réseau plus ou moins lâche de longue chaînes entrelacées de polymères, l'ensemble étant gonflé par un solvant (comme dans nos gélatines alimentaires). Dans notre cas le polymère est soit de l'agarose soit du polyacrylamide tandis que le solvant est de l'eau. La finesse des mailles du gel permettent de nous affranchir de tout grand mouvement convectif sans faire opposition aux processus de diffusion.

4

La première réaction oscillante étudiée dans ce type de réacteur ouvert fut la réaction BZ Des études effectuées à l'université d'Austin, dans des réacteurs ouverts constitués de minces disques de gel, ont montré l'extraordinaire complexité de la dynamique des cœurs des ondes spirales, dynamique prévue depuis déjà de nombreuses années par les théoriciens mais mal contrôlés dans les expériences antérieures. Pour notre part, nous avons, étudié avec cette même réaction de nouvelles formes d'ondes d'excitation, dans un réacteur constitué d'un anneau plat de gel. Celles-ci ont alors une forme de fer à cheval et tournent perpétuellement en rond le long de la partie médiane de l'anneau, comme illustré dans la figure 2. Nous avons appelé « excyclons » ce type d'ondes d'excitation tournant comme un carrousel .Ces ondes sont généralement de forme identique et réparties de façon équidistantes le long de l'anneau. Toutefois, la symétrie de l'ensemble peut être inférieure au nombre des ondes et même varier au cour du temps de façon très complexe.

Figure 2 : Excylons : Train de sept ondes d’excitation de la réaction BZ tournant indéfiniment dans un réacteur en forme d’anneau plat alimenté en réactif par diffusion à

partir de ses bords intérieur et extérieur.

Les motifs chimiques immobiles

Tous les motifs chimiques qui bougent reposent sur des instabilités qui agissent dans le temps mais il existe d’autres mécanismes d’auto organisation qui eux sont indépendants du temps et engendrent des motifs chimiques stationnaires. Un tel mécanisme d'apparition spontané de structures spatiales chimiques stationnaires fut proposé clairement pour la première fois en 1952 par le mathématicien anglais Alan Turing, dans un mémoire resté fameux et intitulé Les bases chimiques de la morphogenèse. Alan Turing est avant tout célèbre pour avoir décrypté les codes secrets des armées du IIIe Reich. Dans ce but, il a conçu et construit, en 1943, le premier calculateur électronique, Colossus. Pour ce fait et pour ses études de logique, il est considéré à juste titre comme l'un des pères de l'informatique. Grâce à son article de 1952 cité plus haut, Alan Turing est aussi l'un des pères de la biologie théorique moderne. Dans ce travail, Turing propose un mécanisme ingénieux d'apparition de formes fondé sur la synergie entre réactions chimiques et processus de diffusion.

5

Le secret des structures proposées par Turing réside dans la cinétique non linéaire de la réaction associée à des différences de diffusivité des espèces chimiques mises en œuvre. Plus précisément, l'inhibiteur doit diffuser plus vite que l'activateur. Ces conditions, assez difficiles à réunir dans les milieux chimiques classiques, sont fréquentes dans les systèmes biologiques où processus d'auto activation et d'inhibition sont la règle, et où certaines molécules diffusent plus difficilement que d'autres du fait de leur très grade différence de masse ou de leur forte interaction avec le milieu. Les structures stationnaires obtenues résultent d'un bilan équilibré (d'un « équilibre dynamique ») entre vitesse de transformation chimique et vitesse de diffusion des constituants de la réaction. Ce ne sont pas, comme les cristaux, des structures d'équilibre. Quand on cesse de fournir des réactifs, la réaction s'épuise, le caractère homogénéisant de la diffusion reprend ses droits et les structures s'effacent.

Toutes les réactions chimiques oscillantes peuvent à priori satisfaire aux conditions cinétiques nécessaires à l'apparition de structures de Turing sauf que dans toutes les réactions non biologiques connues les espèces mises en jeu sont de faible masse moléculaires et, en solution, ont toutes un coefficient de diffusion de l'ordre de 10-5 cm2/s. La nécessaire différence entre les coefficients de diffusion des composés activateurs et inhibiteurs ne peuvent donc pas être directement satisfaites. Heureusement dans les systèmes chimiques à plus de deux variables la conditions n'est pas aussi restrictive. En fait, il suffit que la « diffusion apparente » de l'activeur soit plus faible que celle de l'inhibiteur. Cette subtilité n'a pas été clairement réalisée avant la première mise en évidence expérimentale de structures de Turing, en 1989, par notre équipe près de quarante ans après leur prédictions par Turing.6

On sait maintenant que le mécanisme de Turing fondé sur une activation locale couplée à une inhibition à longue portée est en fait un mécanisme assez répandu dans de nombreux autres domaines que la chimie. Il fournit une explication simple à un grand nombre de motifs que nous observons dans la nature et au laboratoire. Cette instabilité créatrice d'ordre brise la symétrie de translation de l'état initial pour donner naissance à une auto-organisation spatiale. Dans un système à une dimension celle-ci se présente sous la forme d’un alignement de pic d’activateur régulièrement espacés. La distance moyenne entre les pics est déterminée par des paramètres intrinsèques tels que les constantes cinétiques ou les coefficients de diffusion. Cette propriété différencie les structures de Turing d'un grand nombre de structures dissipatives comme par exemple les cellules convectives observées en hydrodynamique dont la longueur d'onde caractéristique est fixée par les dimensions géométriques du système. Selon la dimension de l'espace une plus ou moins grande variété de solutions géométriques sont possibles. À deux dimensions on prévoit aussi bien des taches réparties en motifs hexagonaux que des bandes. À trois dimensions, les structurations spatiales prédites théoriquement sont des feuillets parallèles, des réseaux de prismatiques hexagonaux de colonnes ainsi qu'un « cristal chimique dissipatif » dans lequel les maxima de concentration occupent les nœuds d'un réseau cubique centré. De telles organisations spatiales supra-moléculaires peuvent également apparaître dans des systèmes à l'équilibre thermodynamique comme dans les alliages polymères ou les cristaux liquides mais dans ce cas, la taille des motifs est intimement liée aux dimensions des molécules constitutives. Les structures chimiques de Turing n’ont par contre aucune relation de taille avec celles des molécules mise en jeu !

Dans la réaction CIMA, utilisée dans la première mise en évidence de structures de Turing les espèces jouant les principaux rôles d'activateur et d'inhibiteur sont respectivement les ions iodure et les ions chlorite. Le gel était imprégné d'amidon, indicateur coloré qui, en présence d'iode et d'iodure, forme un complexe bleu quand la concentration de l'iodure dépasse un certain seuil. Or l'amidon est une très grosse molécule qui reste bloqué entre les mailles du gel ; sa diffusivité est alors très inférieure à celle des autres espèces solvatées. Quand l'iodure se complexe

à l'amidon, sa diffusivité effective s'en trouve fortement réduite par rapport aux autres espèces de faible masse moléculaire, sans interaction avec l’amidon, et la boucle est bouclée : la formation sélective d'un complexe réversible et immobile de l'activateur de la réaction oscillante introduit de facto la différence de diffusivité nécessaire à l'émergence de structures de Turing.

Les expériences, conduites dans des réacteur « à disque de gel », produisent entre autre les magnifiques réseaux hexagonaux de taches. ou bandes parallèles prévus par la théorie, comme cela est illustré dans la figure 3. Ces organisations se sont développées spontanément au-delà d’une valeur critique des concentrations dans les flux d’alimentation des réservoirs dont les contenus sont en contact avec la pièce de gel. Elles brisent uniformité de l’alimentation imposée sur les faces du disque à l’intérieur desquelles elles se développent, phénomène caractéristique des structures prévues par Turing.

7

Figure 3 : Motifs chimiques stationnaires, dits de Turing, observés dans un réacteur spatial ouvert, constitué d’un disque de gel d’agarose, lors que celui-ci est alimenté en

permanence par des solutions de chlorite et iodure de potassium et d’acide malonique en présence d’amidon, un indicateur coloré d’iodométrie. Les réactifs sont amenés uniformément à la surface du disque. Les motifs de taches formant un réseau hexagonal ou en bandes parallèles se développent spontanément au-delà de certaines valeurs critiques de la concentration des réactifs dans les solutions d’alimentation. La sélection du motif dépend aussi de cette variable de contôle. Les changements de couleur du jaune au bleu traduisent les modulations spontanées de la concentration des ions iodure qui se développent à l’intérieur du gel.

Intermittences spatio-temporelles et fleurs chimiques

Les systèmes chimiques, de par leur aptitude à s'organiser spontanément à la fois dans le temps et dans l'espace offrent une panoplie très riche de comportements possibles, du fait d'interactions entre différentes classes d'auto organisations. La réaction CIMA peut non seulement produire des structures stationnaires de Turing mais aussi pou d’autres valeurs des paramètres chimiques des structures d’ondes. Ces deux instabilités peuvent occuper des domaines adjacents du diagramme d’état du système de réaction-diffusion. Au voisinage des frontières entre ces deux types de structures les instabilités spatiales et oscillantes peuvent se combiner pour faire émerger

des comportements dynamiques inédits ou oscillations et structures stationnaires se partagent l’espace de façon apparemment aléatoire dans le temps et dans l’espace pour donner naissance à ce que les spécialistes dénomment de l’intermittence spatio-temporelle. La figure 4 présente un instantané d’une telle distribution ou les zones purement oscillantes qui apparaissent lisses, s’enchevêtrent dans des zones structurées de Turing à l’organisation très tourmentée.

8

Figure 4 : Intermittence spatio-temporelle : Motif irrégulier, en perpétuel mouvement, résultant de la synergie entre l’instabilité spatiale de Turing et l’instabilité oscillante dans la

réaction CIMA conduite dans un réacteur spatial ouvert.

On sait aussi que les systèmes chimiques avec rétroaction présentent très souvent, quand ils sont maintenus hors d'équilibre, des bistabilités entre différents états homogènes. Dans ce cas d'autres types d'organisations spatiales peuvent apparaître et se combiner avec l'instabilité de Turing et engendrer soit des croissances de structures par division de tache, rappelant des division cellulaires, soit le déploiement de magnifiques motifs floraux transitoires lors de la naissance d'une structure de Turing en bandes (voir figure 5).

9

Figure 5 : Motif floral au cour du développement d’une structure de Turing en bande dans des conditions ou instabilité de Turing interagit avec une autre instabilité, « instabilité

latérale de front » Les images successives correspondent au même motif à des stades différents de son développement.

Universalité et motifs biologiques

La très grande variété des phénomènes d'auto organisation spontanée dans les systèmes chimiques récompense largement les chercheurs qui se penchent sur la dynamique de ces systèmes hors d'équilibre. Au-delà de la production de belles images, l'étude des motifs chimiques permet également d'aborder la question plus philosophique de l'universalité des formes qui apparaissent dans la nature. En effet, on remarque que de nombreuses organisations spatiales et temporelles obéissent dans la nature souvent aux mêmes symétries (motifs sur le pelage des mammifères ou sur les coquillages, spirales en phyllotaxie). Il est tentant de penser que tous ces comportements sont régis par les mêmes lois fondamentales. Il ne faut certainement pas généraliser à outrance. Néanmoins, il est certain que les mécanismes décrits ici et qui sous-tendent les instabilités créatrices de formes se retrouvent dans d'autres domaines que les systèmes de réaction-diffusion. En effet, les processus d'activation et d'inhibition à la base des motifs chimiques ont des équivalents dans des domaines aussi variés que l'hydrodynamique, l'optique, la catalyse hétérogène et les semi-conducteurs par exemple. De même, à l'équilibre thermodynamique, la compétition entre forces antagonistes telles qu'une attraction à courte portée et une répulsion à grande distance peut donner naissance aux motifs en forme de labyrinthe que l'on observe dans les films magnétiques et les couches de ferrofluides. Le concept unificateur de ces diverses observations est celui de brisure de symétrie : ce qui compte d’abord c’est la diminution du nombre de symétries du système lors de la transition. Le détail du mécanisme physique, chimique ou autre à la base de l'instabilité devient alors secondaire car la nouvelle structuration peut être décrite en termes de la seule amplitude de la structure périodique par rapport à celle de l'état uniforme de référence. Les équations mathématiques décrivant l'évolution de cette amplitude prennent une forme universelle qui dépend uniquement des types de symétries brisées quand le système uniforme et stationnaire devient instable. C’est un peu magique de pouvoir ainsi unifier l'auto organisation de systèmes très différents en terme d'un même formalisme. Notons toutefois que dans le détail les différents systèmes peuvent présenter leurs spécificité mais il faut alors approfondir l’analyse.

La création de formes dans les systèmes chimiques trouve un grand intérêt dans toutes les applications impliquant une réactivité qui soit fonction de la localisation dans le système considéré. Il ne faut pas oublier que la chimie, on dira communément la biochimie, est à l’œuvre dans les êtres vivants et de nombreux chercheurs suggèrent que les processus de réaction- diffusion joueraient un rôle dans le développement de formes et de motifs chez les embryons, ce qu'on appelle la morphogenèse. Cette idée était d'ailleurs la motivation initiale de Turing.

Dans la partie la plus popularisée de ses travaux, J.D. Murray autre mathématicien britannique, s'efforce de rendre compte de la diversité des motifs sur le pelage des mammifères : par exemple rayures du zèbre, taches du léopard. Pour lui, l'organisation en taches ou en bandes serait liée à une distribution spatiale de la concentration d'un morphogène. Cette distribution résulterait d'une instabilité de réaction-diffusion de type Turing et constituerait un prémotif, formé très tôt au cours du développement embryonnaire. Celui-ci serait figé puis « lu » à un stade ultérieur. Le motif final sur le pelage des mammifères ne ferait que refléter ce prémotif : la forte ou la faible concentration de morphogène, suivant la position considérée dans le prémotif, influencerait la localisation ultérieure des mélanocytes (cellules sécrétrices du pigment, la mélanine)7. La figure 6 compare un motif chimique complexe que nous pouvons facilement reproduire dans nos réacteurs spatiaux ouverts avec les motifs du pelage du léopard, la similitude est quelque fois saisissante.

10

Figure 6 : Analogie biologique : Motif chimique complexe pouvant simuler des motifs observés sur la fourrure du léopard lors la réaction CIMA est mise en œuvre dans un réacteur

spatial ouvert. L’image de gauche est le résultat brute de l’expérience de chimie, l’image centrale correspond à la colorisation de l’observation expérimentale, l’image de droite correspond au dos d’un léopard.

D’une façon similaire Hans Meinhardt, biologiste théoricien allemand, est capable de reproduire avec une étonnante similitude les motifs les plus complexité observés sur une grande variété de coquillages à partir de modèles des réaction-diffusion fondés sur ce qui est connu de la physiologie des mollusques et des mécanismes de sécrétion des coquilles et des pigments.8

Aussi troublant que puissent être les analogies, elles n’en constituent pas des preuves des mécanismes mis en œuvre. Comme nous l’avons vu le caractère universel des instabilités brisant les symétries ne permettent pas de les attribuer de façon univoque à un mécanisme particulier mais seulement que le modèle mathématique ou expérimental appartient à la même classe

d’instabilité. Les approches en termes de systèmes de réaction-diffusion des systèmes biologiques ne peuvent être considérés que comme des approches minimales ou simplifiées servant de support à la réflexion. Dans les systèmes biologiques réels bien d’autres mécanismes physiques sont connus pour intervenir dans les processus de morphogenèse telles que la tension superficielle, l’élasticité des tissus, la pression capillaire, les champs électriques et le champ gravitationnel. Toutes choses qui peuvent rendent le système encore plus non linéaire donc élargissant singulièrement les différentes voies pour que ces systèmes s’organiser spontanément dans le temps et dans l’espace. Le dernier mot au biologistes pour l’identification des couples antagonistes agissant respectivement comme activateur local et comme inhibiteur à longue portée, c’est un travail qui est encore loin d’être achevé.

Annexes : expériences de chimie

Recette 1 : Réaction chimique oscillante. Cette réaction initialement proposée par T.S. Briggs et C.W.Raucher9 produit de spectaculaires changements périodiques de couleur de l’incolore au jaune-orangé puis au bleu. Préparer les trois solutions de base suivantes puis mélanger des volumes égaux de ces trois solutions dans un flacon :

Solution 1 – eau oxygénée [H2O2]=3,2M + acide perchlorique [HClO4]=0,17M

Solution 2 – acide malonique [CH2(COOH)2]=0,15M + sulfate de manganèse [MnSO4]=0,024M + [Thiodène]=20g/litres, indicateur coloré de iodomètrie dérivé de l’amidon fabriqué par Prolabo

Solution 3 – iodate de potassium [KIO3]=0,14M

Ne pas boucher le flacon durant l’expérience car il se produit un fort dégagement d’oxygène

Recette 2 : Structures spatiales – ondes d’excitabilité de la réaction BZ. Des structures « cibles » ou « spirales » peuvent être obtenues en mélangeant, dans les proportions les instructions indiquées, les solutions suivantes :

Solution 1 – bromate de potassium [KBrO3]=0,6M + acide sulfurique [H2SO4]=0,6M Solution 2 – acide malonique CH2(COOH)2]=0,48M
Solution 3 – bromure de potassium [KBr]=0,007M
Solution 4 – ferroïne, indicateur redox solution commerciale à 0,025M

Mélanger dans un flacon les volumes suivants (en cm3) des différentes solutions 14 de 1, 7 de 2, 2 de 3.Boucher le flacon. Il se forme alors du brome reconnaissable à sa couleur brune. Continuer à agiter jusqu’à disparition de toute coloration brune puis seulement ajouter 1cm3 de 4. Verser le mélange rouge sombre en couche mince (1mm d’épaisseur environ) dans une boite de Pétri. Recouvrir la boite d’une plaque transparente pour éviter les courants d’air. Observer les ondes bleues apparaître après quelques minutes. « Déchirer » ces ondes pour obtenir des spirales

 

 VIDEO       CANAL  U         LIEN

 

 VIDEO  DE  LA  CONFÉRENCE               LIEN

 

consulter  le  document  PDF

 
 
 
   Fichier à télécharger : CHIMIE 2
 
Page : [ 1 2 3 4 5 6 7 8 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google