MOLÉCULE
 

 

 

 

 

 

 

MOLÉCULE



PLAN
        *         MOLÉCULE
        *         1. Historique du concept de molécule
        *         1.1. L'hypothèse d'Avogadro
        *         1.2. Le nombre d'Avogadro
        *         2. Mole et masse molaire des molécules
        *         3. Liaisons et stabilité des molécules
        *         3.1. La liaison covalente
        *         3.2. Les liaisons intermoléculaires
        *         4. La représentation des molécules
        *         4.1. La représentation de Lewis
        *         4.2. Les formules développées et semi-développées
        *         4.3. La formule topologique
        *         5. La structure spatiale des molécules
        *         5.1. La méthode VSEPR
        *         5.2. La stéréochimie ou la géométrie des molécules
        *         5.3. Les phénomènes d'isomérie

molécule
(latin moles, masse, avec l'influence de corpuscule)

Cet article fait partie du dossier consacré à la matière.
Particule formée d'atomes et qui représente, pour un corps pur qui en est constitué, la plus petite quantité de matière pouvant exister à l'état libre.


La matière, au sens courant du terme, sous ses différents états est discontinue et formée par l'assemblage d'atome. Dans les conditions usuelles, toutefois, la matière n'est pas, à l'exception des gaz nobles, formée d'atomes isolés et indépendants. Le plus souvent, les atomes s'assemblent pour former des architectures plus volumineuses: les molécules.

1. Historique du concept de molécule
1.1. L'hypothèse d'Avogadro
La notion de molécule, comme entité distincte de celle de l’atome, fut suggérée la première fois en 1811 par l'Italien Amedeo Avogadro qui proposa l’hypothèse selon laquelle le nombre de molécules d'un gaz quelconque dans un volume donné est toujours le même, les gaz étant, dans les mêmes conditions de température et de pression.

Par ailleurs, le Français Louis Joseph Gay-Lussac avait montré expérimentalement en 1809 que les volumes mis en jeu dans les réactions chimiques entre les gaz sont dans des rapports simples. Par exemple, un volume de chlore réagit sur un volume égal d'hydrogène pour donner deux volumes de chlorure d'hydrogène (les trois gaz étant dans les mêmes conditions de température et de pression).
Si nous rapprochons cette constatation expérimentale de l'hypothèse d'Avogadro, nous avons :
1 volume de chlore + 1 volume d'hydrogène = 2 volumes de chlorure d'hydrogène
n molécules + n molécules = 2n molécules
Si de plus nous supposons, en accord avec l'analyse chimique, que le chlorure d'hydrogène correspond à la formule HCl, les 2n molécules de HCl contiennent 2n atomes H et 2n atomes Cl, donc chaque molécule de chlore et d'hydrogène contient deux atomes et la réaction entre le (di)chlore et le (di)hydrogène doit s'écrire :
H2 + Cl2 → 2 HCl (et non H + Cl → HCl).


Bien que reprise, peu de temps après (1814), par le Français André Marie Ampère, l'hypothèse d'Avogadro et la distinction atome-molécule qui en découle sont restées dans l'ombre, jusqu'aux travaux de l'Italien Stanislao Cannizzaro et des Français Auguste Laurent et Charles Gerhardt. La distinction entre atome et molécule conduisait en effet logiquement à considérer ces notions comme reflétant une réalité sous-jacente à celle qu'on peut observer. Cette conception, maintenant universellement adoptée, fut combattue avec vigueur par de nombreux scientifiques qui voyaient là, à tort, une hypothèse non fondée expérimentalement, donc à caractère quasi métaphysique. L’hypothèse d’Avogadro a ouvert la voie à la physique et la chimie modernes en permettant de comparer les masses relatives des molécules et, en définitive, de déterminer les masses atomiques relatives.

1.2. Le nombre d'Avogadro
C'est en hommage à Amedeo Avogadro que le nombre de molécules contenues dans une mole de gaz, soit 22,4 L de gaz (à 0 °C et sous 1 atm ; 1 atmosphère normale = 101 325 pascals ou 1,013 25 bar), nombre déterminé approximativement pour la première fois par l'Autrichien Johann Loschmidt en 1865, s'appelle nombre d'Avogadro. Sa valeur numérique actuellement reconnue est :
NA = 6,022 × 1023
.
2. Mole et masse molaire des molécules
La notion de mole est rendue indispensable par la petite taille des molécules. Elle est liée à la connaissance de leur formule chimique, qui renseigne sur la nature et le nombre de chacun des atomes constituant la molécule. La formule chimique d’une molécule permet ainsi de calculer la masse de celle-ci à partir de celle de ses atomes.
Grâce au choix judicieux de la mole, définie comme le nombre d'atomes de carbone contenus dans 12 g de carbone 12, la masse (en grammes) d'une mole d'un élément donné est égale au nombre de nucléons (protons et neutrons) contenus dans le noyau de l'atome.

Classification périodique des éléments chimiques
*        


Le noyau du carbone 12, par exemple, contient 12 nucléons ; la masse de 6,022 × 1023 atomes de carbone est de 12 g. Les données du tableau périodique des éléments permettent ainsi de connaître la masse d'une mole de molécules. Ainsi, une mole de méthanol de formule CH3OH a une masse de 32 g (12 + 4 + 16), une mole d'eau de formule H2O, une masse de 18 g (2 + 16), etc. Réciproquement, on dit que le méthanol a une masse molaire de 32 g·mol-1, ou que l’eau a une masse molaire de 18 g·mol-1, etc.
Dans le cas des gaz, le calcul est simplifié grâce à la loi d'Avogadro : « Des volumes égaux de différents gaz contiennent le même nombre de molécules. » Quand ces gaz sont dans les mêmes conditions de température et de pression (généralement 0 °C et 1 atm), 32 g d'oxygène (O2), 2 g d'hydrogène (H2) ou 44 g de dioxyde de carbone (CO2) occupent un volume identique de 22,4 L. La mole est donc le facteur qui établit un lien entre les caractéristiques microscopiques des molécules et des quantités (masses ou volumes) macroscopiques plus perceptibles.

3. Liaisons et stabilité des molécules
Les molécules résultent de la formation de liaisons covalentes entre les atomes qui les constituent. L'énergie des atomes liés dans une molécule est beaucoup plus faible que celle des atomes séparés ; la molécule est par conséquent le système le plus stable.

3.1. La liaison covalente

La nature de la liaison est restée longtemps mystérieuse. L'Américain Gilbert Lewis, le premier, proposa en 1916, sans justifications, un modèle qualificatif intéressant : les deux atomes d’hydrogène (H) mettent en commun leur unique électron pour former une paire d'électrons, qui est responsable de la cohésion de la molécule et dite, de ce fait, paire liante.
Ce type de liaison, que Lewis a appelé liaison covalente, permet à chacun des deux atomes H partageant les deux électrons d'acquérir la structure particulièrement stable de l'hélium.
De manière générale, dans une molécule, les atomes réalisent des liaisons covalentes de manière à acquérir une structure électronique stable en octet ou en duet (règle de l’octet et du duet). Une structure en duet implique deux électrons sur la couche électronique externe K ; une structure en octet implique huit électrons sur la couche externe L ou M. Ainsi, le carbone, de symbole C et de numéro atomique 6, a pour structure électronique (K)2 (L)4 et doit réaliser 4 liaisons covalentes pour compléter sa couche L (il est dit tétravalent).

3.2. Les liaisons intermoléculaires
Les molécules sont également soumises entre elles à des forces de liaison intermoléculaires, mais celles-ci sont beaucoup plus faibles que les liaisons covalentes (de l'ordre de quelques kilojoules par mole, contre plusieurs centaines de kilojoules par mole dans le cas de liaisons covalentes), ce qui entraîne des distances intermoléculaires plus grandes que les distances interatomiques dans la molécule. Les distances d'approche, à l'équilibre, entre atomes ou molécules sont en effet d'autant plus petites que les énergies d'attraction sont plus grandes.
Ces interactions existent entre les molécules d'un gaz (non parfait) et justifient la possibilité de liquéfaction puis de solidification d'un gaz quand la température s'abaisse. En effet, le refroidissement entraîne la diminution de l'agitation thermique des molécules, d'où la possibilité de formation d'états condensés, liquide et solide. L'absence par définition de forces intermoléculaires pour un gaz parfait rendrait impossible ce processus.

Inversement, la rupture thermique de ces liaisons intermoléculaires dans le cas d'un mélange de différentes molécules permet la séparation des divers constituants. Ainsi, l'azote, l'oxygène et l'argon sont obtenus industriellement par distillation de l'air liquide. Les énergies mises en jeu, bien que suffisantes pour séparer les constituants, ne permettent cependant pas de casser les molécules. Cela peut se produire à des températures plus élevées, par exemple lors du craquage des molécules d'hydrocarbures des pétroles et lors de la dissociation des molécules de dihydrogène (H2) ; à 5 000 K, sous 1 atm, 95 % des molécules H2 sont dissociées en atomes H. Les atomes, après avoir été séparés, peuvent perdre progressivement leurs électrons (ionisation), donnant naissance, à très hautes températures (plusieurs milliers de degrés), aux plasmas, où les atomes peuvent être totalement ionisés par la perte de tous leurs électrons.

4. La représentation des molécules

4.1. La représentation de Lewis
Dans la représentation de Lewis, chaque atome est représenté par son symbole ; un doublet liant est représenté par un segment entre les symboles des deux atomes liés ; un doublet non-liant est représenté par un segment placé à côté du symbole de l’atome auquel il appartient. Ainsi, les représentations de Lewis des molécules de dihydrogène (H2) et de l’eau (H2O) sont respectivement :

 


4.2. Les formules développées et semi-développées
Les formules développées et semi-développées d’une molécule sont une simplification de leur représentation de Lewis :
• formule développée : on ne représente plus les doublets non-liants des atomes ;
• formule semi-développée : on ne représente plus les liaisons engageant les atomes d’hydrogène. Par exemple, une molécule de méthanol CH4O pourra être représentée comme suit :


4.3. La formule topologique
Elle permet de représenter le plus simplement possible une molécule et est particulièrement utile pour représenter des molécules comportant un grand nombre de liaisons. Les règles d’écriture d’une formule topologique sont les suivantes :
• la chaîne carbonée est représentée par une ligne brisée où chaque segment représente une liaison. Les atomes de carbone et d’hydrogène ne sont pas représentés ;
• chaque sommet de la ligne brisée représente un atome de carbone ;
• les atomes autres que ceux de carbone et d’hydrogène sont représentés par leur symbole. On représente aussi les atomes d’hydrogène auxquels ceux-ci sont liés.
Par exemple, le pentan-1-ol de formule brute C5H12O a la formule topologique suivante :


5. La structure spatiale des molécules
Les liaisons covalentes, responsables de la cohésion des molécules, sont des liaisons fortes, saturées et dirigées. La notion de force se rapporte à l'énergie de liaison.
→ énergie chimique.

       


Par saturation, on entend que, par exemple, l’hydrogène (H) peut s'unir à l’azote (N) pour donner NH3 mais pas NH4 ; la justification électronique de la liaison covalente proposée par Lewis rend compte de cette propriété : l’azote, de numéro atomique 7, a pour structure électronique (K)2 (L)5 et doit donc réaliser 3 liaisons covalentes pour compléter sa couche L (il est dit trivalent), d’où le composé NH3.
Le mot directivité signifie que les liaisons covalentes, unissant un atome à d'autres dans une molécule, forment entre elles des angles définis, imposant ainsi une certaine forme à la molécule.
5.1. La méthode VSEPR

Molécule bipyramide trigonale
La méthode VSEPR (Valence Shell Electron Pair Repulsion ou « répulsion des doublets électroniques de la couche de valence ») également appelée règle de Gillespie-Nyholm, permet de prévoir l’orientation des liaisons entre les atomes d’une molécule. Cette méthode repose sur l’hypothèse très simplificatrice (qui ne correspond pas à la réalité) que tous les doublets, liants et non-liants de la couche de valence, se positionnent à la même distance du noyau et aussi loin que possible les uns des autres de manière à minimiser leur répulsion. Ainsi, selon leur nombre, les doublets électroniques occupent les sommets de diverses « figures de répulsion » inscrites dans une sphère :

Molécules
Méthode VSEPR
nombre de doublets :    2    3    4
figure de répulsion :    droite    triangle équilatéral    tétraèdre
angles des liaisons :    180°    60°    109,5°


       
Par exemple, les molécules H2O (eau), NH3 (ammoniac) et CH4 (méthane) ayant chacune autour de leur atome central quatre doublets électroniques (deux non-liants et deux liants pour H2O ; un non-liant et trois liants pour NH3 ; quatre liants pour CH4) s'inscrivent sensiblement dans un tétraèdre avec au centre les atomes O, N, C, les atomes H étant situés sur deux, trois et quatre sommets. Les angles de liaison sont donc voisins de 109,5° (104,5° pour H2O, 107° pour NH3 et 109,5° pour CH4).

5.2. La stéréochimie ou la géométrie des molécules

Benzène
En fait, bien avant la mise en évidence expérimentale de la structure des molécules, quelques chimistes avaient proposé – pour un but essentiellement mnémonique, c'est-à-dire pour représenter le mieux possible les propriétés physico-chimiques des molécules – des schémas tels que le tétraèdre pour CH4 (Achille Le Bel et Jacobus Henricus Van't Hoff) ou la forme cyclique du benzène C6H6 (August Kekulé).

Actuellement, des méthodes variées (techniques spectroscopiques, diffraction des rayons X ou des électrons, microscopie électronique) permettent de trouver la structure spatiale des molécules et, quelquefois, d'obtenir des courbes de niveau de densité électronique.
Les molécules peuvent former des chaînes, des cycles, des cages… Ces structures sont représentées par des schémas de Lewis ou, plus correctement, par des modèles moléculaires éclatés ou compacts (voir ci-dessous l’exemple de la molécule de méthane). Les modèles compacts donnent une image de la forme réelle des molécules et de l'encombrement des atomes (modélisés par des sphères) qui les constituent. Ces modèles moléculaires tridimensionnels sont très utilisés en stéréochimie.


Toutefois, en l’absence de modèles moléculaires, il est possible de représenter une molécule en 3 dimensions sur un support à deux dimensions (c’est-à-dire sur une feuille de papier ou sur un tableau noir) en utilisant la représentation de Cram. En effet, celle-ci fait apparaître les liaisons de la molécule en perspective les unes par rapport aux autres, afin de comprendre la structure dans l’espace de la molécule. Les liaisons entre les atomes sont représentées par convention de la façon suivante :
• liaison dans le plan de la feuille :

 
• liaison en avant du plan de la feuille :

 
• liaison en arrière du plan de la feuille :

Par exemple, le méthane de formule CH4 a la représentation de Cram suivante :


5.3. Les phénomènes d'isomérie

Conformation d'une molécule d'éthane
*        



Notons que les structures des molécules peuvent justifier les phénomènes d'isomérie (la même formule brute correspondant à des composés différents). Par exemple, C4H8O2 peut être l'acide butanoïque ou un diol (isomérie de constitution). Les molécules ne sont généralement pas rigides. Avec la vibration des atomes autour de leur position d'équilibre ou la rotation de groupes d'atomes autour d'un axe de liaison (phénomènes qui se produisent toujours, sauf à 0 K), certaines molécules peuvent changer rapidement de structure. Ainsi, la molécule d'ammoniac s'inverse très rapidement, comme un parapluie par fort vent, avec une fréquence de 23,79 GHz. C'est un exemple de molécule « flexible ».

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
  ATOME
 

 

 

 

 

 

 

ATOME

 

PLAN
                *         ATOME
                *         PHYSIQUE ET CHIMIE
                *         1. Description d'un atome
                *         1.1. La structure interne des atomes
                *         1.3. Les atomes isolés
                *         1.4. Les atomes naturels et artificiels
                *         2. Historique de la notion d'atome
                *         2.1. Vingt-trois siècles de tâtonnements
                *         2.1.1. Au Moyen Âge
                *         2.1.2. La théorie du phlogistique
                *         2.1.3. La chimie devient une science
                *         2.2. L'approche de la connaissance actuelle de l'atome
                *         2.2.1. La théorie atomique de Dalton
                *         2.2.2. Atome et tableau périodique des éléments
                *         2.3. Découvertes des constituants de l'atome
                *         2.3.1. L'électron
                *         2.3.2. La radioactivité et les nucléons
                *         2.3.3. Le noyau
                *         2.3.4. Le proton
                *         2.3.5. Le neutron
                *         2.3.6. Mésons et quarks
                *         3. La représentation de l'atome
                *         3.1. La représentation symbolique de l'atome
                *         3.2. La représentation spatiale ou la notion de modèle
                *         3.2.1. Le modèle planétaire
                *         3.2.2. Limites du modèle planétaire
                *         3.2.3. Dualité onde-corpuscule
                *         3.3. L'atome en mécanique ondulatoire
                *         3.4. Paramètres caractéristiques des électrons dans l'atome
                *         3.4.1. Le nombre quantique principal
                *         3.4.2. Le nombre quantique azimutal
                *         3.4.3. Le nombre quantique magnétique

atome
(latin atomus, du grec atomos, qu'on ne peut couper)

Consulter aussi dans le dictionnaire : atome
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière dont les mouvements et les combinaisons rendent compte de l'essentiel des propriétés macroscopiques de celle-ci. (Un corps constitué d'atomes de même espèce est appelé corps simple ou élément chimique.)

PHYSIQUE ET CHIMIE

Le mot « atome » est aujourd'hui un paradoxe scientifique : en effet, les Grecs avaient désigné par ce terme, qui veut dire « indivisible », le plus petit élément, simple et stable, de la matière ; or on sait à présent qu’un atome est composé de particules plus petites : des électrons, des protons et des neutrons. Les protons et les neutrons, appelés nucléons, forment le noyau de l’atome et sont eux-mêmes composés de particules encore plus élémentaires : les quarks. La connaissance de cette structure ultime de la matière est à l’origine d’une révolution tant dans le domaine de la connaissance que dans celui des rapports entre les peuples (la fission de noyaux atomiques étant à la base des armes nucléaires).


1. Description d'un atome

Les atomes sont les plus petites parcelles d'un élément chimique qui puissent être conçues : ils sont constitués d'un noyau chargé positivement autour duquel gravitent des électrons chargés négativement, l'ensemble étant électriquement neutre.

Les ions dérivent des atomes par la perte ou par le gain d'un ou de plusieurs électrons : il existe des ions positifs (cations), qui résultent d'une perte d'électrons, et des ions négatifs (anions), qui résultent d'un gain d'électrons.


Les électrons ainsi impliqués sont situés à la partie la plus externe des atomes, qui est seule perturbée par un gain ou une perte d'électrons. Seuls ces électrons (électrons de valence) interviennent dans les réactions chimiques. Ces dernières se distinguent donc fondamentalement des phénomènes qui se produisent lors de l'explosion d'une bombe atomique, lesquels se situent au niveau du noyau. Les transformations intervenant au niveau nucléaire mettent en jeu une énergie (→  énergie nucléaire) un million de fois plus élevée que celle que libère une réaction chimique (→  énergie chimique).
En première approximation, on peut considérer qu'un atome occupe une partie de l'espace, de forme sphérique, d'un diamètre de quelques angströms (1 Å = 10−10 m).

1.1. La structure interne des atomes
L'étude de la structure interne des atomes a montré que tous, quel que soit l'élément qu'ils constituent, sont formés de trois espèces de particules élémentaires : les électrons, les protons et les neutrons.
Les électrons sont des particules légères de charge électrique négative, toutes identiques, qui se meuvent à grande vitesse dans le champ d'attraction du noyau chargé positivement.


D'un diamètre très petit par rapport à celui de l'atome, le noyau – dans lequel presque toute la masse est concentrée – est composé de particules appelées nucléons.
Les nucléons sont de deux espèces : les protons, possédant une charge électrique positive, égale en valeur absolue à la charge des électrons, et les neutrons, électriquement neutres.
Les propriétés d'un atome sont déterminées par le nombre d'électrons présents autour du noyau : ce nombre est égal au nombre Z de protons contenus dans ce noyau.
Les propriétés ne dépendent pas, pour l'essentiel, du nombre N de neutrons : les atomes d'un même élément peuvent contenir un nombre variable de neutrons. Les atomes d'un élément qui contiennent un nombre différent de neutrons constituent des isotopes de cet élément. En général, il existe plusieurs isotopes d'un même élément.

Z représente le nombre atomique ou numéro atomique de l'élément.


La somme Z + N = A est le nombre de masse du noyau.

Pour distinguer les isotopes d'un élément, on les désigne par leur symbole précédé des nombres A et Z qui lui sont propres : ainsi, 146C désigne l'isotope de carbone dont l'atome possède 14 nucléons (6 protons et 8 neutrons).

1.2. Quelques ordres de grandeurs
La masse de l'atome est de l'ordre de 10−26 kg. Un atome peut être assimilé à une sphère dont le rayon, variable d'un élément à l'autre, est de l'ordre de 10−10 m (soit 1 Å).
L'électron porte une charge élémentaire − e (e = 1,602 × 10−19 C), pour une masse m de 9,1093897 × 10−31 kg ou de 5,4 × 10−4 u en unité de masse atomique (1 u = 1,6605402 × 10−27 kg).
Il existe donc un rapport de 1 à 10 000 entre la masse de l'atome et celle de l'électron : dans un atome, la masse des électrons apparaît donc comme négligeable comparée à la masse du noyau.
La masse du proton est de 1,6726231 u (mp = 1,673 × 10−27 kg), et celle du neutron est de 1,6749286 u (mn = 1,675 × 10−27 kg).

Assimilé à une sphère, le volume du noyau est à peu près proportionnel au nombre de nucléons A : le rayon du noyau est, selon une formule empirique, proche de la racine cubique de A, r ≈ 1,41 × 10−15 × A1/3 m (de l'ordre de 10−15 m), ce qui correspond à 1 fm (femtomètre ou fermi).
Un facteur de 100 000 existe entre le rayon de l'atome et celui du noyau, et, si l'on néglige la masse des électrons, le noyau a une densité 10−15 fois plus élevée que celle de l'atome, ce qui correspond à une concentration énorme de matière. La même concentration appliquée à la masse totale de la Terre ramènerait notre planète à une sphère de 60 m de rayon.

1.3. Les atomes isolés
Les rares atomes isolés se rencontrent sous forme de gaz.
Les gaz rares (argon, hélium, krypton, néon, xénon) sont un exemple de la présence d'atomes isolés dans la nature : ils sont en très faible proportion dans l'air, où l'on trouve essentiellement de l'azote (78,084 %) et de l'oxygène (20,946 %) sous forme de molécules diatomiques (N2 et O2), du dioxyde de carbone et de la vapeur d'eau également sous forme de molécules.
Les gaz rares, qui ont été découverts par le chimiste britannique William Ramsay entre 1894 et 1898, ne représentent que 1 % du volume de l'air : argon 0,934 % ; hélium 0,52 × 10−3 % ; krypton 0,11 × 10−3 % ; néon 1,8 × 10−3 % ; xénon 8,7 × 10−6 %.
L'existence d'atomes libres de gaz rares résulte de leur configuration particulièrement stable : les ions se forment d'ailleurs à partir des atomes de telle sorte que, en général, la perte ou le gain d'électrons leur permette d'acquérir une configuration électronique d'atome de gaz rare.

1.4. Les atomes naturels et artificiels

Outre les éléments identifiés dans la nature, et leurs isotopes naturels, on connaît aujourd'hui des éléments plus lourds que l'uranium (le plus lourd des éléments existant à l'état naturel, répertorié avec le numéro atomique 92), et de nouveaux isotopes d'éléments qui existent, en revanche, à l'état artificiel.
Les atomes de ces éléments, ou de ces isotopes, sont fabriqués artificiellement en faisant intervenir des réactions nucléaires, qui consistent à bombarder, par des particules variées et animées d'une très grande vitesse, les noyaux des atomes d'éléments connus.
Ces réactions permettent d'accroître le nombre Z de protons du noyau (et on obtient des atomes plus lourds que ceux de l'élément bombardé) ou de modifier le nombre N de neutrons (et on obtient des isotopes nouveaux).

En règle générale, les éléments artificiels ainsi obtenus sont radioactifs : leurs noyaux se désintègrent rapidement, et leur durée de vie peut donc être très brève, ce qui explique leur absence dans les milieux naturels. Les atomes artificiels d'éléments plus lourds que l'uranium (appelés transuraniens ou éléments superlourds) sont obtenus à partir de noyaux naturels d'uranium ou de thorium. Le premier d'entre eux, dans la séquence des numéros atomiques, est le neptunium, qui porte le numéro Z = 93 ; puis le plutonium (Z = 94), synthétisé en 1940, etc. Le bombardement de l'uranium par des particules chargées et accélérées dans des cyclotrons a ainsi permis d'obtenir de nombreux éléments transuraniens. Les éléments artificiels ainsi fabriqués ont une durée de vie de plus en plus courte à mesure que leur numéro atomique est plus grand.

On peut également fabriquer des isotopes, le plus souvent radioactifs, d'éléments connus, en soumettant les atomes d'éléments naturels à un bombardement de particules accélérées ou à l'action des neutrons émis par une pile atomique. Ces isotopes sont utilisés soit en médecine, notamment pour le traitement du cancer (bombe au cobalt) ou pour réaliser des diagnostics (radio-iode), soit en analyse chimique pour identifier et doser des éléments présents en très petites quantités (de l'ordre de la partie par million), soit en mécanique pour radiographier des pièces de grandes dimensions.

2. Historique de la notion d'atome

La constitution de la matière a très tôt préoccupé les philosophes. L'atomisme, où l'atome est l'« essence de toutes choses », constituant ultime et indivisible de la matière, tel que le concevaient dans l'Antiquité des philosophes comme Empédocle, Leucippe et Démocrite, et tel qu'il fut repris par Épicure et Lucrèce, ne pouvait guère dépasser la vision mécaniste de particules se combinant pour former des corps, à la suite d'une légère et aléatoire modification de leur trajectoire dans le vide (c'est le phénomène du clinamen, chez Épicure). Les philosophes observaient surtout ce qui les entourait et tombait immédiatement sous leurs sens : d'où la suprématie du concept des quatre éléments (l'air, l'eau, la terre, le feu) énoncé par Homère, repris par Thalès et conforté par Aristote, et qui perdurera jusqu'au xviiie s. C'est la chimie qui, 2 500 ans environ après les philosophes grecs, établira la notion moderne d'atome.

2.1. Vingt-trois siècles de tâtonnements
L'alchimie est pratiquée dès la plus haute Antiquité dans les grandes civilisations orientales, notamment en Chine et en Inde, où elle est appelée « science des saveurs » ou « science des élixirs ». En Occident, elle fleurit dans le monde hellénistique et sera transmise par les Arabes au monde chrétien.

2.1.1. Au Moyen Âge
Au Moyen Âge les alchimistes classent les substances en fumées, esprits, eaux, huiles, laines, cristaux… Mais ils cherchent moins à identifier des corps différents qu'à découvrir la réalité « philosophale » fondamentale cachée derrière les apparences. États et propriétés physiques dominent ces classifications, et du ixe au xvie s. s'ajoutent trois autres éléments : le mercure pour l'état métallique et l'état liquide, le soufre pour la combustion et le sel pour la solubilité (ces éléments sont dits « philosophiques » pour ne pas les confondre avec les corps du même nom).

2.1.2. La théorie du phlogistique

Au xviie s. apparaît avec l'Allemand Georg Ernst Stahl la théorie du phlogistique : fluide miracle associé à tous les corps, il s'ajoute, se retranche, et permet d'expliquer le processus de combustion. Cependant, la chimie moderne est amorcée par le Français Jean Rey qui reconnaît, dès 1630, la conservation de la masse dans les transformations chimiques et le rôle de l'air dans les combustions. L'Irlandais Robert Boyle, dès 1661, fait la distinction entre mélanges et combinaisons chimiques.

2.1.3. La chimie devient une science

Au xviiie s., la chimie devient une véritable science avec le Britannique Joseph Priestley et le Français Antoine Laurent de Lavoisier qui imposent, par des méthodes dignes de la recherche actuelle, de nouvelles règles de nomenclature permettant de comprendre le processus des combinaisons chimiques. Lavoisier définit l'élément chimique, qui ne peut pas être décomposé en substances plus simples par la chaleur ou par une réaction chimique, ainsi que le composé, qui est la combinaison de deux éléments, ou plus, dans une proportion de poids déterminée.

2.2. L'approche de la connaissance actuelle de l'atome

2.2.1. La théorie atomique de Dalton

La première théorie moderne sur l'atome est énoncée, en 1808, par le Britannique John Dalton : tous les atomes d'un même corps simple, autrement dit d'un même élément, sont identiques, mais diffèrent des atomes d'autres éléments par leur dimension, leur poids et d'autres propriétés. Il donne d'ailleurs une liste de poids relatifs, par rapport à l'hydrogène, de quelques atomes (azote, carbone, oxygène, etc.).

2.2.2. Atome et tableau périodique des éléments

En 1869, le Russe Dimitri Ivanovitch Mendeleïev publie le premier tableau périodique des éléments classés en fonction de leur poids atomique. Il démontre que les propriétés chimiques des éléments sont des fonctions périodiques de leur « poids ». Pour cela, il est conduit, d'une part, à inverser certaines positions dans le classement (inversions qui s'avéreront, par la suite, en accord avec le fait que presque tous les éléments chimiques sont des mélanges de plusieurs isotopes) et, d'autre part, à laisser des cases vides correspondant, selon lui, à des éléments non encore découverts, mais dont il prévoit l'existence et les propriétés chimiques.

2.3. Découvertes des constituants de l'atome
Il faut attendre la fin du xixe s., avec les premières découvertes sur les constituants de l'atome, pour que la matière livre ses premiers secrets.
2.3.1. L'électron

.En 1891, l'Irlandais George Johnstone Stoney propose le nom d'électron pour désigner une particule qui porterait une charge électrique élémentaire négative. Mais c'est l'étude des rayons cathodiques par le Français Jean Perrin et par le Britannique Joseph John Thomson qui permet, en 1897, la découverte de l'électron, particule chargée négativement. J. Thomson mesure la charge e de l'électron par rapport à sa masse. La valeur de cette charge (− 1,6 × 10−19 C) est précisée, à 1 % près, en 1911, par l'Américain Robert Andrews Millikan.

2.3.2. La radioactivité et les nucléons

L'observation en 1896 par Henri Becquerel d'un rayonnement inconnu, les mystérieux « rayons uraniques », excite la curiosité de nombreux chercheurs. En effet, les sels d'uranium émettent un rayonnement capable de rendre l'air conducteur d'électricité, d'impressionner une plaque photographique, et qui est aussi pénétrant que les rayons X.
Les radioéléments

À partir de cette observation, Marie Curie commence, en 1898, ses recherches sur la pechblende (oxyde naturel d'uranium) ; son but est de quantifier le rayonnement émis en mesurant l'intensité du courant d'« ionisation » qui est établi dans l'air, sous son action. Elle montre que l'intensité de ce rayonnement est proportionnelle à la quantité d'uranium présent, et elle retrouve ce même phénomène avec l'étude du thorium. Elle propose d'appeler radioactivité cette propriété, et substances radioactives les corps émetteurs de ce rayonnement.
Puis, en collaboration avec Pierre Curie, elle découvre d'autres radioéléments beaucoup plus radioactifs que l'uranium : le polonium en juillet 1898 et le radium en décembre de la même année. Les sources de radium sont un million de fois plus radioactives que les sels d'uranium. Dès ce moment, les découvertes de nouveaux éléments radioactifs se succèdent ; ainsi, André Louis Debierne isole l'actinium en 1899.
Le rayonnement radioactif

L'étude du rayonnement radioactif, émetteur de particules, peut alors être entreprise. Les physiciens reconnaissent deux espèces de rayonnements, que le Britannique Ernest Rutherford désigne par les lettres grecques α et β – par la suite un troisième rayonnement, γ (→  rayons gamma), sera identifié –, qui se distinguent par leur aptitude à pénétrer la matière et par leur comportement sous l'action d'un champ magnétique ou électrique. En 1903, ses compatriotes W. Ramsay et F. Soddy montrent que le rayonnement α est formé de noyaux d'hélium, projetés à grande vitesse.

2.3.3. Le noyau

   


L'existence du noyau est démontrée en 1907 par Rutherford, qui a l'idée de bombarder la matière, afin de mieux comprendre sa nature, à l'aide de particules α utilisées comme de véritables projectiles. À cet effet, il réalise, dans un tube sous vide, un faisceau étroit de particules α émises par désintégration radioactive du polonium, et place sur son trajet une feuille d'or très mince. Il constate que la plupart des particules n'ont pas rencontré d'obstacles en traversant la feuille d'or, et que par conséquent la matière est pratiquement vide. Cependant, quelques particules sont fortement déviées, et le calcul montre qu'elles ne peuvent être repoussées que par des charges positives concentrées dans un très petit volume.

2.3.4. Le proton
Un des élèves de Rutherford, H. G. Jeffreys Moseley, détermine en 1913 le nombre de charges électriques unitaires et positives que contient l'atome (numéro atomique Z), tandis que son maître découvre, en 1919, la particule positive constitutive du noyau, qu'il nomme proton. Il pressent l'existence d'une particule semblable mais neutre.

2.3.5. Le neutron
En 1930, les Allemands Walter Bothe et Heinrich Becker observent, en bombardant des éléments légers (lithium, béryllium, bore) par des particules α, l'apparition d'un nouveau rayonnement encore plus pénétrant que les protons, qui n'est pas dévié par un champ électrique ou magnétique. C'est encore un élève de Rutherford, James Chadwick, qui en 1932 montre que ce rayonnement est constitué de particules de masse quasi identique à celle du proton, mais neutres, insensibles aux charges électriques, et donc très pénétrantes : les neutrons.

2.3.6. Mésons et quarks

Par la suite, on s'aperçoit que les nucléons (neutrons et protons) ne restent pas inertes dans le noyau : ils interagissent en échangeant des particules plus élémentaires, les mésons π (ou pions), découverts en 1947 par le Japonais Yukawa Hideki et le Britannique Cecil Frank Powell.
Dans les années 1960, l'Américain Murray Gell-Mann introduit l'hypothèse que les nucléons sont eux-mêmes composés de trois grains quasi ponctuels, les quarks, liés par des gluons. Avec l'avancée des constructions théoriques pour rendre compte des faits expérimentaux, le nombre des quarks a été porté à six. Ainsi, en moins d'un siècle, la notion de particule élémentaire est passée de la molécule à l'atome, puis au noyau, ensuite au nucléon puis au quark, et d’autres particules théoriques sont encore à l’étude dans les gigantesques accélérateurs.

3. La représentation de l'atome
Dès que la notion scientifique d'atome apparut, il s'avéra nécessaire de la symboliser pour parvenir à une meilleure compréhension des processus chimiques.
3.1. La représentation symbolique de l'atome

Bien que les termes d'atome et d'élément y soient parfois confondus avec celui de molécule, la première tentative de représentation de l'atome peut être attribuée à John Dalton, qui donne une table des « poids » des différents éléments connus : ces derniers sont représentés par des cercles dans lesquels des lettres, des points ou des traits caractérisent la nature de l'élément. À la même époque, en 1814, la première notation systématique des éléments par le Suédois Jöns Jacob Berzelius annonce la représentation qui sera retenue par la suite. Chaque élément chimique est représenté par un symbole : la première lettre du nom en latin suivi éventuellement d'une deuxième lettre pour distinguer des éléments ayant des initiales identiques. Ainsi, le fluor (F) se distingue du fer (Fe), du fermium (Fm), ou du francium (Fr).

3.2. La représentation spatiale ou la notion de modèle
Dès les premiers résultats expérimentaux, les physiciens entreprennent de proposer une représentation de l'atome capable d'intégrer dans un ensemble cohérent les observations fragmentaires. Ils vont ainsi élaborer un modèle qui rend compte à un instant donné de la totalité des informations recueillies et validées.
3.2.1. Le modèle planétaire

En 1901, Jean Perrin propose une représentation planétaire de l'atome où l'électron décrit une trajectoire circulaire autour du noyau. Reprise et mise en équation par le Danois Niels Bohr en 1913, cette interprétation va s'installer durablement dans les esprits, alors que dès 1927 de nouvelles découvertes la mettent en cause.

Ce modèle s'impose au début du xxe s., car il concilie des résultats provenant d'horizons divers. En effet, on a observé, dès 1850, que chaque gaz, quand il est excité par des décharges électriques, émet une lumière qui, en passant dans un spectroscope à prisme, donne un spectre d'émission différent. Même l'hydrogène, l'élément le plus simple, donne naissance à un spectre complexe.
À la suite des travaux du Suisse Johann Jakob Balmer, en 1885, sur le spectre d'émission de l'hydrogène, le Suédois Johannes Robert Rydberg a proposé une relation mathématique simple entre les longueurs d'onde λ des raies caractéristiques du spectre de l'hydrogène :
1/λ = RH (1/n12 − 1/n22).
• RH est une constante spectroscopique appelée constante de Rydberg (RH = 109 737,32 cm−1) ;
• 1/λ est l'inverse de la longueur d'onde, appelé nombre d'onde (exprimé en cm−1) ;
• n1 et n2 sont des nombres entiers tels que n2 > n1, une série de raies du spectre de l'hydrogène étant caractérisée par une valeur donnée de n1, et par des valeurs de n2 égales à n1 + 1, n1 + 2, n1 + 3.

En 1913, James Franck et l'Allemand Gustav Hertz démontrent qu'un atome ne peut absorber de l'énergie que par quantités discrètes (ΔE) : ce phénomène donne naissance à un spectre d'absorption. Réciproquement, une perte de ces quantités d'énergie (ΔE) engendre une radiation (→  rayonnement) dont la fréquence (ν) émise vérifie la relation avancée par un autre Allemand, Max Planck, pour définir un quantum d'énergie :
ν = ΔE/h
dans laquelle h est la constante de Planck (h = 6,626 × 10−34 J . s).
Ces propositions sont corroborées par le calcul qui mène à la valeur expérimentale de la constante de Rydberg.
Ainsi, il apparaît que l'ensemble des travaux menant à la quantification des niveaux d'énergie des électrons dans l'atome s'accorde avec le phénomène de discontinuité des spectres d'émission de l'atome d'hydrogène : c'est la raison de la faveur du modèle de Bohr.

Selon ce modèle, les électrons se déplacent autour du noyau central sur des orbites analogues à celles que parcourent les planètes autour d'un astre. Au centre se trouve le noyau, chargé positivement, autour duquel gravitent les électrons négatifs ; la charge du noyau est égale à la valeur absolue de la somme des charges des électrons.
Ces électrons planétaires ne peuvent se situer que sur certaines orbites stables, associées chacune à un niveau d'énergie formant une suite discontinue, et correspondant aux différentes couches désignées par les lettres K, L, M, N, etc. On dit que l'énergie de l'atome est quantifiée.
La couche électronique K, la plus proche du noyau, peut au plus contenir deux électrons, et la couche L, huit électrons. Sous l'effet d'une excitation extérieure, l'électron peut passer d'une orbite à une autre, d'énergie supérieure. Mais il revient ensuite spontanément sur des orbites d'énergie inférieure. C'est alors qu'il rayonne de l'énergie.

3.2.2. Limites du modèle planétaire
En dépit du perfectionnement du modèle de Bohr, en 1928, par l'Allemand Arnold Sommerfeld, qui propose pour l'électron une trajectoire elliptique, une rotation sur lui-même (spin de l'électron) et la quantification étendue à l'espace pour tenter de rendre compte de la décomposition des raies spectrales émises quand on place l'atome dans un champ magnétique (effet Zeeman, du Néerlandais Pieter Zeeman), ce modèle avait des difficultés à interpréter les résultats obtenus pour les atomes à plusieurs électrons.
De plus, l'électron, qui rayonne de l'énergie, devait logiquement tomber sur le noyau.
Malgré le succès remporté par le modèle atomique de Bohr, il est très vite apparu impossible de développer une théorie générale pour tous les phénomènes atomiques en surimposant simplement aux principes de la mécanique classique ceux de la mécanique quantique.

3.2.3. Dualité onde-corpuscule

Vers 1900, Max Planck avait associé au caractère ondulatoire du rayonnement défini par une longueur d'onde λ un caractère corpusculaire sous forme de photons dont l'énergie E est liée à cette longueur d'onde λ par la relation (où c est la vitesse de la lumière) :
E = hν = hc/λ.

Le Français Louis de Broglie extrapole cette théorie des photons à toute particule, dans sa thèse en 1924, où il montre que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire.
Dès 1927, les Américains Clinton Joseph Davisson et Lester Halbert Germer prouvent le bien-fondé de cette relation en réalisant la diffraction d'électrons par un cristal, démontrant ainsi le caractère ondulatoire des électrons (en 1978, on réalisera aussi la diffraction de l’antiparticule de l’électron nommée positon, découvert en 1932 par l'Américain Carl David Anderson).
Par ailleurs, en 1927, l'Allemand Werner Heisenberg traduit par une inégalité l'impossibilité de connaître simultanément deux paramètres pour une particule en mouvement (vitesse et position, par exemple). C'est le principe d'incertitude, incompatible avec le modèle de Bohr :
Δp × Δx > h
où Δp et Δx expriment respectivement les incertitudes sur les paramètres p (quantité de mouvement) et x (position).
3.3. L'atome en mécanique ondulatoire
Le caractère double de la matière, ondulatoire et corpusculaire, et le principe d'incertitude font abandonner le modèle de Bohr et sa représentation ponctuelle de l'électron parcourant une trajectoire. Une démarche neuve apparaît avec des modes de raisonnement et de calcul qui lui sont propres. La position, la vitesse et la direction du déplacement d'un électron ne pouvant être définies simultanément, on détermine la probabilité de sa présence dans un certain volume de l'espace situé autour du noyau, que l'on appelle orbitale ou nuage électronique. On lui associe une fonction complexe purement mathématique nommée fonction d'onde (Ψ), qui se calcule par la résolution d'une équation posée par l'Autrichien Erwin Schrödinger.

L'application de l'équation de Schrödinger à l'électron unique de l'atome d'hydrogène dans son état de plus faible énergie, appelé état fondamental, permet de retrouver les résultats expérimentaux déjà interprétés par le modèle planétaire. Mais elle intègre les états inhabituels, dits états excités, où les énergies sont plus élevées que dans le cas de l'état fondamental, et permet l'extension et la généralisation du modèle aux atomes autres que l'hydrogène : les électrons de ces derniers occupent, à l'état fondamental, des orbitales comparables à celles des états excités de l'atome d'hydrogène.

Pour rendre compte du comportement des atomes possédant un seul électron sous l'effet d'un champ magnétique ou d'un champ électrique, on a été amené à introduire la notion de spin, qui trouve sa formulation mathématique grâce au Britannique Paul Dirac (en première approximation par rapport à la mécanique classique, le spin traduit un mouvement propre de rotation de l'électron sur lui-même).
On déduit par ailleurs de la mécanique ondulatoire le principe dit d'exclusion de Pauli, selon lequel deux électrons d'un même atome ne peuvent pas être repérés par le même ensemble de nombres quantiques n, l, m, s.
Il apparaît en outre que les électrons sont généralement localisés plus particulièrement dans certaines directions de l'espace autour du noyau.

3.4. Paramètres caractéristiques des électrons dans l'atome

La résolution mathématique de l'équation de Schrödinger impose des restrictions qui conduisent à l'introduction de nombres appelés nombres quantiques – n, l, m, s – devant satisfaire à certaines conditions ; l'énergie et la localisation spatiale des électrons gravitant autour du noyau sont déterminées par ces nombres .

3.4.1. Le nombre quantique principal
Le nombre quantique principal n est un entier strictement positif : il se nomme nombre quantique principal, car il quantifie l'énergie. On retrouve par la mécanique ondulatoire la même expression des différents niveaux d'énergie de l'atome d'hydrogène que celle obtenue dans le modèle de Bohr soit :
En = −13,6/n2 en eV (1 eV = 1,6 × 10−19 J)
avec n = 1, 2, 3…

Le nombre n détermine également le volume à l'intérieur duquel l'électron a le plus de chance de se trouver : quand n croît, le volume augmente. Les valeurs successives 1, 2, 3, etc. correspondent à l'ancienne notation des couches atomiques par les lettres K, L, M, etc.
Cependant, pour décrire une orbitale atomique, le nombre quantique principal n n'est pas suffisant, car si l'énergie fixe la taille de l'orbitale, elle ne donne pas la direction de l'espace où la probabilité de trouver l'électron est importante.

3.4.2. Le nombre quantique azimutal
Le nombre l est un entier positif, strictement inférieur à n, appelé nombre quantique azimutal, ou nombre quantique secondaire (par exemple, si n = 2 alors l = 0 ou 1) ; l quantifie le module du moment cinétique orbital.
De plus, l détermine la forme de l'orbitale dont les grands axes indiquent la direction où l'on a le plus de chance de trouver l'électron. Selon que l = 0, 1, 2, 3 ou 4, les différents types d'orbitales atomiques sont désignés respectivement par s, p, d, f ou g.
Ainsi, pour l = 0, la distribution électronique est symétrique autour du noyau et la probabilité de trouver l'électron est la même dans toutes les directions ; c'est le cas de l'hydrogène à l'état fondamental.
Si l = 1 ou 2 (orbitales p ou d), la fonction d'onde présente des « excroissances » dans des directions privilégiées de l'espace, justifiant l'orientation et les valeurs précises des angles de liaison des atomes entre eux dans les molécules.

3.4.3. Le nombre quantique magnétique
Le nombre m est un entier variant de − l à + l, prenant donc 2l + 1 valeurs : on l'appelle nombre quantique magnétique, car il quantifie la projection du moment cinétique sur un axe privilégié, celui selon lequel on applique un champ magnétique.
Ainsi, pour n = 2 :
• à l = 0 correspond m = 0 ;
• à l = 1 correspond m = − 1, 0, + 1,
m indique donc le nombre d'orbitales.
Pour l = 1 on a des orbitales p, où la probabilité de trouver l'électron est importante sur l'axe Oz pour m = 0, et suivant les axes Oy ou Ox pour m = − 1 ou + 1. À chaque type d'orbitale atomique (s, p) correspondent donc (2l + 1) orbitales atomiques, soit 1 de type s, 3 de type p, 5 de type d, 7 de type f, qui ont chacune une forme et une orientation bien particulières.
Ψn, l, m est la fonction d'onde qui exprime la forme de l'orbitale atomique occupée par un électron ; cette fonction au carré Ψ2n, l, m exprime la probabilité de présence de cet électron dans les différents domaines de l'espace.
(Ψn, l, m est une fonction des coordonnées de l'espace : x, y, z en coordonnées cartésiennes, ou r, θ, φ en coordonnées polaires.)

3.4.4. Le spin
Le quatrième nombre quantique est le spin s, qui prend deux valeurs opposées (+ 1/2 et − 1/2) pour chaque ensemble n, l, m.
Aucun électron d'un même atome n'a ses quatre nombres quantiques identiques à ceux d'un autre électron (principe d'exclusion). Pour une valeur n du nombre quantique principal le nombre maximum d'électrons est 2n2.
La résolution de l'équation de Schrödinger n'est rigoureuse que pour l'atome d'hydrogène. Elle s'étend toutefois aisément aux ions hydrogénoïdes, tels que He+ (un seul électron autour du noyau), et avec des approximations satisfaisantes elle s'applique aux atomes à plusieurs électrons.
Jusqu'à présent, l'hypothèse quantique, tout en se modifiant au fur et à mesure des nouvelles données, permet d'expliquer l'ensemble des connaissances.
À partir du nombre global d'électrons, et en jouant avec les valeurs que peuvent prendre entre eux les nombres quantiques, il est possible de construire la carte d'identité de chaque atome tout en respectant les règles qui, parfois sous des noms différents, ne sont qu'une même expression du fait que l'énergie la plus faible confère à l'édifice la stabilité la plus grande.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
  LA CATALYSE
 

  DOCUMENT           cnrs       LIEN

 

LA CATALYSE


La plupart des réactions biologiques qui forment le corps humain sont des réactions catalytiques. La catalyse joue un rôle également déterminant dans des processus industriels majeurs comme la synthèse de l'ammoniac, le raffinage du pétrole ou la réduction des oxydes d'azote dans les pots catalytiques. Un catalyseur est un composé qui rend possible une réaction chimique mais qui sort indemne de la transformation. Un catalyseur peut agir sur un acte élémentaire ou sur le bilan d'une réaction complexe ; enfin il peut orienter vers une réaction plutôt qu'une autre. La catalyse concerne tous les domaines de la chimie. La catalyse acido-basique concerne le domaine de la chimie organique. Les catalyseurs dans le domaine de la biochimie sont les enzymes qui doivent épouser une forme complémentaire du substrat pour s'adapter à lui, puis présenter un site actif où la réactivité est modifiée. La catalyse homogène est le domaine de la chimie organométallique ; elle concerne un centre métallique dont l'environnement électronique et géométrique est bien défini, ce qui permet de bien contrôler la réaction. La catalyse hétérogène concerne la science des surfaces et des interfaces. Du point de vue industriel, ces catalyseurs sont les plus employés car ils présentent de nombreux sites actifs qui sont utilisés de nombreuses fois de façon consécutive. Comprendre un processus catalytique, c'est aller au delà d'un simple bilan, cela nécessite de décrire les étapes du voyage partant des réactifs et allant vers les produits. Comprendre la catalyse, c'est décrire la réaction dans son environnement. Cela devrait être de plus en plus le cas durant le prochain siècle et cela devrait permettre d'améliorer les performances des catalyseurs déjà connus.

 

Consulter  le  document  PDF

 
 
   Fichier à télécharger : CATALYSE
 
  CHIMIE ET ART
 

 

 

 

 

 

 

CHIMIE ET ART


C'est Gaston Bachelard qui, après Pasteur, attira l'attention sur les transactions et les créations matérielles dans la science et la chimie. Il rappelle que ce domaine dépasse, par sa richesse, la mémoire et l'imagination de tout homme. En réalité depuis qu'ils fabriquent des pierres taillées et des épieux appointés, depuis qu'ils utilisent le feu, depuis qu'ils tannent des peaux, qu'ils enduisent de couleurs leurs corps ou les parois des cavernes les Hommes sont plongés dans le monde de la chimie par l'intermédiaire de tous ces matériaux qu'ils expérimentent concrètement mais dont ils ne connaissent absolument pas la théorie.

Les métallurgistes, les verriers, les fabricants de couleurs ont sans doute compris quelques processus de la transformation des matériaux mais il semble que leur savoir soit resté empirique. Nous avons à faire à un énorme matériel, d'énormes vestiges que les Hommes ont produits d'une manière synthétique, ingénieuse, mais ils n'en savaient pas la théorie. Ils avaient un sentiment d'empirisme, ils réussissaient, et parfois d'une manière géniale, ces objets que l'on retrouve dans les tombes et les habitats. Tous ces objets, nous en avons la charge, des témoins, des références qu'il faut comprendre et essayer de conserver.

Tout a commencé lorsque Roentgen, il y a environ un siècle, a inventé les rayons X. En inventant les rayons X, il inventait l'invisible, il permettait de voir quantités de choses que nous ne pouvions percevoir avec nos yeux. Cet invisible va être source de quantité de travaux que ce soit en médecine, en physique et dans le monde du patrimoine. Une science, la science des matériaux, l'art dans le sens de ce qu'a fabriqué l'Homme, y a trouvé un outils précieux.


Texte de la 353e conférence de l’Université de tous les savoirs donnée le 18 décembre 2000. Art et Chimie Par Jean-Pierre MOHEN La chimie dont il est question n’est pas seulement l’étude de chaque élément séparé d’un corps complexe, ce qui est le cas général dans la nature ; elle est aussi l’observation de l’interaction des éléments entre eux, celle des éléments contenus dans ce corps mais aussi celle des éléments de leur environnement. Cette chimie analytique selon l’expression contemporaine se préoccupe des conditions de l’échantillonnage et de la mesure aussi bien que de la valeur sociale et culturelle de ses interrogations sur le vieillissement et la transformation de ses composantes avec le temps. Elle est malgré son autonomie méthodologique, une science appliquée. Quant à l’art, il est considéré dans son sens général qu’il avait encore au XVIIIe siècle, au temps de l’Encyclopédie de Diderot, c’est-à-dire qu’il désigne les produits des arts de l’humanité, il est lui aussi soumis à l’évolution des matériaux qu’il met en œuvre et à celle des mentalités de son auteur et des publics qui le reçoivent. La rencontre de plus en plus fréquente de l’art et de la chimie suscite une double interrogation : « que sommes-nous en mesure d’attendre d’une science des matériaux de l’art ? » et « en quoi celle-ci a-t-elle révélé un champ nouveau de la recherche appliquée, entraînant une prise de conscience liée à la responsabilité patrimoniale ? » Gaston Bachelard après Pasteur, attira avec le même enthousiasme, l’attention sur les transactions et les créations matérielles dont la science est la chimie. Il rappelle que ce domaine dépasse par sa richesse la mémoire et l’imagination de tout homme. Celui-ci est lui-même le résultat de cette chimie et pour exister il devient encore plus chimiste. Depuis que les humains fabriquent des pierres taillées et des épieux appointés depuis qu’ils utilisent le feu, depuis qu’ils tannent des peaux, depuis qu’ils enduisent de couleurs leur corps ou certaines parois de cavernes, ils manipulent les matériaux de la chimie pour en faire des matières vitales qu’ils expérimentent concrètement mais dont ils ne connaissent absolument pas la théorie. Les métallurgistes, les verriers, les fabricants de couleurs ont sans doute compris quelques processus de la transformation des matières premières mais bien qu’il semble que leur savoir soit resté empirique, ils ont créé des combinaisons nouvelles pour leurs besoins spécifiques. Les artisans ne peuvent se concevoir sans ces défis matériels qui prolongent directement leurs intentions. Sur ce point de la recherche des matériaux adaptés ou inventés, il existe une grande continuité entre les temps les plus anciens de l’humanité et les temps les plus récents. Pour approfondir la connaissance de ces patrimoines et en améliorer la conservation en les abordant par leur matérialité, la chimie analytique a su mettre au point des méthodes le plus souvent non destructives et constituer les fondements d’une science du patrimoine. L’approche consiste en un examen physique et optique préalable susceptible d’orienter la stratégie analytique. Les moyens d’étude du laboratoire du Centre de recherche et de restauration des musées de France (C2RMF) au Louvre permettent de mettre en œuvre cette méthodologie. Les examens comprennent des observations, sources d’imageries scientifiques obtenues grâce à des éclairages en lumière visible directe ou rasante, en ultraviolet, en infra rouge, en radiographie, en gammagraphie, en bétagraphie, etc. La microscopie se fait grâce à la binoculaire, au microscope métallographique ou au microscope électronique. La plupart de ces observations sont faites directement sur l’œuvre sans prélèvement d’échantillon ; le polissage d’une « lame mince » à partir d’un minuscule prélèvement est nécessaire pour le microscope métallographique et parfois (pas toujours si l’objet assez petit rentre dans la chambre d’observation) pour le microscope électronique. La numérisation en haute définition de ces images scientifiques permet non seulement de les consulter par thèmes indexés mais aussi de les traiter pour en accentuer les contrastes, les agrandir, en isoler certains détails. Les examens renseignent sur la technique de fabrication, sur les « repentirs », sur les réparations, sur les états de conservation successifs. Les analyses élémentaires étudient la composition chimique des différents constituants de l’œuvre. Les méthodes classiques de la chimie peuvent être utilisées mais elles sont destructives. Des échantillons sont également analysés en fluorescence X ou en diffraction X. Un appareil de fluorescence X portable a été testé sur la polychromie d’une tombe égyptienne nouvellement découverte à Saqqarah. L’analyse par faisceau d’ion mise au point avec l’accélérateur du Louvre AGLAE, permet aussi grâce à la méthode non destructive PIXE, de connaître la composition non organique d’une œuvre. Pour les matières organiques, on a recours à la chromatographie en phase gazeuse. Un appareil Raman, transportable permet d’évaluer les teneurs des matières organiques mais aussi des matières non organiques. L’originalité de ces méthodes est de fonctionner avec des échantillons très petits ou même de plus en plus directement sur l’œuvre. Une autre tendance est de mettre au point des appareils transportables pour étudier les œuvres fragiles ou monumentales des musées, ou les vestiges en cours de dégagement lors de la fouille archéologique. Un dernier secteur doit être ajouté, celui des méthodes de datation : la thermoluminescence étudie les minéraux chauffés (lœss, pierres de foyer, céramique) ; la méthode du carbone 14 pour laquelle un plan national est en cours d’élaboration, appréhende les échantillons organiques. Enfin, quelques autres méthodes plus particulières sont sollicitées comme l’étude utilisant le rayonnement du synchrotron du Lure à Orsay et du ESRF de Grenoble. Quelques exemples donnent une idée de la variété et de la richesse de l’exploration physico-chimique de ce patrimoine dans son contexte culturel archéologique ou artistique. Sept objectifs pour une science du patrimoine La finalité des recherches et des applications d’une science du patrimoine peut correspondre à six grands thèmes qui donnent une idée de l’ampleur du champ couvert par cette discipline essentiellement interdisciplinaire. 1 – Le premier thème concerne la science des matériaux du patrimoine. Elle identifie chacun de ces matériaux et peut en rechercher l’origine géologique pour les minéraux. Elle caractérise aussi les molécules des matières organiques. La chimie de la matière aide à reconnaître la richesse du monde, source d’objets multiples de prestige et de valeur culturelle. Elle seule nous permet d’appréhender à l’époque actuelle des nuances reconnues à travers le temps, à la suite d’une infinie curiosité empirique : il en est ainsi de la profondeur verte d’un jade et d’une jadéite, de l’intensité d’un bleu lapis-lazuli, de la pureté d’un or. Le vocabulaire chimique fonctionne alors comme une clé qui peut ouvrir un vaste champ d’investigation archéologique et historique. Deux exemples illustrent cette approche « archéométrique » appliquée au contexte fonctionnel et culturel, l’un concernant un minéral et l’autre un matériau organique (Amatore, Blanzat, 2000). La statuette en albâtre de la déesse Ishtar (du IIe siècle avant J.-C. à la fin du IIIe siècle après J.-C.) trouvée à Babylone en Mésopotamie, est conservée au musée du Louvre. Elle est représentée nue avec un croissant sur la tête. Elle est parée d’un collier et de deux boucles d’oreille en or. Ses yeux et son nombril sont incrustés de trois cabochons rouge. L’expertise en est réalisée à l’aide de l’accélérateur de particules du C2RMF, grâce à la méthode non destructive PIXE, directement sur la statuette. Les éléments majeurs, en particulier l’oxygène et l’aluminium, un corindon coloré par du chrome définirent un rubis. Les éléments traces, dont le fer, le vanadium, le titane et le gallium rapprochent les trois rubis d’une même origine géochimique, d’un groupe déterminé à la suite d’une enquête géologique et provenant de Birmanie. Se pose alors la question en termes inédits, des relations entre la Mésopotamie et l’Extrême-Orient. Les adhésifs utilisés par les hommes préhistoriques semblaient ne pas poser de problèmes particuliers. On pensait que pour fixer les pointes en os ou en silex à l’extrémité des sagaies et des flèches ou pour réparer des fissures de vases en céramique, le seul matériau facilement accessible était le brai de bouleau obtenu en faisant brûler de l'écorce de cet arbre. L’étude en chimie analytique a montré à partir d’échantillons néolithiques (4000 – 3000 avant J.-C. ) provenant de la grotte de Giribaldi près de Nice (Alpes Maritimes) et du site lacustre de Chalain (Jura) qu’outre le brai de bouleau, d’autres brais très variés avaient été fabriqués à partir d’écorces de résineux tel le pin à Nice et de feuillus tels l’aulne, le chêne ou le hêtre à Chalain ; un mélange de graisse animale et de bitume sans doute originaire de Suisse occidentale était également utilisé dans le Jura. Dans le cas des adhésifs, le type de matériau qui semblait banal, s’avère varié et de qualité sans doute diversifiée. Cette découverte ouvre la voie à une nouvelle recherche intéressante sur une technologie préhistorique originale. 2 – Le thème suivant, le deuxième, étudie la mise en œuvre des matériaux, c’est-à-dire la technique. Lorsque celle-ci est appréhendée dans sa complexité, elle est la source des critères qui étayent l’expertise d’authenticité. La technique révèle en effet son auteur grâce à des indices souvent ténus qui prouvent que les matériaux produits ne sont pas le plus souvent naturels comme l’apparence le ferait croire mais artificiels et synthétiques. Les études sur la technique révèlent en outre les degrés d’innovation de certains corps de métier ou de créativité de certains artistes. Les fards de l’Égypte ancienne sont connus par quelques poudres conservés dans des flacons ou petits pots funéraires conservés au Musée du Louvre : ils sont fabriqués pour les trois quarts à partir d’un produit à base de plomb associant quatre phases principales, la galène pour les tons foncés et trois matières blanches, la cérusite, la phosgénite et la laurionite, les deux dernières étant obtenues artificiellement à la suite d’un traitement aqueux répétitif associé à du sel gemme et parfois à du natron. Les résultats sont des « écumes d’argent lavées » selon l’expression de l’auteur ancien Pline qui explique qu’elles servaient encore à l’époque gréco-romaine à soigner les maladies des yeux et de la peau et à laver les cheveux. Il semble bien que les Égyptiens ont découvert d’une manière empirique mais déterminée, l’intérêt de ces préparations par voie aqueuse pour allier les effets esthétiques des fards à leurs vertus pharmaceutiques. Ce programme de recherche qui s’étend maintenant à la Méditerranée antique, est mené par le Centre de recherche et de restauration des musées de France en partenariat avec L’Oréal (Walter, Martinetto, Tsoucaris, …1999). La technique de Rembrandt met en valeur l’originalité de l’artiste. Elle a été précisée à l’occasion de la préparation en 1995 d’une exposition au Metropolitan Musuem, au titre suggestif « Rembrandt Not Rembrandt ». Il s’agissait pour le musée new-yorkais de faire le point sur la collection du Musée, comprenant dix-huit peintures du maître et vingt-cinq autres désormais attribués à des élèves, des continuateurs ou des imitateurs. Ces tableaux ont fait l’objet d’examens radiographiques, auto-radiographiques, neutro-radiographiques, chimiques, etc. La caractérisation originale de Rembrandt est d’avoir substitué au blanc de plomb du calcaire appelé « lowitt » qui mélangé à de l’huile, devient transparent et se mêle à des pigments de terre ou des laques, pour donner des effets de profondeur comme dans La Toilette de Bethsabée. Rembrandt avait aussi le secret d’introduire dans sa couche de préparation de la toile, du quartz et de l’argile blanche qui avaient le meilleur effet sous la couche picturale. Comme liant, il préférait l’huile de noix alors que ses élèves utilisaient plus communément l’huile à base de résine de pin. Pour les couleurs, le maître savait jouer en complément du smalt (couleur bleu), des effets optiques de poudres de verre contenant du cobalt, ou de l’arsenic pour les couleurs sombres. Ces exemples montrent combien la technique était maîtrisée et inséparable du génie de l’artiste. 3 – Le troisième thème est la datation qui grâce au développement des méthodes physico-chimiques des cinquante dernières années élabore une chronologie universelle qui recule de plusieurs milliers d’années les limites de l’histoire humaine traditionnelle puisant ses sources dans les seules archives écrites de quelques grands états. La méthode du carbone 14 en particulier mise au point en 1949 par le physicien américain Libby, ce qui lui valut le prix Nobel, permet de dater tout échantillon de matière organique ayant absorbé l’isotope 14 radioactif du carbone. Les résultats de cette méthode, pertinents jusqu’à 50 000 ans, sont précisés grâce à la dendrochronologie qui mesure les cernes des arbres anciens et fossiles jusqu’à 10 000 ans. La thermoluminescence évalue l’ancienneté de la dernière chauffe des minéraux (pierre ou poterie). D’autres méthodes isotopiques datent des strates géologiques plus anciennes, ce qui rendent possibles les recherches spectaculaires sur l’hominisation. Parmi les applications récentes de ces datations, celles des grottes ornées paléolithiques ont remis en cause le primitivisme des manifestations les plus anciennes comme celles de la grotte Chauvet (Ardèche) fréquentée il y a 32 000 ans. L’incroyable grotte peinte de Cosquer (Bouches-du-Rhône) a pu être authentifiée malgré une entrée à 40 m au-dessous du niveau de la mer ! Cette bizarrerie s’explique en fait par la remontée des eaux après la dernière période glaciaire qui correspond aux époques de fréquentation des artistes préhistoriques. Grâce à l’utilisation d’un accélérateur AMS, les échantillons organiques nécessaires à l’étude du carbone 14 sont de plus en plus microscopiques. Ainsi quelques particules prélevées dans des poteries (laboratoire de Lyon) ou dans la couche de préparation de tableaux (laboratoire Smithsonian à Washington) suffit pour obtenir des résultats. C’est ainsi également que le suaire de Turin a commencé à poser le problème de la relation entre la foi et l’image historique. 4 – Le quatrième thème attire l’attention sur les problèmes d’altération de vieillissement ou tout simplement de transformation des matériaux. L’introduction dans l’approche des œuvres patrimoniales, de la dimension du temps, incite à aborder de manière scientifique et inédite les caractérisations des altérations pour en comprendre les processus en temps réel et non en temps compressé à l’aide de méthodes artificielles comme on le fait d’ordinaire dans les étuves des laboratoires des sciences des matériaux. L’altération des verres anciens est un bon exemple qui intéresse à la fois des responsables des collections d’émaux médiévaux ou ceux des vitraux de cathédrale, et en même temps les scientifiques du stockage des déchets nucléaires. Les verres potassiques sont plus instables que les verres sodiques plus anciens. La déficience chimique entraîne une réaction physique qui fissure le réseau cristallin et laisse s’introduire l’humidité qui provoque les écailles. Des recommandations de conservation préventive peuvent être faites. Dans d’autres cas, la reconnaissance de la décoloration irréversible de pigments entraîne une prise de conscience sur la fragilité de l’œuvre et les limites de notre appréhension de l’œuvre originelle. C’est le cas de deux pigments organiques rouge, l’éosine et le carmin de cochenille, couleurs de synthèse instables que Van Gogh a utilisées dans sa dernière période, celle d’Auvers-sur-Oise. Décolorés par la lumière, ils apparaissent de nos jours blancs, alors qu’ils devaient cerner de rouge les contours des visages et des mains du « Docteur Gachet » et les « Deux petites filles »… (Giraudy, 1999). Les effets de couleur et de surface sont également étudiés dans le cas des patines préméditées ou naturelles. Le problème se pose aussi bien pour les peintures et leur glacis délicat, pour les bronzes antiques traités selon des recettes transmises par Pline, pour ceux de la Renaissance imitant l’ancienneté des précédents, pour les bronzes récents monumentaux destinés à être exposés dans des centres urbains pollués, etc. Parmi les sujets originaux de ce thème, il faut signaler l’examen des produits de corrosion des métaux qui ont minéralisé de nombreux restes organiques ainsi fossilisés : ce sont des textiles de tous genres, des fourrures, des cuirs renseignant sur les vêtements et sur les rites des tombes dans lesquelles ces vestiges sont trouvés. De nombreuses études existent aussi sur le vieillissement des matériaux de construction. Le laboratoire de recherche des monuments historiques à Champs-sur-Marne travaille surtout sur la pierre et les bétons. Comment en extraire les sels qui s’infiltrent depuis le sol humide par capillarité ? Comment consolider certaines pierres de manière efficace ? Faut-il remplacer les pierres malades ? Des grands monuments comme les cathédrales de Strasbourg, d’Amiens, de Chartres, de Notre-Dame de Paris sont des chantiers quasi permanents. Les travaux y sont de plus en plus minutieux et les recherches sur les évolutions de la polychromie des sculptures ont donné quelques résultats spectaculaires à Poitiers et à Amiens. 5 – Le cinquième thème couvre à lui seul un champ considérable, celui de la restauration, considérée comme une « reconnaissance » de l’objet ou de l’œuvre d’art, au-delà des injures du temps et au-delà des anciennes restaurations qui masquent souvent des aspects originels. La chimie des matériaux de la restauration renseigne sur les vieux produits, mastics, jus ou vernis qu’il convient d’enlever et parfois de remplacer. Elle évalue les nouveaux adhésifs, solvants et vernis mais aussi les types de peinture, souvent des aquarelles destinées à combler les surfaces lacunaires. Le principe de la réversibilité de la restauration doit être chimiquement assuré. Malgré une théorie bien élaborée de la restauration (C. Brandi, 1963), les décisions à prendre sont souvent subtiles et apparaissent souvent comme des compromis car si le but est bien de se rapprocher le plus possible de l’état originel de l’œuvre, un autre principe recommande que cette œuvre se manifeste aussi dans son état historique patrimonial. De nombreuses sculptures antiques en marbre ont ainsi reçu des compléments de nez, ou de main ou même de bras ou de jambe. Dans la mesure où l’œuvre est connue complétée, l’intervention minimaliste de restauration consiste à laisser ces ajouts que l’on reconnaît grâce à une coloration légèrement différente. Le cas de la sculpture grecque du musée du Louvre, représentant un guerrier combattant et appelée Le Gladiateur Borghèse est révélateur : cette œuvre est signée de son auteur, Agasias d’Ephèse, fils de Dosithéos, date d’environ 100 avant J.-C. ; trouvée au début du XVIe siècle à Anzio, sur la côte du Latium en Italie, elle a été restaurée en 1611 sur l’ordre du cardinal Scipion Borghèse, pour être représentée dans la villa Borghèse. Elle fut achetée en 1807 pour le musée du Louvre. Lors de la restauration de la sculpture en 1996, une étude détaillée permit d’identifier le marbre d’origine et celui des pièces complémentaires, de repérer avec précision par gammagraphie les différents montages des fragments, de localiser par fluorescence UV les mastics des différentes interventions qui furent ensuite analysés chimiquement comme références des mastics utilisés au XVIIe siècle. Les principes retenus pour une restauration prudente de cette œuvre célèbre ont été de vérifier l’authenticité du remontage de chaque partie de la sculpture pour rendre compte en particulier du mouvement voulu par l’artiste, de respecter l’historicité de la restauration « Borghèse » et d’atténuer l’assombrissement de la patine de la pierre, dû à la crasse accumulée année après année (Bourgeois, Pasquier, Pontabry, 1997). Les résultats de l’analyse chimique ont été décisifs aussi pour caractériser un repeint de goût du manteau de l’intendant du tableau des Noces de Cana (1563) peint par Véronèse et conservé au musée du Louvre. Lorsque, entre 1990 et 1992, on décida de restaurer cette toile peinte de grandes dimensions (6,77 m de hauteur par 9,94 m de largeur) une étude détaillée pluridisciplinaire a permis d’argumenter chaque décision. Celle qui s’est imposée pour le manteau de l’intendant a consisté à enlever une couche de couleur rouge qui avait été ajoutée sur une couche verte. Quand les restaurateurs de l’équipe de Marie-Alice Belcour s’aperçurent à la suite de micro-sondages que le manteau vert était complet et que la couche rouge recouvrait aussi en partie l’un des doigts de la main de l’intendant, des doutes sur l’authenticité de la seconde couche se précisèrent. Jean-Paul Rioux, chimiste, a constaté que la composition du liant du manteau rouge est différente de celle des autres couleurs du tableau, avec en particulier de l’adjonction de la résine de pin. D’autre part, la couche verte assez usée a été aplanie à la suite du bouchage de certaines lacunes avant que la couche rouge ne soit étalée ; il a donc fallu une certaine durée entre la fin du tableau de Véronèse et l’ajout de la couche rouge sur le manteau vert. Deux repaires chronologiques confirment ce scénario et nous donnent une indication sur le temps qui s’est écoulé entre les deux couches. En effet, une première copie des Noces de Cana de Véronèse a été peinte par Andrea Vincentino en 1594, 31 ans après que Véronèse eût terminé son tableau : le manteau de l’intendant est alors vert. La première copie montrant le manteau rouge date au plus tôt de 1607 et a donc été ajouté après la mort de Véronèse en 1588, 48 années après que le maître eût posé la dernière retouche sur les Noces de Cana (Habert, Volle, 1992). 6 – La complicité de l’art et de la chimie vient du même besoin d’invention dans l’expérience de la matière. L’artisan ou l’artiste, comme le chimiste, sont confrontés aux éléments naturels qu’ils veulent explorer et maîtriser. La création chimique rejoint la création artistique. Née de la nomenclature de Lavoisier, la chimie moderne, créatrice du schéma de la complexité ordonnée du monde, a lié son destin à l’avenir de l’homme en continuant à découvrir la nature et en l’enrichissant de produits synthétiques parfois fabriqués à l’échelle industrielle. Ces vastes perspectives chimiques ont des incidences sur la création artistique et dans le domaine patrimonial dans ce qu’ils ont de matériel et de subtilement spirituel. Parmi les matériaux de l’art du XXe siècle, si variés et si nombreux, une attention particulière doit être portée à l’acier, au plastique et au béton. Avec les constructivistes et les futuristes des années 1900-1920, la technique et la participation des techniciens sont introduits dans la dynamique conçue par l’artiste. Louis Nevelson en 1983 après Anthony Caro en 1969 découvrent ainsi la « légèreté » de l’acier ; le béton armé apparu vers 1850, constitue une roche artificielle qualifiée de « matériau miracle » par l’architecte Louis Kahn. Picasso et Kleinholz dans les années 1960, Arman et Vostell à partir des années 1970 ont exploité cette matière première structurante pour des sculptures de plus en plus monumentales qui s’intègrent dans des ensembles urbains bétonnés. Le premier plastique artificiel est inventé en 1907 par un chimiste belge, Léon Baekeland qui met au point la « bakélite ». La gamme des plastiques de synthèse envahit le monde moderne à partir de 1920, avec en particulier la mousse de polyuréthane et l’acrylique. César produit ses expansions avec cette mousse dont il contrôle les effets de la réaction chimique jusqu’à la solidification et il recouvre la surface d’une laque acrylique. Un autre type de plastique, le polystyrène expansé est utilisé vers 1966 par Dubuffet pour ses sculptures hautes et légères comme L’Hourloupe ou Coucou Bazar. Les Nanas plantureuses de Niki de Saint-Phalle sont élaborées en polyester puis peintes de bandes de couleurs vives (de Méredieu, 1995). La recherche des matériaux est aussi importante dans l’art contemporain que dans l’art ancien. La variété plus grande des produits modernes donne parfois l’impression d’une dispersion de l’activité artistique. Mais l’artiste et le scientifique ont ceci de commun qu’ils se placent à la frange du connu pour explorer les possibilités inédites. Les questions posées aux laboratoires par les artistes contemporains et par les responsables de la conservation de leurs œuvres, font apparaître à propos de ces matériaux deux aspects majeurs, celui de la mise en œuvre novatrice et de la création et celui du destin de l’œuvre éphémère, modifié ou stabilisé. Et lorsque l’art se veut exploration de l’invisible, langage pur, art conceptuel, il retrouve comme pour la danse ou le chant, la partition, l’enregistrement sous toutes ses formes, image numérisée, bande sonore, cahier des charges, traces d’un instinct de mémoire qui s’apparente à une réaction de survie, par enrichissement illimité de nos images mentales dont les enchaînements forment « la matière-esprit » (Piet Mondrian ou la conscience d’être). La relation art et chimie pose donc aussi le problème de l’avenir de cet art qu’il soit patrimonial ou en cours de conception. 7 - Connaître pour prévoir, prévoir pour sauvegarder et créer. La chimie et les autres approches scientifiques permettent d’appréhender les systèmes naturels ou anthropiques qui conditionnent l’évolution des matériaux de l’art. Les observations liées souvent à l’interprétation de mesures renseignent sur les mécanismes d’altération et confortent quelques recommandations sur les états stables favorables à la préservation des œuvres ou des documents. La sensibilité des pigments à la lumière et en particulier aux ultra-violets, celle de céramiques égyptiennes imbibées de salpêtre migrant vers la surface quand l’humidité rentre dans la poterie puis s’en évapore ou celle de l’argent qui se ternit en fonction de la pollution de l’air sont évaluées lors d’un diagnostic qui est la reconnaissance du phénomène, puis d’une prédiction qui signifie la connaissance du processus d’évolution et enfin l’appréhension des causes du phénomène sur lequel il est parfois possible d’agir : ainsi, dans les trois exemples précédents, le filtre UV est parfois suffisant pour protéger certaines couleurs, la désalinisation de la poterie s’impose et la purification de l’air est recommandée pour garder l’éclat de l’argent. La conservation préventive tente ainsi de modéliser les paramètres environnementaux et leurs implications sur les œuvres selon des échelles de temps plus ou moins lointains. Elle répond ainsi à des exigences sociales des décideurs politiques et des responsables des collections ainsi que des visiteurs aussi bien qu’à des règles déontologiques de la préservation des valeurs culturelles. Conclusion Le chimiste de Jules Vernes naufragé sur une île déserte sait reconnaître les matériaux bruts et les minéraux nécessaires à sa survie. C’est dans le même esprit que l’humanité a cherché et adapté les matériaux des arts les plus variés, produits de son imagination, de sa technique, de sa culture. Ainsi les yeux du scribe de Saqqarah (vers 2400 avant J.-C.), conservé au musée du Louvre sont-ils une construction savante imitant les yeux anatomiques avec le globe oculaire, un cristal de roche tronconique pour la pupille avec en son centre une cupule noire pour l’iris, une magnésite pour le blanc de l’œil veiné de filets roses, des sourcils en cuivre dont le vert de gris remplaçait le fard couleur de mer originelle. Les yeux sont devenus regard exprimant la notion d’éternité qui prévalait au temps des premiers pharaons. La rencontre de l’art et de la chimie révèle à partir d’une interrogation fondamentale sur l’activité humaine, et à partir d’une méthodologie analytique et prédictive appliquée qui lui est en partie propre, en développant par exemple les méthodes non destructibles, une vie patrimoniale qui participe à la vie sociale de notre époque contemporaine. Bibliographie Amatore C., Blanzat B., éd., 2000, La chimie analytique, Mesure et Société, rapport sur la science et la technologie n° 6, Académie des Sciences, Ed. Tec et Doc, Londres, Paris, New-York, Chimie analytique et patrimoine, p. 40.63. Berducou M.C., éd., 1990, La conservation en archéologie, Masson, Paris. Bergeon S., 1990, Science et Patience ou la restauration des peintures, Réunion des musées nationaux, Paris. Bourgeois B., Pasquier A., Pontabry A., 1997, La restauration du Gladiateur Borghèse, La Revue du Louvre et des musées de France, n° 4, pp.21.24. Brandi C., 1963 (1966), Il restauro, teoria e pratica, Editori Riuniti, Roma. Giraudy D., éd.1999, Cézanne Van Gogh et le docteur Gachet, Dossier de l’Art, Mars Habert J. Volle N., éd. 1992, « Les Noces de Cana » de Véronèse, une œuvre et sa restauration, Réunion des Musées Nationaux, Paris Méredieu F. de, 1995, Histoire matérielle et immatérielle de l’art moderne, Bordas, Culture, Paris. Mohen J.-P., 1996, L’art et la science, l’esprit des chefs-d’œuvre, Découvertes Gallimard, Réunion des musées nationaux, Sciences, 299, Paris. Mohen J.-P., 1999, Les sciences du patrimoine, identifier, conserver, restaurer, Edition Odile Jacob, Paris. Stanley Price N., Talley M. Kirby Jr., Melucco Vaccaro A., éd., 1996, Historical and Philosophical Issues in the Conservation of Cultural Heritage, the Getty conservation institute, Los Angeles. Techné, La science au service de l’histoire de l’art et des civilisations, Centre de recherche et de restauration des musées de France, Réunion des musées nationaux, 1 à 14, Paris en particulier : 7, Art et Chimie au Louvre, 1998. Walter P.,Martinetto P., Tsoucaris G., Breniaux R. Levebvre M.A., Richard G., Talabot J., Dooryhee E., 1999, Making make-up in Ancient Egypt, Nature, 397, p.483.484
.

 

 DOCUMENT       canal-u.tv     LIEN

 

 

 
 
 
Page : [ 1 2 3 4 5 6 7 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google