|
|
|
|
|
|
PRODUCTION DE SENS ET INFORMATIQUE |
|
|
|
|
|
Texte de la 261e conférence de l'Université de tous les savoirs donnée le 17 septembre 2000.
PRODUCTION DE SENS ET INFORMATIQUE
" Comprendre c'est comprendre autrement " H. G. Gadamer
Au début de l'été 2000, sur les murs d'une ville, deux affiches, deux affiches réelles :
- La première, affichée dans des bars ou des boîtes de nuit, porte sur un fond totalement noir, en grosses lettres grises l'inscription suivante : " Le problème avec le dernier verre c'est que c'est parfois le dernier "
- La deuxième, affichée sur les murs d'une commune de banlieue, plus complexe, représente un petit chien, genre roquet regardant les passants et portant dans sa mâchoire un journal plié dont seul le titre est partiellement lisible. Le slogan de l'affiche est le suivant : " Nous vous l'offrons, lui c'est moins sûr "
Tout locuteur français interrogé comprend parfaitement ces deux affiches. Elles ont pour lui un sens évident et un seul. Et pourtant, un examen plus attentif en révèle toutes les ambiguïtés, c'est-à-dire toutes les difficultés à établir l'évidence de ce sens, difficultés qui, pour chacune d'elles repose sur des mécanismes tout à fait différents.
La programmation du senspar Jean-Pierre BALPEUn exempleSur les murs d’une ville, une affiche : elle porte sur un fond totalement noir, en grosses lettres grises, l’inscription suivante : « Le problème avec le dernier verre c’est que c’est parfois le dernier. » Tout locuteur français comprend cette affiche. Elle a pour lui un sens évident. Et pourtant, un examen plus attentif en révèle toutes les ambiguïtés : prise au pied de la lettre, en ne tenant compte que de ce que disent les mots qu’elle porte, elle énonce une tautologie sous forme de pléonasme : « un dernier verre est un dernier verre », comme « H2O=H2O »… Or tout lecteur de cette affiche sait que le sens exprimé n’est pas celui-là car ce sens-là ne l’intéresserait pas. En fait, ce qu’il comprend est plus complexe : il perçoit immédiatement le jeu sur les mots qui fonde le sens et repose sur la métonymie : ce qui est en jeu, n’est pas le verre, mais la consommation éventuelle de son contenant ; d’autre part « un dernier verre n’est pas un dernier verre ». Il y a plusieurs « derniers verres » possibles, autant que d’échelles temporelles : un verre peut-être le dernier d’un moment donné. Or la liste de ces moments possibles est aussi infinie que les possibilités de fractionnements temporels. C’est ce que, sans le dire, affirme le slogan. Et c’est parce que cela va sans dire que ce slogan pose problème car le sens qu’il porte n’est pas dans les mots, mais dans un extérieur à ces mots que le lecteur convoque. Ce que le lecteur comprend est à la fois un avertissement — trop boire est dangereux : un dernier verre implique une série indéfinie de verres vidés dans une courte période donnée —, un conseil — ne buvez pas trop car vous risquez un accident, une constatation : toute vie a une fin — et une position philosophique — la vie vaut la peine d’être vécue le plus longtemps possible. La chaîne sémantique qui s’établit est donc la suivante : si vous buvez trop dans une période courte de temps et que vous preniez votre voiture, alors, parce que vous serez ivre, donc moins lucide, vous risquez un accident qui peut vous coûter la vie et ce serait trop bête de mourir pour cette raison-là. Ce qui se cache sous les mots est à la fois une connaissance et une philosophie du monde qui ne pourraient s’exprimer sans les mots, avec d’autres mots, mais pour laquelle ces mots-là ne sont qu’un pré-texte.Il serait facile de multiplier de tels exemples et de trouver pour chacun une explication ad-hoc : le sens de tout texte est bien plus en-dehors du texte que dans le texte lui-même. Pour autant, sans texte, sans tissage de liens, il ne peut y avoir de sens. Qu’est-ce que le sens ?Le sens est un tissage de relations. Lorsque du sens apparaît, c’est-à-dire lorsqu’un locuteur est capable, au-delà de la signification d’un texte, d’en tirer des conséquences pragmatiques, ce qui se construit, c’est une organisation de relations entre objets du texte et du monde : sans connaissance des pratiques consommatrices en terme de boissons, sans connaissance des divers types de boissons, sans connaissance des effets sur l’homme des boissons alcoolisées, sans connaissance des modes de déplacements humains, sans connaissance des véhicules automobiles, etc Le slogan cité est asémantique. Le sens n’est pas un « donné en soi ».Il n’existe pas dans la langue mais à travers elle qui n’est qu’un instrument de médiation. C’est pour cette raison précise que toute langue est apte à porter n’importe quel sens, y compris des sens contradictoires. Tout établissement de sens repose sur un tissage de relations effectives dans un ensemble de relations possibles : le sens est une mise en contexte, une mise en réseau d’informations, de significations et de connaissances. Ce qui entre en jeu est un enchevêtrement complexe de systèmes de mises en relations. Pour aller vite, un ensemble de structures emboîtées de con-textualisation qui peut être décrit ainsi :
texte relations entre les signes réellement présents dans un message particulier donné
phénotexte relations entre les signes du message et tous les signes de tous les messages du même auteur
intertexte relations entre les signes du message et l’ensemble des messages du même type
péritexte relations entre les signes du message et son entour pragmatique immédiat
métatexte relations entre les signes du message et l’ensemble pragmatique des mondes
Le sens se calcule toujours entre le prévisible (les choses ont déjà été dites, sont connues et immédiatement acceptées) et l’aléatoire (les choses n’ont pas encore été dites et sont de l’ordre d’un possible ouvert) : une partie en est toute faite, alors qu’une autre se construit. Ce qui implique une dissymétrie : comme le montrent à l’envie toutes créations fictionnelles ainsi que les usages quotidiens de chacun produire du sens et interpréter du sens ne sont pas deux mécanismes inversés faisant appel en miroir aux mêmes opérativités.Programmer du sens L’informatique ne traitant que des formes descriptibles, tout le problème de la programmation du sens est là, à la fois dans l’asymétrie fonctionnelle et dans les possibilités d’établissement de divers niveaux de relations. Le traitement du texte Si programmer du sens, consiste à produire ou analyser du texte, c’est-à-dire une forme, alors cela ne pose pas de problème majeur. En effet, analyser du texte et produire du texte consistent à ne reconnaître ou construire que des formes. Bien entendu, il y a un certain niveau de complexité bien connu des spécialistes du traitement automatique du langage. En voici quelques exemples :-les formes et leurs relations internes sont propres à chaque langue et sont arbitraires : dog et chien sont et ne sont pas le même mot ; le français connaît des relations d’accord qu’ignore l’anglais, pretty ne change pas devant dog ou dogs, alors que beau, reste beau devant chien et devient beaux devant chiens, etc… Mais la totalité de ces formes est descriptible — c’est le rôle des dictionnaires — et la totalité, ou presque de leurs relations l’est également — c’est le rôle des grammaires.— dans certaines langues comme le français, les formes sont polysémiques, sous une même forme peuvent se cacher des entrées différentes.. Livre par exemple diffère suivant son contexte immédiat : il livre, le livre, la livre… Cette difficulté oblige à concevoir des analyseurs disant soit la nature syntaxique de la forme, soit conservant les multiples sens possibles, mais elle n’est pas rédhibitoire. Elle implique simplement que les dictionnaires utilisés comportent des informations intralinguistiques comme la nature syntaxique et une certaine forme de synonymie.- il n’y a pas homogénéité entre formes (entrée d’un dictionnaire) et mots (définis, en français par exemple, par un ensemble de lettres entre deux signes de ponctuation). La plupart des formes sont composées et cette composition peut revêtir des aspects divers : radical-terminaison dans la plupart des cas — formes = forme + s — mais aussi adjonction d’une séquence indéterminée de formes : un chien assis n’est pas plus un chien qui s’est assis qu’un hot dog n’est un chien chaud, et aucune règle ne permet de savoir si la forme totale est composée de deux ou x formes élémentaires comme dans garde-boue, corps de garde ou garde du corps… Cette difficulté complique l’analyse d’une part parce qu’elle multiplie les synonymies, d’autre part parce qu’elle oblige à accroître, de façon considérable les entrées, mais elle n’est pas de l’ordre de l’impossible… La difficulté principale réside dans la dynamicité du système linguistique qui, chaque jour, produit de nouvelles entrées.- l’ensemble des relations possibles dans un texte entre les formes et l’incidence de ces relations sur les formes — les règles de syntaxe —, s’il n’est pas totalement ouvert, comme le montrent bien les faiblesses des analyseurs syntaxiques, est complexe, parfois mal fixé (exceptions, tolérances, etc…) mais descriptible pour plus de 90 % des textes.Ces difficultés concernent essentiellement l’analyse. La production du texte peut en effet être réalisée à partir d’un sous-ensemble restreint de dictionnaires et de syntaxes sans que son lecteur n’y trouve à redire. Le lecteur est en effet habitué à produire des textes à partir de sous-ensembles, aucun locuteur d’une langue n’en connaissant ni tous les mots ni toutes les possibilités syntaxiques. Cependant il faut souligner que ces niveaux de traitement ne produisent pas du sens : ils produisent une description formelle de la langue. En ce qui concerne la production, ils produisent une séquence acceptable en langue sans aucune idée de ce qu’elle peut bien vouloir signifier. Aussi un générateur maîtrisant les règles symétriques : connaissance des termes, des groupes de termes et de leurs relations d’accord, peut écrire : « le couple avait raccourci la vengeance » ou « le cheval avait entêté le synonyme ». Il est à remarquer que, dans ce cas, il est très génératif puisque, à partir d’un dictionnaire donné et de quelques règles, il produit un nombre infini de séquences.Le traitement du métatexteCeci montre bien les manques : pour qu’un analyseur aille au-delà d’une simple description formelle, pour qu’un générateur produise des séquences susceptibles d’avoir du sens, il faut dépasser le texte et envisager l’ensemble des autres niveaux de contextes et notamment considérer les relations formes-monde ; donc considérer le monde comme un ensemble d’objets en relations où objets et relations peuvent être formellement définis.Deux exemples encore :Représenter un chien en terme de métatexte consiste à dire que :- le chien est un animal généralement domestique- le chien est représenté par des variétés de formes appelées races- le chien a quatre pattes- le chien est omnivore, mais plutôt carnivore- le chien est un animal diurne- etc.Évidemment, une telle description n’est opératoire que si chacun des termes qui définissent les liens et les nœuds de liens font partie du réseau. Ainsi dire que le chien est utilisé pour la chasse suppose que le terme chasse soit défini comme « action de poursuivre, de prendre et de tuer le gibier » (Petit Larousse). Tous termes qui doivent figurer à leur tour dans le réseau.Représenter l’aboiement du chien en terme de formes est possible. Il suffit d’établir qu’il existe une relation entre une classe d’animaux et une production sonore audible par l’homme, relation générique qui permet aussi de traiter « la pie jacasse », « l’éléphant barrit » ou « la vache meugle » et de déterminer que dans le cas de l’application de cette relation à la classe des animaux désignés par la forme chien.Il y a bien entendu autant de cas d’applications que de sous-classes dans la catégorie des animaux à cris que de cas intermédiaires. Par exemple, dire que l’oie cacarde oblige à distinguer au moins trois classes d’oiseaux : ceux qui ne chantent pas, ceux qui chantent et ceux — dont l’oie — qui ont un cri spécifique. Ces ensembles de descriptions relationnelles constituent autant de représentations de connaissances sur le monde. La puissance d’un programme sémantique dépend strictement de l’ensemble de ces représentations de connaissances. Et là est bien la difficulté qui n’est pas de l’ordre du théorique mais du pragmatique : la possibilité de description se heurte à l’infini du réel et à sa mobilité. Si le monde était fini, fermé, une telle approche, même si elle prenait du temps, serait envisageable — et elle l’est d’ailleurs tout à fait dans le cas de micromondes spécialisés et bien définis — mais elle ne l’est pas dans un monde ouvert et dynamique où les relations entre objets du monde ne cessent de se reconfigurer. L’apparition récente, par exemple, des pitbulls et autres rottweilers ainsi que des nouvelles relations maîtres-chiens et chiens-public qui y sont liées oblige à remodifier une part importante des relations. Les objets du monde et les relations que les objets entretiennent dans le monde sont dans une reconfiguration permanente. Pour obtenir une programmation du sens aussi efficace que celle réalisée par le cerveau humain, il faut un programme qui ait des caractéristiques humaines, c’est-à-dire qui, captant sans cesse des informations, soit capable de reconfigurer sans cesse ses représentations. Dans ce cas, à moins d’être une intelligence collective, c’est-à-dire de ne négliger aucune information émise où que ce soit et n’importe quand, cette programmation aura également les défauts humains de la non-exhaustivité et de la non-homogénéité : elle ne permettra pas une maîtrise sémantique de tout sur tout et comportera des zones spécialisées.Produire du sensIl n’est pas ici possible d’examiner l’ensemble des problèmes liés à la programmation du sens. La suite de l’exposé sera donc centré sur un aspect particulier du problème, celui de la génération automatique.Un générateur automatique est un programme particulier qui, à partir d’algorithmes et de données, peut rédiger le texte suivant :« Crépuscule bleu, tombée de nuit, ciel noir sombre : le vent emplit l'espace de son poids horrible ! Alors que le jour tombe, sous les vociférations du peuple, sous des milliers de regards agressifs, les nuages se déchirent ! Trois charrettes débouchent sur la place. Un nuage se met à couvrir le soleil, lent, large et gris; gris, le cercle du soleil tourne. Les Tuileries et les Champs Élysées regardent, la nuit tombe comme un couperet, des barboteuses font de l'œil aux hommes qui passent ! Trois chariots peints de rouge débouchent sur la place. Sur une des charrettes une condamnée harangue le peuple, un autre chante une chanson, un autre encore menace. Il fait noir ; une jeune fille, immobile, descend du chariot, monte lentement les escaliers de l'échafaud, s'approche du bourreau et de ses aides, grand ciel rouge, nuages ; des voix s'élèvent : « sale putain, boucaneuse ! » Les nuages obscurs couvrent la ville d'un voile de deuil, les aides du bourreau s'emparent de la condamnée ! Le soleil lance dans les nuages de grands jets de sang. À son tour le bourreau rouge s'avance, approche de la guillotine, libère le couperet. Le ciel traîne. La tête coupée roule sur l'échafaud ! Le bourreau se tourne vers le peuple comme en quête d'applaudissements ! Le sang coule en abondance sur le pavé - le soleil lance de grands jets de sang ; le corps est jeté dans une carriole... Des cris traversent la foule — la chaleur est terrible ! L'espace sombre du ciel lourd enferme l'âme — sur le chariot plusieurs condamnés pleurent... »Si l’on s’en tient à ce qui vient d’être dit, produire de tels textes — issus du roman Trajectoires installé à l’adresse trajectoires.com à partir de décembre 2000 — est une gageure. En effet, le programme génératif semble avoir une connaissance assez riche du monde dont il traite. Or il n’en est rien ! Ce générateur romanesque utilise une particularité intéressante de la sémantique : à partir du moment où une séquence formelle semble bien formée dans une langue donnée, qu’elle n’est constituée que de termes de cette langue et que le lecteur accepte de la considérer comme telle, alors il accepte d’importer en elle le sens qui ne s’y trouve pas. Par exemple, que le programme de génération ignore totalement ce que signifie « un grand ciel rouge » ne gêne en rien le lecteur qui, à partir de ses connaissances du monde, attribue un sens à cette expression. Lorsque cette règle n’est pas respectée, le fonctionnement sémantique n’est pas immédiat et demande au lecteur un plus grand effort de coopérativité comme dans l’extrait de poème suivant produit par le générateur de Trois mythologies et un poète aveugle :la mer triture son plectre again arbres d'hiver colours in the sky glacéepar les pluies et les vents d'automnesous le souffle vide de la mort restes de vent dans la plaine d'Ivrylumière interne ai piedi d'una estinta cheval de pluie thickair and wet ciel couleur de loque nuage et pluie les fleurs éclatent comme des étoilescompter les frissons du jour a little movement in the leaves ombreverte pâlissante glacée par les pluies borough polluted wich provides colourswhen the poppies are out of flowers les fleurs éclatentderrière les genévriers obscurs obscurs haies…Cependant, le lecteur ne recule généralement pas devant cet effort pourvu qu’il accepte l’intertexte « poésie contemporaine ». En effet, à cause de l’emboîtement des contextes définissant des situations multiples de communication, il y a toujours possibilité de sens. Le problème est de savoir quel sens il y a, donc qu’est-ce qui doit être programmé pour quel usage. S’il n’y a pas possibilité d’un programme universel de traitement sémantique, existe la possibilité de nombres d’algorithmes spécifiques efficaces dédiés à des traitements particuliers. Dans certains cas limites, la production de sens peut être même entièrement abandonnée au lecteur, le programme se contentant de faire des propositions aléatoires syntaxisées dont il ne maîtrise aucune signification.ScénariiCe n’est quand même généralement pas la cas.L’exemple ci-dessus du roman Trajectoires se contente de maîtriser trois types de relations :— La première est l’appartenance à un univers. Cet univers est strictement défini par les possibles relationnels qu’il contient. Sa définition n’est donc pas théorique mais pragmatique. Trajectoires est un roman policier sur la terreur dont l’action se déroule à deux périodes : 1793 et 2009. Ses dictionnaires de description contiennent des représentations de connaissances adéquates à ce propos : ils ne contiennent pas la totalité des informations possibles sur 1793, mais un nombre suffisant de représentations de connaissances sur cette époque pour que le lecteur accepte cette affirmation. Par exemple, les personnages ne se déplacent pas en 1793 comme en 2009.— La deuxième est le fractionnement d’un univers de connaissances en un emboîtement de micro-univers plus spécifiques et plus maîtrisables. Chacun de ces micro-univers essaie d’explorer un aspect particulier du réel avec une connaissance suffisante pour que le générateur puisse produire à son sujet une variété de textes de surface. Parmi les micro-univers, celui d’une exécution capitale en 1793, ou celui d’une soirée mondaine, ou celui de la pluie, ou celui d’une journée ensoleillée d’août. Ces micro-univers ne peuvent produire que sur un thème et un seul : le micro-univers de la pluie ne peut ainsi que dire sans arrêt « il pleut », même s’il peut le dire avec une infinie variété. Ces micro-univers sont gigognes, chacun d’entre peut contenir de nouveaux micro-univers spécifiques : le bruit de la pluie ou les cris de la populace… Ces micro-univers une fois constitués, rien n’interdit de les réemployer dans d’autres univers différents. Ainsi un univers est constitué par un ensemble de micro-univers et c’est cet ensemble qui distingue un univers d’un autre.— La troisième est la scénarisation des séquences de micro-univers. Cette scénarisation dit quelle place peut, lors de la génération, occuper tel micro-univers par rapport à tel autre. Le texte ci-dessus décrivant une exécution capitale est ainsi guidé par le scénario suivant :datation --> arrivée des condamnés --> montée sur l’échafaud d’un condamné --> prise en charge du condamné par les bourreaux --> exécution proprement diteCe scénario constitue l’ossature de la scène où l’ordre des événements n’est pas interchangeable. Pour citer Barthes, il s’agit des fonctions qui structurent le récit. Cependant deux autres possibilités viennent se greffer sur cette ossature :1. La définition d’un des micro-univers spécifiques comme une séquence de micro-univers encore plus spécifiques : l’exécution est ainsi décrite comme : placement du condamné sur la machine --> chute du couperet --> chute de la tête coupée --> saignement du corps --> enlèvement du corps de l’échafaud. L’intérêt de cet emboîtement de micro-univers est que le générateur peut détailler les événements. L’exécution peut être évoquée rapidement ou, au contraire, minutieusement détaillée.2. La possibilité d’introduction, sur cette ossature, de micro-univers spécifiques non contraints par l’enchaînement des séquences. Les cris de la foule ou la météorologie, par exemple, sont de ceux-là. Le générateur peut, à tous moments, parler du temps qu’il fait, quel que soit le point de la séquence en cours auquel il est parvenu. Certains de ces micro-univers sont obligatoires, d’autres facultatifs, certains peuvent être définis comme contraints et d’autres comme aléatoires. Le programme peut ainsi générer la séquence :météorologie --> datation --> météorologie --> arrivée des condamnés --> montée sur l’échafaud d’un condamné --> …ou :datation --> arrivée des condamnés --> montée sur l’échafaud d’un condamné --> prise en charge du condamné par les bourreaux --> météorologie --> exécution proprement dite à …L’ensemble constitue un moteur de génération qui, tout en n’ayant que des connaissances limitées sur le monde, est suffisamment génératif pour, quel que soit le nombre de séquences produites, ne jamais devoir se répéter à l’identique.Les mots et le mondeLe dernier problème qui reste à évoquer est la relation des graphes de représentation des connaissances à l’usage linguistique proprement dit. Si un graphe de relation peut « dire » qu’un homme peut sourire et que, par ailleurs, un sourire peut recevoir divers qualifiants, ce graphe de relation ne dit rien sur la façon dont cette relation peut être exprimée et il n’y a aucune règle formelle qui détermine cette relation à la langue.L’homme affichait un sourire aimableL’homme arborait un sourire aimableL’homme avait un sourire affableL’homme montrait un< grand> sourire aimableL’homme souriait Le sourire de l’homme était aimablesUn sourire illuminait le visage de l’hommeUn sourire< aimable> éclairait le visage de l’hommeEtc.Si le but fixé au générateur est de produire de la variété et non un message standard, la seule solution est de recenser les modes d’expression possibles et de les codifier de façon à densifier les dictionnaires qu’ils constituent. Cela revient à dire que ces modes d’expression sont constitués de noyaux autour desquels, à des places définies, fixes ou non, peuvent venir se greffer des satellites facultatifs, noyaux et satellites étant chacun constitués de classes de termes non syntaxisés. Ce n’est en effet qu’une fois la structure fixée que la syntaxisation de surface peut se produire. Dans le cas ci-dessus, il y a recours à quatre modes d’expression différents pour exprimer un sens identique. Et si un déplacement de la classe des qualifiants soit sur le sourire, soit sur l’action de sourire n’est considéré que comme une variante d’un même cas, il n’y a plus alors que deux modes d’expression distincts.La constitution des graphes de relation et des classes qui y sont attachées dépend à la fois des conventions acceptées par la langue et de l’inventivité de leurs auteurs. Le rôle de l’écrivain, bien souvent, est de définir de nouveaux graphes, de modifier les classes conventionnelles et de faire en sorte que ces modifications soient acceptées par le récepteur du texte. Dans ce cadre, programmer le sens consiste à constituer des dictionnaires de scénarii, de modes d’expression et de classes de termes de façon à ce que le texte soit constitué et acceptable à l’issue de leurs parcours.Fiction/non-fictionUne dernière remarque : si l’homme ne disait que les déjà-là des sens possibles du monde, il lui serait loisible de n’utiliser que des modes d’expression préfabriqués, donc de disposer d’un ensemble restreint de dictionnaires à programmation relativement facile. La contrainte viendrait du monde, non de la langue. Ainsi réaliser un générateur de lettre commerciale est assez facile sauf que ce générateur ne dispose d’aucune marge de liberté : si la lettre est une lettre de commande d’un livre donné, les possibilités de modes d’expression sont pauvres — à moins de vouloir en faire de la littérature — et les variations nulles car il n’est pas pensable d’inventer un titre au livre désiré. La pragmatique du monde impose ses contraintes et l’expression sémantique ne consiste qu’en leur mise en évidence. Ainsi un générateur de petites annonces n’aurait aucun sens car il ne pourrait que mettre dans une forme élémentaire les informations qui lui auraient été préalablement communiquées. Le sens se passe de la langue et la sémantique n’est que celle du métatexte :« Travaux d’intérieur. Peint, carr, papier, élec, maçonnerie, plomberie. Tél. : 0145325420 ou 0676645620 Mr Bunac »est plus proche de la base de donnée — qui tire l’efficacité indéniable de son sémantisme de l’appartenance de ses termes à une classification reconnue — que d’un texte. Analyser le sens de cette annonce ne présente pas de difficulté majeure mais en produire ne présente aucun intérêt. À l’inverse, la fiction n’a pas à tenir compte du monde. Ce qu’elle demande, c’est la simulation d’un fonctionnement linguistique assez crédible pour que le lecteur accepte de le considérer comme vrai. Elle est davantage forme que monde. Rien de ce que dit la littérature n’est de l’ordre du réel pragmatique et si Madame Bovary est Flaubert dans ses romans, elle ne l’a justement pas été dans la réalité. Analyser le sens des fictions, dans ce cas, est presque de l’ordre de l’impossible car ce qu’il faudrait analyser ne serait guère que de l’ordre du texte à ses extérieurs. Par contre, dans la grande liberté où elle se situe par rapport au pragmatique, produire une sémantique acceptable de la fiction est beaucoup plus facile et intéressant. Car elle ne repose que sur les mécanismes d’ancrage à la production sémantique qui agit sur chaque locuteur d’une langue donnée.
VIDEO CANAL U LIEN |
|
|
|
|
|
|
PHYSIQUE ET MÉCANIQUE |
|
|
|
|
|
PHYSIQUE ET MÉCANIQUE
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever dans le futur. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, en passant par l'exploitation de l'imagerie bi voire tridimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges. Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolu, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, …
Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet
2005
Par Stéphane ROUX[1] : Physique et Mécanique
Résumé :
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.
Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).
Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.
1 Introduction
Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.
Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.
Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :
* Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
* Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
* Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
* Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.
2 Enjeu de connaissance fondamentale
La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :
* Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
* Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
* Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
* Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
* Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.
2.1 Savoir imbriquer les échelles de description
Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.
Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.
Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.
2.2 Non-linéarité et hétérogénéité : Physique statistique
Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.
Pour des rhéologies plus complexes, l'essentiel reste à construire :
Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.
L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).
Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.
3 Enjeu des nouvelles techniques d'analyse
Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.
3.1 Nouvelles imageries
Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.
La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.
A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.
Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.
De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.
3.2 Que faire avec ces informations ?
Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.
Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :
* Fracture de matériaux vitreux imagée par AFM
En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.
* Comportement plastique de la silice amorphe
La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.
* Détection de fissures et mesure de leur ténacité
Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.
* Comportement de polymères micro-structurés
Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.
4 Enjeu des nouveaux matériaux
Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.
4.1 Matériaux composites et nano-matériaux
L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).
Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).
4.2 Matériaux fibreux/Milieux enchevêtrés
Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.
4.3 Couches minces : Tribologie Frottement adhésion
La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.
Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.
4.4 Couplages multiphysiques
La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.
4.5 Vieillissement
La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.
4.6 Bio-matériaux/bio-mimétisme
La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.
4.7 Mécanique biologique
Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.
5 Enjeu des nouvelles demandes/ nouveaux besoins
Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.
5.1 Essais virtuels
Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.
5.2 Sûreté des prédictions
Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.
5.3 Variabilité Fiabilité
La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.
Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.
5.4 Optimisation
Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.
5.5 Contrôle
Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.
6 Conclusions
Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.
7 Références
Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.
[1] E-mail : stephane.roux@saint-gobain.com
VIDEO CANAL U LIEN |
|
|
|
|
|
|
LES MATÉRIAUX MOLÉCULAIRES |
|
|
|
|
|
LES MATÉRIAUX MOLÉCULAIRES
L' histoire de l'humanité est scandée par la nature des matériaux que l'homme est capable d'élaborer et d'utiliser pour répondre à ses besoins. Notre époque est marquée par une explosion de la création de nouveaux matériaux, de plus en plus conçus pour répondre à un besoin très précis. Dans ce contexte, les matériaux réalisés à partir de molécules peuvent faire valoir de nombreux avantages : ils sont le plus souvent de faible densité, transparents ou colorés à la demande, solubles, biocompatibles, faciles à mettre en forme, etc. La flexibilité de la chimie moléculaire permet de produire pratiquement " à la carte " de nouvelles molécules et de nouveaux édifices moléculaires en variant de manière de plus en plus subtile structures, structures électroniques et propriétés. Les synthèses sont guidées par les besoins en nouveaux matériaux de structure ou en matériaux fonctionnels. Notre vie quotidienne est ainsi entourée de matériaux moléculaires familiers qu'ils soient d'origine naturelle ou industrielle, créations de l'homme. L'exposé les identifie, illustre et commente quelques unes de leurs propriétés et leurs multiples domaines d'application. Dans le même temps, une recherche pluridisciplinaire se poursuit pour obtenir des matériaux présentant des propriétés inédites, voire des propriétés multiples au niveau macroscopique (grands ensembles de molécules) ou au niveau d'une seule molécule (électronique moléculaire, machines moléculaires…). Quelques aspects de ces recherches sont présentés, en mettant en évidence les principes fondamentaux sur lesquels repose la synthèse des molécules et des édifices moléculaires présentant des propriétés données, les techniques récentes qui permettent un progrès plus rapide en matière de matériaux moléculaires, les contraintes qui s'exercent sur la production de ces matériaux et les perspectives qui s'ouvrent dans un domaine où la riche complexité des matériaux biologiques constitue une matière première et un exemple, une source de réflexion et d'espoir permanents.
Texte de la 240e conférence de l’Université de tous les savoirs donnée le 27 août 2000.Les matériaux moléculaires ou : de la molécule au matériau …par Michel Verdaguer Il est trivial de dire que la notion de matériau a scandé l’histoire de l’humanité : les « âges » qui structurent l’histoire de l’homme portent le nom de matériaux : âge de la pierre, âge du bronze, âge du fer, âge du silicium ou du nylon. Un seul de ces matériaux est un matériau (macro)moléculaire, c’est le nylon, mais c’est le plus récent, le plus complexe, le plus seyant[1]. Qu'est-ce qu'un matériau moléculaire ? Avant toute chose, il est souhaitable de définir ce que l’on entend par matériau moléculaire. Un matériau moléculaire est un matériau constitué de molécules[2]. Une molécule est un ensemble d’atomes reliés entre eux par des liaisons chimiques covalentes. Un matériau est une substance utile qui, convenablement mise en forme, est insérée dans un dispositif pour y remplir une fonction grâce à ses propriétés. C'est souvent un solide. Les matériaux moléculaires sont d'une grande diversité, de la nappe de l’incroyable pique-nique du 14 juillet 2000 (composite de polymères) aux dispositifs d’affichage des écrans de micro-ordinateurs (cristaux liquides). Les matériaux moléculaires parmi les autres matériaux Les grandes classes de matériaux utilisés par l'homme sont les métaux, les céramiques, les polymères[3]. Cette classification, pour une part arbitraire, ne comporte pas de matériau moléculaire au sens strict. Mais les polymères sont des molécules géantes (macromolécules). Chaque type de matériau a des propriétés caractéristiques (mécaniques, physiques, chimiques), correspondant à la structure et au type de liaison concerné : les métaux (liaison métallique) sont des assemblages d'atomes. Ils sont conducteurs, durs, à température de fusion élevée, malléables, ductiles, denses, réfléchissants et opaques. Les céramiques (liaison ionique) sont des assemblages d'ions isolants, réfractaires, denses, résistants mécaniquement et thermiquement mais cassants et fragiles. Les polymères (liaison covalente) sont légers, faciles à mettre en forme, isolants, peu rigides, souvent peu stables à la température. Quand un besoin n'est pas couvert par les grandes classes de matériaux, on fait appel à des composites, mélange complexe de matériaux ou on en crée de nouveaux. Il existe une véritable science des matériaux qui les étudie, les améliore et les crée[4]. Parmi les matériaux nouveaux, figurent précisément les matériaux moléculaires. Contrairement aux céramiques et aux métaux, obtenus à très haute température (donc coûteux en énergie), les matériaux moléculaires et les polymères sont obtenus dans des conditions douces de température et de pression. Ils sont légers, transparents, souvent délicatement colorés, faciles à mettre en forme ; ils sont souvent biocompatibles, biodégradables, recyclables. Dans le cycle des matériaux (Fig. 1), où le souci de l'environnement grandit, ces dernières propriétés sont importantes. Les matériaux moléculaires sont cependant fragiles et peuvent vieillir rapidement (sensibles à l'air, à la lumière …). Les matériaux moléculaires dans l’histoire Un matériau répond le plus souvent à un besoin, individuel ou social. Dans l'histoire, l'apparition de nouveaux matériaux correspond à l'évolution des besoins et à la capacité de l'homme à maîtriser le processus de fabrication du matériau[5] (Fig. 2). La protection contre les éléments est à l'origine de l'utilisation des matériaux moléculaires que sont les fibres naturelles végétales (lin, chanvre, coton à base de cellulose), ou animales (laine, soie à base de polypeptides), les fibres modifiant la matière première naturelle (soie artificielle, nitrate et acétate de cellulose …) ou plus tard les fibres purement synthétiques (nylons)[6]. L'évolution du naturel au synthétique est une constante dans l'histoire des matériaux moléculaires : la nature et les systèmes biologiques sont une source permanente d'exemples, d'inspiration et d'espoir. L'époque contemporaine marque l'accélération vers l'utilisation de matériaux complexes, notamment moléculaires. Le coût des matériaux moléculaires La figure 3 indique le coût des matériaux dans diverses branches industrielles, exprimé en euros par kilogramme. Les matériaux moléculaires interviennent peu dans les industries de la construction. Mais dès que le poids devient un critère de choix (emballage, transport), quand les autres exigences deviennent complexes (équipement sportif, santé …), ils prennent une place importante. Les multiples travaux fondamentaux et appliqués pour leur production industrielle contribuent à l'élévation du coût par unité. Par exemple, les lentilles de contact sont de petits chefs-d'œuvre de transparence, de légèreté, de précision optique et mécanique … Comment créer un matériau moléculaire ? L'élaboration d'un matériau est un long processus qui va de la matière première au produit[7]. Nous n'abordons ici que deux aspects fondamentaux : a) la liaison covalente sur laquelle repose l'existence de molécules stables (dihydrogène, H2 ou fluorure d'hydrogène, HF) et b) les interactions intermoléculaires sur lesquelles repose la construction des solides moléculaires. Nous n'abordons pas les problèmes très importants de mise en forme qui permettent de passer du système moléculaire doté des propriétés requises au matériau. L'existence d'une molécule repose sur l'interaction des atomes qui la constituent. Par combinaison et recouvrement des orbitales atomiques se forment des orbitales moléculaires qui décrivent les électrons dans la molécule[8]. Dans H2, les deux orbitales atomiques forment deux orbitales moléculaires ; les deux électrons se placent dans l'orbitale moléculaire de plus basse énergie (dite liante). L'orbitale la plus haute reste vide (antiliante). La molécule est plus stable que les atomes séparés. Les électrons de la liaison forment un doublet liant. Ils sont également partagés par les deux atomes. La liaison est dite covalente. Pour la casser, il faut fournir une grande quantité d'énergie (environ 450 kiloJoules par mole – ou kJ mol-1 – ; la mole est l'unité de quantité de matière. Au contraire, la molécule HF est formée par deux atomes différents : le fluor et l'hydrogène dont l'énergie des orbitales est différente. La liaison HF est encore plus forte que celle de H2 : 550 kJ mol-1. Mais le doublet de la liaison n'est plus partagé de manière égale entre H et F, il est « attiré » par l'atome de fluor, plus électronégatif ; il apparaît un moment dipolaire électrique dirigé du fluor vers l'hydrogène ; la liaison devient partiellement ionique. Six autres électrons du fluor forment trois doublets non liants. Le dipôle électrique est à l'origine d'interactions intermoléculaires, d'autant plus fortes que le fluor est très électronégatif et que l'hydrogène, petit, peut s'approcher très près du fluor voisin. Ces liaisons hydrogène existent dans l'eau liquide ou solide (glace) où le moment dipolaire électrique O-H est également important. Ces interactions expliquent la structure de la glace et déterminent les températures de changement d'état : pour l'eau, la température d'ébullition Téb est élevée, 100° Celsius, à cause des liaisons hydrogène. Pour le dihydrogène, apolaire, les interactions sont au contraire très faibles (interactions de van der Waals) et la température d'ébullition est très basse (-253° C !). Lorsque l'on place du chlorure de sodium NaCl (sel de cuisine) dans l'eau, le cristal est dissocié et les ions positifs sodium Na+ (cations) et négatifs chlorure Cl- (anions) se « solvatent » i.e. s'entourent de molécules d'eau grâce à des interactions ion-dipôle : ceci est à la base des propriétés de solvant de l'eau et de ses extraordinaires propriétés de transport de matière en biologie et en géologie : l'eau dissout les matières polaires ou ioniques (par interaction hydrophile) et n'interagit pas avec les molécules (ou les parties de molécules) non polaires (par interaction hydrophobe). C'est de la structure et de la nature de la liaison dans les molécules et des interactions entre les molécules que naissent les propriétés, la fonction et l'intérêt du matériau[9]. Molécules et matériaux moléculaires au quotidien Nous utilisons chaque jour des matériaux moléculaires[10] : fibres textiles (vêtements), savons (lessives), cristaux liquides (affichage : montres, ordinateurs, thermomètres) pour ne prendre que trois exemples. Polyamides, polyesters[11] Les fibres textiles artificielles sont des (macro)molécules, formés par l'addition ou la condensation multiple de petites molécules identiques : il se forme de longues chaînes[12]. Les propriétés du matériau reposent sur la structure des molécules de départ, sur les interactions entre les chaînes, puis sur la mise en forme. Ainsi les polyamides sont des polymères obtenus par la création de groupements amide ou peptidique, R-CO-NH-R', tandis que les polyesters comportent des groupements esters, R-CO-O-R'. La liaison hydrogène dans les polyamides renforce les interactions entre les chaînes, donc les propriétés mécaniques des polymères, qui sont excellentes (Fig. 4). Par contre, elle permet l'interaction avec des molécules d'eau : le nylon, qui est un polyamide, retiendra l'eau davantage que les polyesters (qui pourront donc utilisés comme vernis, au contact de l'eau …). D'autres interactions entre les chaînes - par exemple des interactions de van der Waals entre les noyaux aromatiques dans le Kevlar (Fig. 4), améliorent les propriétés mécaniques : le Kevlar est utilisé dans les tissus de protection anti-balles … Le besoin en matériaux complexes conduit à la préparation de composites. Ainsi, la nappe du pique-nique de la méridienne du 14 juillet 2000 assemble astucieusement de nombreux matériaux moléculaires : fibres de cellulose naturelle, liées par pulvérisation avec une émulsion aqueuse d'éthylène-acétate de vinyle ; le support est imperméable en polyéthylène pour la face arrière, contrecollée avec une émulsion aqueuse de styrène-butadiène. L'impression est sérigraphique avec des encres dont le liant est à base de copolymère butadiène. L'épaississant est acrylique. Les encres contiennent des résines acryliques et des pigments minéraux et organiques exempts de métaux lourds[13]. Le revêtement du train à grande vitesse « Méditerranée », conçu par un grand couturier, est également un composite de matériaux moléculaires, intelligemment choisis et artistiquement disposés[14]. Savons dans les lessives[15] Les savons sont obtenus à partir de corps gras, formés à partir de glycérol et d'acides carboxyliques à longues chaînes aliphatiques -(CH2)n-CH3 (Fig. 5A). La stéarine traitée à chaud par une base donne un savon, l'anion stéarate. L'extrémité carboxylate est chargée et hydrophile, l'extrémité aliphatique est hydrophobe. Il s'agit d'une molécule amphiphile ou surfactant. La graisse n'est pas soluble dans l'eau, une tache de graisse sur un tissu ne se dissout dans l'eau pure. On place alors un savon dans l'eau (Figure 5B, Schéma 1) : l'extrémité hydrophobe interagit avec la graisse hydrophobe (2) ; l'extrémité hydrophile est solvatée par l'eau (3). Quand le nombre d'interactions devient suffisant, la graisse est entraînée en tout ou partie (4). Le nettoyage est évidemment favorisé par une température et une agitation adaptées. Les surfactants donnent une nouvelle illustration du remplacement des produits naturels (savons issus de graisses animales ou végétales) par des dérivés de synthèse : les carboxylates ne sont pas très solubles en présence d'ions sodium ou potassium des eaux de lavage « dures » et sont remplacés par des composés plus solubles comme le benzenesulfonate à chaîne branchée, obtenu à partir d'un sous-produit de l'industrie pétrolière le méthylpropène, de benzène et d'acide sulfurique. C'est l'un des « détergents anioniques » des lessives. Les savons illustrent aussi le souci de l'environnement : les chaînes branchées ne sont pas biodégradables et encombrent les eaux, d'où l'apparition sur le marché d'autres détergents « non ioniques », non branchés, tout aussi solubles grâce à des groupements fonctionnels alcool et éther (Fig. 5C). Cristaux liquides[16] Les cristaux liquides sont des matériaux moléculaires qui représentent un nouvel état de la matière, l'état mésomorphe, dont l'organisation est intermédiaire entre l'ordre tridimensionnel du cristal et le désordre relatif du liquide (Fig. 6A). Ils ne présentent pas de température de changement d'état liquide-solide mais des températures correspondant à des organisations intermoléculaires variées : nématiques, smectiques, … (Fig. 6B). Ces propriétés exceptionnelles reposent sur l'auto-organisation d'assemblées de molécules anisotropes, i.e. qui n'ont pas les mêmes propriétés dans les trois directions de l'espace (molécules allongées). La direction dans laquelle les molécules s'orientent en moyenne est appelée directrice. Les interactions entre les molécules qui conduisent à l'état mésomorphe sont faibles de type Van der Waals[17]. Lorsque l'on applique un champ électrique, les molécules s'orientent de manière à minimiser l'énergie du système. Si on place un cristal liquide entre deux plaques, l'une qui polarise la lumière, l'autre qui l'analyse, on peut disposer les polariseurs de manière à ce qu'aucune lumière ne passe (Fig. 6C). L'application d'un champ électrique oriente différemment les molécules et permet le passage de la lumière : le dispositif passe du noir à l'incolore (ou inversement), c'est le principe de l'affichage sur un écran. Des dispositifs électroniques de plus en plus élaborés (nématique « supertordu » et écrans « à matrice active » (où un transistor est associé à chaque domaine de cristal liquide) sont disponibles pour accélérer la vitesse d'affichage. Certains autres cristaux liquides (cholestériques chiraux) sont organisés de telle manière que la directrice tourne régulièrement autour d'un axe perpendiculaire à celle-ci. La directrice reprend la même orientation avec un pas p, dont dépend la réflexion de la lumière par le composé. Quand la température change, p varie (par contraction ou dilatation thermique) et le cristal liquide change de couleur : les thermomètres fondés sur ce principe sont très répandus. Élaboration de nouveaux matériaux fonctionnels L'un des problèmes importants posés aux laboratoires universitaires et industriels est la mise au point de nouveaux matériaux fonctionnels. Le concept de fonction est ici utilisé par opposition à celui de structure : le béton assure des propriétés structurales, le polymère des lentilles jetables assure de multiples fonctions : correction de la vue, transparence, perméabilité au dioxygène, hydrophilie). Les exemples ci-dessous montrent que la structure moléculaire contrôle les propriétés. Propriétés optiques La couleur des composés moléculaires est déterminée par la manière dont ils interagissent avec la lumière : ils peuvent la transmettre, la diffuser, la réfléchir de manière plus ou moins complexe en fonction de la structure moléculaire et de la microstructure du matériau[18]. Une lumière monochromatique de longueur d'onde l est constituée de photons d'énergie hn (h est la constante de Planck et n la fréquence de la lumière). La lumière visible correspond à des longueurs d'onde l comprises entre 400 et 800 nanomètres (nm). L'absorption de la lumière correspond à l'excitation d'un électron d'une orbitale moléculaire occupée vers une orbitale vacante. Seuls les photons dont l'énergie correspond exactement à la différence d'énergie entre les niveaux occupés et vacants sont absorbés. Par transmission, l'œil voit les longueurs d'onde non absorbées : si un matériau absorbe dans le rouge (600-800nm), il apparaît bleu par transmission. La structure des molécules peut être modifiée pour moduler les énergies des orbitales et donc la couleur. La garance, extraite de la racine de Rubia tinctorum, contient de l'alizarine qui peut être produite industriellement (Fig. 7). C'est la compréhension de la structure moléculaire des colorants (alizarine, indigo) qui a permis à l'industrie chimique allemande, à la fin du 19ème siècle d'asseoir sa suprématie dans ce domaine, en ruinant l'industrie d'extraction des colorants naturels[19]. Au-delà de la couleur, l'interaction de la lumière avec les matériaux a de multiples applications : l'absence d'absorption conduit à des matériaux transparents (polymères des lentilles oculaires[20] …) ; les crèmes de protection solaires ou les lunettes de soleil (verres photochromes[21]) protègent des rayons ultraviolets avec des molécules organiques conçues pour arrêter tout ou partie des rayons (écrans A, B …), comme l'ozone le fait dans la haute atmosphère. D'autres matériaux, asymétriques, traversés par une lumière de fréquence donnée, créent une lumière de fréquence double ou triple (matériaux pour l'optique non linéaire). D'autres systèmes émettent de la lumière par désexcitation d'une molécule excitée : ver luisant, diode luminescente, bâton lumineux chimiluminescent à base de luminol …). Le linge « plus blanc que blanc » existe bel et bien : il n'absorbe pas la lumière, il la diffuse et il en émet grâce à des additifs luminescents peroxygénés déposés sur les tissus par la lessive[22] ! Propriétés électriques La conductivité mesure la capacité d'un corps à conduire le courant. C''est l'une des grandeurs physiques qui varie le plus : plus de 20 ordres de grandeur entre les matériaux les plus isolants et les plus conducteurs. Les supraconducteurs ont même une conductivité qui tend vers l'infini. Les matériaux conducteurs métalliques sont généralement des métaux ou des oxydes. Les matériaux moléculaires sont pour la plupart isolants (s très faible), mais les chimistes ont réussi à transformer certains d'entre eux en conducteurs métalliques. L'idée est simple : en plaçant côte à côte un nombre infini d'atomes, on construit une bande d'énergie de largeur finie, formée d'une infinité de niveaux (ou d'orbitales) (Fig. 8, schémas 1-5). Quand la bande est vide et séparée en énergie des autres bandes (1), il y a ni électron, ni conduction. Quand la bande est pleine, chaque O.M. contient deux électrons qui ne peuvent se déplacer (isolant). Pour qu'il y ait conductivité, certains niveaux de la bande doivent être inoccupés (vacants ou partiellement vacants -3,4). Un semi-conducteur correspond au cas 5. La bande peut être construite par des orbitales atomiques du carbone dans un polymère comme le polyacétylène ou par l'empilement de molécules [tétrathiafulvalène (TTF) ou tétracyanoquinodiméthane (TCNQ)]. Le polyacétylène est isolant. Quand on l'oxyde, on enlève des électrons dans une bande qui devient partiellement occupée et le matériau devient conducteur. Il s'agit d'une discipline très active qui a valu le prix Nobel 2000 à trois chercheurs américains et japonais (A.J. Heeger, A.G. MacDiarmid, H. Shirakawa)[23]. Propriétés magnétiques[24] Ici encore les matériaux magnétiques traditionnels sont des métaux ou des oxydes (aimants domestiques, moteurs …). Les chimistes savent aujourd'hui construire des matériaux magnétiques moléculaires, à partir de complexes d'éléments de transition ou de radicaux organiques stables. À chaque électron est associé un spin S = 1/2 et un moment magnétique élémentaire. Les éléments de transition présentent 5 orbitales d où peuvent se placer 10 électrons. L'environnement chimique du métal constitué de molécules appelées ligands, permet de contrôler l'énergie des orbitales et la manière de les remplir avec des électrons : dans un complexe octaédrique ML6, par exemple, l'élément de transition est entouré de six molécules. La symétrie permet de prévoir que les cinq orbitales d dans le complexe sont séparées en deux familles : trois orbitales appelées t2g, deux orbitales appelées eg, séparées par une énergie ∆oct, variable avec les ligands. La théorie qui décrit le phénomène porte le joli nom de « champ cristallin » ou « champ des ligands ». Les électrons ont alors le choix : occuper le maximum d'orbitales (ce qui, pour les orbitales eg, coûte l'énergie ∆, ou se mettre en paire dans une même orbitale (ce qui coûte une énergie d'appariement P). Prenons l'exemple de 5 électrons (Fig. 9) : a) quand ∆ < P, le champ est faible et le spin est fort (S = somme des cinq spins parallèles = 5/2) ; b) quand ∆ > P, les électrons se regroupent par paires dans les orbitales t2g ; le champ est fort et le spin est faible (S = 1/2). Dans la situation intermédiaire où ∆ est à peu près égal à P, le complexe peut être de spin fort ou faible, en fonction des contraintes appliquées (température kT, pression, lumière). C'est le phénomène de transition de spin qui se manifeste par un changement de propriétés magnétiques et de couleur (car ∆ change lors de la transition). Quand la transition se manifeste à température ambiante et présente le phénomène dit d'hystérésis (la température de transition « spin fort-spin faible » (blanc-rouge, par exemple) est différente de celle de la transition inverse, spin faible-spin fort. Il existe un domaine de température où le système peut être spin fort (blanc, quand il vient des hautes températures), ou spin faible (rouge quand il vient des basses températures). C'est un système bistable, « à mémoire » en quelque sorte, qui « se souvient » de son histoire (thermique), utilisable pour l'affichage[25]. Au-delà de cet exemple, l'application de règles simples permet de construire des matériaux magnétiques. Quand deux électrons occupent deux orbitales sur deux atomes voisins A et B, trois situations existent : a) quand les orbitales se recouvrent, comme dans le cas de la molécule de dihydrogène, on obtient un couplage antiferromagnétique entre les spins (les spins sont d'orientation opposée, antiparallèle, le spin total ST = SA - SB = 0) ; b) quand les orbitales ne se recouvrent pas (elles sont orthogonales), les spins s'orientent parallèlement et le couplage est ferromagnétique S = SA + SB = 1) ; c) une situation amusante naît quand les orbitales se recouvrent et que le nombre d'électrons est différent sur A et B, alors ST = SA - SB ≠ 0, le spin résultant est non nul. Paradoxalement et dialectiquement, l'antiferromagnétisme engendre son contraire, un magnétisme résultant. Cette idée a valu le prix Nobel à Louis Néel. En étendant de proche en proche l'interaction dans les trois directions de l'espace, jusqu'à l'infini, à une certaine température critique, TCurie, un ordre magnétique à longue distance apparaît où tous les grands spins sont alignés dans un sens et tous les petits spins sont alignés en sens inverse. C'est ainsi qu'en utilisant la stratégie des orbitales orthogonales [ i.e. avec du chromicyanure de potassium (3 orbitales t2g) combiné avec du nickel(II) (2 orbitales eg)], Véronique Gadet, à obtenu un aimant ferromagnétique avec une température de Curie, 90 Kelvins (K), supérieure à la température de liquéfaction de l'azote liquide, 77K[26]. En utilisant la stratégie du ferrimagnétisme, Sylvie Ferlay a obtenu un aimant qui s'ordonne un peu au-dessus de la température ambiante (42°C ou 315K)[27]. Deux points méritent d'être soulignés dans ce résultat : le caractère rationnel de l'approche et la possibilité qu'il offre désormais de passer aux applications pratiques des aimants à précurseurs moléculaires. Un exemple est donné sur la figure 10. L'aimant à précurseur moléculaire est dans une ampoule dans un gaz inerte (argon) car exposé à l'air, il perd ses propriétés. Il est suspendu à un point fixe, comme un pendule. Quand il est froid, il est attiré par un aimant permanent (1). En ce point, il est chauffé par un faisceau lumineux (lampe, soleil). Quand sa température dépasse la température d'ordre, il n'est plus attiré par l'aimant et repart vers la verticale (2). Hors du faisceau, l'air ambiant le refroidit (3) et il est à nouveau attiré : d'où un mouvement oscillant où l'énergie lumineuse se transforme en énergie mécanique, en utilisant deux sources gratuites d'énergie : l'énergie solaire et l'air ambiant. Des millions de cycles ont ainsi été effectués sans fatigue du système. La recherche de nouveaux matériaux magnétiques moléculaires est très active, au niveau national et international. Certains matériaux sont capables de présenter plusieurs fonctions (magnétisme modulé par la lumière pour l'enregistrement photomagnétique)[28], aimants optiquement actifs (qui font tourner à volonté la lumière polarisée soit à droite soit à gauche)[29] … Matériaux pour l’électronique moléculaire[30] L'un des développements le plus excitant est celui des matériaux pour l’électronique moléculaire. Sous ce terme se cachent diverses interprétations : matériaux moléculaires pour l'électronique (dont les cristaux liquides ou les polymères sont des exemples) ou l'électronique à l'échelle de la molécule. Tous les exemples que nous avons cités jusqu'à présent faisaient intervenir des ensembles macroscopiques de molécules, i.e. des moles de molécules. La recherche se développe pour concevoir et réaliser des molécules se prêtant à des expériences d'électronique sur une seule entité moléculaire avec notamment des techniques de microscopie à champ proche (où la molécule joue le rôle de conducteur, de diode, de photodiode …). Par exemple le mouvement de miniaturisation de l'électronique (électronique portable, enregistrement de quantités de plus en plus grande d'information sur des surfaces de plus en plus petites, calcul quantique …) peut aboutir à la mise au point de dispositifs permettant de stocker l'information à l'échelle ultime, celle d'une seule molécule[31]… Le présent se conjugue déjà au futur. Conclusion Dans un monde qui va vers plus de complexité, le développement des matériaux moléculaires n'en est qu'à son début. Les possibilités offertes par la flexibilité de la chimie moléculaire et supramoléculaire qui ont ouvert ce cycle de leçons[32], la chimie des métaux de transition et la chimie du carbone, sont pour l'essentiel inexplorées mais immenses[33]. La compréhension fondamentale et pluridisciplinaire des propriétés de la matière, la capacité du chimiste à maîtriser la synthèse pour obtenir les propriétés souhaitées peuvent permettre de répondre de mieux en mieux aux nouveaux besoins de l'homme et de la société. À eux d'en faire bon usage. Remerciements Ce travail sur les matériaux moléculaires a été alimenté par de nombreuses discussions dans mon équipe, dans mon laboratoire et dans les nombreux établissements que j'ai fréquentés et financé par le Ministère de l'Education Nationale, le C.N.R.S., les contrats européens M3D et Molnanomag, l'ESF (Molecular Magnets). Les expériences ont été préparées par F. Villain. Les matériaux présentés ont été aimablement prêtés par de nombreux fournisseurs auxquels je suis reconnaissant. Je dédie cette contribution à la mémoire de deux scientifiques français dont j'ai beaucoup appris, Olivier Kahn décédé en décembre 1999 et Louis Néel, prix Nobel de Physique 1970, dont j'apprends la disparition.
[1] Elsa Triolet, L’âge de nylon, Œuvres romanesques croisées d'Elsa Triolet et d'Aragon, Robert Laffont, Paris, 1959. [2] Jacques Simon, Patrick Bernier, Michel Armand, Jacques Prost, Patrick Hémery, Olivier Kahn, Denis Jérôme, Les matériaux moléculaires, p. 401-404, La Science au présent, Tome II, Encyclopædia Universalis, 1992. P. Bassoul, J. Simon, Molecular materials, Wiley, New York, 2000. [3] J.P. Mercier, G. Zambelli, W. Kurz, Introduction à la science des matériaux, Presses polytechniques romandes, Lausanne, 1999. [4] R.E. Hummel, Understanding Materials Science, Springer, Berlin, 1998. [5] André Leroi-Gourhan, L'homme et la matière, Albin Michel, Paris, 1971. B. Bensaude-Vincent, I. Stengers, Histoire de la chimie, La découverte, Paris, 1993. [6] Encyclopædia Universalis, Paris, 1990, article Textiles (Fibres). Pour la Science, N° spécial, Fibres textiles et tissus biologiques, Décembre 1999. [7] Encyclopædia Universalis, Paris, 1990, article Matériaux. [8] Encyclopædia Universalis, Paris, 1990, articles Liaisons chimiques et Molécule. J.P.Malrieu, ce volume. L. Salem, Molécule, la merveilleuse, Interéditions, Paris, 1979. Y. Jean, F. Volatron, Atomistique et liaison chimique, Ediscience, Paris, 1995. T. A. Nguyen, Introduction à la chimie moléculaire, École Polytechnique, Ellipses, 1994. [9] P.W. Atkins, Molecules, Freeman, New York, 1987 et traduction française. [10] Ben Selinger, Chemistry in the Market Place, Harcourt Brace, Sidney, 1998. [11] Jean Bost, Matières plastiques (Tomes I et II), Technique et Documentation, Paris, 1985. Groupement Français des Polymères, Les polymères, Paris. [12] Encyclopædia Universalis, Paris, 1990, articles Macromolécules, Polymères et Textiles (Fibres). [13] Communication de la société Fort Williams (Lotus), Gien. [14] Communication du service commercial de la SNCF, Paris. [15] Encyclopædia Universalis, Paris, 1990, article Corps gras. Ben Selinger, Chemistry in the Market Place, Harcourt Brace, Sidney, 1998. [16] Encyclopædia Universalis, Paris, 1990, article Cristaux liquides et Mésomorphe (État). [17] Encyclopædia Universalis, Paris, 1990, article Van der Waals. [18] Encyclopædia Universalis, Paris, 1990, article Couleur. [19] Pour la Science, Dossier « La couleur », Avril 2000, notamment G. Bram, N. T. Anh, L'avènement des colorants synthétiques p. 52. [20] Communications de la société Ciba, Paris. [21] Communications de la Société Essilor, Paris. [22] Ben Selinger, Chemistry in the Market Place, Harcourt Brace, Sidney, 1998. [23] L'actualité Chimique, Société Française de Chimie, Novembre 2000, p. 64. [24] O. Kahn, Molecular Magnetism, VCH, New York, 1993. M. Verdaguer et al., Images de la Physique, CNRS, Paris, 2000. [25] O. Kahn, Magnétisme moléculaire, La Recherche, Paris, 1994. [26] V. Gadet et al., J. Am. Chem. Soc. 1992, 114, 9213-9214. [27] S. Ferlay et al. Nature, 378, 701, 1995. [28] M. Verdaguer, Science, 272, 698, 1996. A. Bleuzen, J. Am. Chem. Soc., 2000, 122, 6648. C. Cartier ibid. 6653. d) H. Hashimoto et al. ibid 704. [29] M. Gruselle, C. Train travail en cours. [30] M.C. Petty, M.R. Bryce, D. Bloor, Molecular Electronics, Edward Arnold, Londres, 1995. J. Jortner, M. Ratner, Molecular Electronics, I.U.P.A.C., Blackwell Science, 1997. [31] D. Gatteschi, R. Sessoli et al. Nature 1993, 365, 141. V. Marvaud, travail en cours. [32] J.M. Lehn, Chimie supramoléculaire, VCH, New York, 1997. T.A. Nguyen, J.M. Lehn, ce volume. [33] Dossier : 1999, Année internationale de la chimie, Pour la Science, Décembre 1999, p. 69-84 : J.M. Lehn, J.P. Launay, T. Ebbesen, G. Ourisson … La Science au présent, Encyclopædia Universalis, 1998 ; a) M.W. Hosseini, b) J.P. Sauvage, ; c) P. Bernier.
VIDEO canal U LIEN |
|
|
|
|
|
|
LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE |
|
|
|
|
|
LA QUALITÉ DE L'AIR ET L'ATMOSPHÈRE
La qualité de l'air par Gérard Mégie La présence de la vie sur Terre est indissociable de la composition chimique de l'air que nous respirons. C'est à ce titre que nous pouvons parler de " qualité de l'air " puisque tous les constituants de l'atmosphère - azote, oxygène, vapeur d'eau, gaz carbonique, ozone... - jouent, à des titres divers, un rôle déterminant dans l'équilibre précaire qui conditionne le maintien des différentes formes de vie sur Terre. Si les dangers des émanations liées à l'usage du charbon étaient mentionnés dès le XVIIe siècle et l'apparition de pluies acides mise en évidence au XIXe siècle, le développement des activités industrielles et agricoles, la multiplication des moyens de transport, l'explosion démographique, ont entraîné, au cours du dernier siècle , une modification de la composition chimique de l'atmosphère sans commune mesure avec celle induite par les phénomènes naturels. La pollution de l'air concerne aujourd'hui aussi bien l'air ambiant, de l'échelle locale à l'échelle planétaire, que celui des locaux de travail et des habitations domestiques. Les mécanismes physiques et chimiques qui conduisent à la production de composés nocifs pour la santé humaine, l'équilibre des écosystèmes et l'environnement global de la Terre, sont pour l'essentiel élucidés. Les principales sources des précurseurs de la pollution photo-oxydante et acide sont également connus : transports, foyers de combustion, procédés industriels fixes. Les études épidémiologiques montrent également que si la pollution de l'air a été sensiblement réduite par rapport aux situations qui prévalaient il y a quelques décennies, principalement par la réduction des émissions des sources fixes, elle continue aujourd'hui à exercer des effets néfastes sur la santé, particulièrement sur les populations à risques, dont les conséquences à long terme sont encore mal comprises. La prise en compte des problèmes de qualité de l'air nécessite donc une action cohérente en termes de politique publique, qui prenne en compte à la fois des efforts ciblés sur les lieux et niveaux d'exposition affectant le plus de personnes pendant le plus de temps, et une réduction générale, tout au long de l'année, des niveaux moyens de pollution. Pour autant qu'elle soit respectée, la loi sur l'air et l'utilisation rationnelle de l'énergie de 1996, offre le cadre nécessaire à une mise en oeuvre efficace de telles politiques.
Texte de la 288e conférence de l'Université de tous les savoirs donnée le 14 octobre 2000.
Ozone et qualité de l'air
par Gérard Mégie
La composition chimique de l'atmosphère terrestre résulte d'échanges permanents de matière avec les autres compartiments de la planète Terre : biosphère, océans, surfaces continentales. Ces échanges sont initiés par des sources naturelles à la surface de la Terre. Ils mettent ensuite en jeu des interactions chimiques complexes, qui conduisent à la formation de constituants qui seront à leur tour éliminés par déposition à la surface, principalement du fait des précipitations. De ce fait, un constituant donné ne restera qu'un temps fini dans l'atmosphère et l'équilibre de l'environnement terrestre est donc dynamique et non statique. Ainsi, depuis la formation de la Terre voici quatre milliards et demi d'années, la composition chimique de l'atmosphère a continûment changé à l'échelle des temps géologiques passant d'une atmosphère originelle essentiellement réductrice au mélange azote moléculaire (78 %) - oxygène moléculaire (21 %) qui caractérise l'atmosphère actuelle. L'apparition de la vie sur la Terre est d'ailleurs directement liée à ce caractère oxydant de l'atmosphère terrestre, qui constitue un fait unique dans l'ensemble des planètes du système solaire.
Les sources des constituants atmosphériques résultent de processus physiques, comme l'évaporation ou le dégazage des roches, et biologiques comme la dénitrification ou la fermentation anaérobique, en l'absence d'oxygène. Elles correspondent à la production à la surface de la Terre de constituants gazeux comme la vapeur d'eau, l'hydrogène moléculaire, le méthane, l'hémioxyde d'azote, et certains composés organo-halogénés. La concentration relative en vapeur d'eau dans la basse atmosphère est directement fonction des propriétés thermodynamiques de l'air. Elle décroît rapidement dans la troposphère, passant de quelques fractions de % au niveau du sol à 4 à 5 millionièmes (ppm) dans la basse stratosphère. Les autres constituants, dont les abondances relatives sont également de l'ordre de quelques ppm, diffusent verticalement dans l'atmosphère. Cette diffusion est relativement rapide entre le sol et 12 km d'altitude en moyenne, dans la région inférieure appelée troposphère, qui se caractérise par l'influence des mécanismes de convection liés au chauffage de la surface par le rayonnement solaire. Elle est plus lente dans la région supérieure, la stratosphère, qui s'étend jusqu'à 50 km, et les temps nécessaires pour que les constituants atteignent une altitude moyenne de 30 km sont de l'ordre de 3 à 5 ans.
Ces constituants sources sont principalement détruits par l'action du rayonnement solaire, soit directement par photodissociation, soit de façon indirecte par des mécanismes d'oxydation, eux-mêmes induits par le rayonnement. Des constituants chimiquement actifs sont ainsi créés, dans des rapports d'abondance de l'ordre de quelques milliardièmes (ppb) ou moins, dont les interactions chimiques régissent les équilibres atmosphériques. Ceux-ci sont ensuite éliminés par des processus de recombinaison, qui conduisent en règle générale à la formation d'espèces acides solubles dans l'eau.
Jusqu'au début du XXe siècle, l'évolution de la composition chimique de l'atmosphère, que les archives glaciaires et sédimentaires permettent de relier aux grandes oscillations climatiques, trouvent leur origine dans des phénomènes naturels. L'explosion démographique, le développement des activités industrielles et agricoles, la multiplication des moyens de transport ont entraîné au cours des cinquante dernières années un changement profond de notre environnement, traduit notamment par une modification de la composition chimique de l'atmosphère.
La couche d'ozone stratosphérique
L'ozone est certainement le constituant atmosphérique qui permet le mieux de rendre compte de ces équilibres physico-chimiques de l'atmosphère terrestre et de leur évolution sous l'influence des activités humaines. Molécule constituée de trois atomes d'oxygène (O3), il joue en effet dans les équilibres de l'environnement un rôle essentiel. 90 % de l'ozone atmosphérique est contenu dans le domaine des altitudes comprises entre 20 et 50 km et son abondance relative maximale est de l'ordre de 6 à 8 ppm à 30 km d'altitude. Mais, bien que constituant minoritaire de l'atmosphère, l'ozone est l'unique absorbant, entre le sol et 80 km d'altitude, du rayonnement solaire ultraviolet de longueurs d'onde comprises entre 240 et 300 nanomètres (nm). Cette absorption permet le maintien de la vie animale et végétale à la surface de la Terre, en éliminant les courtes longueurs d'onde susceptibles de détruire les cellules de la matière vivante et d'inhiber la photosynthèse.
Comme pour les autres constituants, l'équilibre de l'ozone dans l'atmosphère terrestre résulte d'un grand nombre d'interactions chimiques mettant en jeu, outre le rayonnement solaire, des constituants minoritaires de l'atmosphère représentant, pour certains, moins d'un milliardième en volume de la concentration totale. En 1974, F.S. Rowland et M.J. Molina attirent l'attention de la communauté scientifique sur des gaz supposés inertes, les chlorofluorocarbures (CFC), produits par les industries chimiques et utilisés principalement pour la réfrigération, les mousses synthétiques, les solvants organiques et comme gaz porteur dans les bombes aérosols. Photodissociés par le rayonnement solaire plus intense qui irradie la stratosphère, ces constituants libèrent du chlore chimiquement actif, susceptible de détruire l'ozone. La découverte en 1985 d'un phénomène de grande ampleur au dessus du continent antarctique, correspondant à une diminution de plus de 50 % de l'épaisseur de la couche d'ozone au moment du printemps austral, largement médiatisé sous le nom de « trou d'ozone » polaire, relance les recherches sur les conséquences potentielles des activités humaines sur la couche d'ozone stratosphérique. De nombreuses campagnes internationales organisées dans l'Antarctique puis dans l'Arctique démontrent que l'explication la plus vraisemblable des diminutions d'ozone observées au printemps austral est d'origine chimique et correspond à un déplacement de l'équilibre des constituants chlorés stratosphériques en faveur des formes chimiques susceptibles de détruire l'ozone. Sur la base des rapports rédigés par la communauté scientifique, les négociations conduites au niveau international conduisent à la suppression totale des CFC à partir de 1995, et à leur remplacement par des produits de substitution à durée de vie plus courte dans l'atmosphère, les hydro-chloro-fluorocarbures (HCFC) et les hydro-fluorocarbures (HFC).
Malgré ces mesures, la charge en chlore de la stratosphère continuera au cours du siècle prochain à être dominé par les émissions des CFC émis dans les années 1960-1990, du fait notamment de la très longue durée de vie de ces constituants, supérieure au siècle pour certains d'entre eux. Le retour au niveau de concentration qui existait antérieurement à l'apparition des phénomènes de destruction de l'ozone dans les régions polaires ne sera pas effectif avant les années 2040-2050. En revanche, la contribution à la charge totale en chlore de la stratosphère des produits de substitution, HCFC et HFC, restera limitée, compte tenu des mesures de réglementation déjà prises. En trois décennies, le problème de l'ozone stratosphérique est ainsi passé de la simple hypothèse scientifique à la mise en évidence d'une atteinte de grande ampleur à l'environnement global. Si les conséquences sur l'équilibre de la vie de cette évolution restent encore aujourd'hui non quantifiables, les conséquences économiques sont particulièrement importantes puisqu'elles ont conduit à la suppression totale des émissions des composés organo-chlorés jugés responsables de cette perturbation des équilibres globaux de l'atmosphère. Celle-ci a été suffisamment importante pour modifier profondément les équilibres stratosphériques, faisant apparaître du fait de la croissance rapide des concentrations du chlore dans la stratosphère, des processus chimiques entièrement nouveaux, qui ne pouvaient que difficilement être imaginés dans les conditions « naturelles » qui prévalaient au début des années 1950, avant la mise massive sur la marché des CFC.
On pourrait penser que du fait des mesure réglementaires prises dans le cadre du Protocole de Montréal, qui vise à l'élimination de la cause, en l'occurrence les émissions des composés organo-halogénés, les efforts de recherche sur la couche d'ozone devraient être ralentis dans l'attente d'un retour à l'équilibre de la stratosphère terrestre. Malgré les incertitudes qui limitent fortement notre capacité à prédire l'évolution future de la couche d'ozone stratosphérique, plusieurs faits scientifiques plaident contre une telle attitude attentiste. D'une part, l'effet maximum des composés chlorés sur la couche d'ozone ne sera atteint qu'après l'an 2000. La couche d'ozone sera donc dans un état très vulnérable au cours de la prochaine décennie, et les non linéarités du système atmosphérique déjà mises en évidence par l'apparition du « trou d'ozone », ne nous mettent pas à l'abri des surprises, bonnes ou mauvaises. D'autre part, il n'est pas possible d'affirmer de façon scientifiquement fondée que la diminution des concentrations en chlore dans la stratosphère, entraînera de facto un retour à l'équilibre qui prévalait au début des années 1970. La stratosphère, et plus généralement l'atmosphère terrestre, ont en effet évolué au cours de deux dernières décennies sous l'effet des perturbations anthropiques, et les contraintes globales d'environnement sont donc totalement différentes de celles des années « pré-industrielles ». On sait notamment que si l'augmentation du gaz carbonique induit un réchauffement de la surface terrestre, elle refroidit la stratosphère et de ce fait favorise la destruction d'ozone dans les régions polaires. C'est donc au cours de la prochaine décennie que l'on pourra effectivement mesurer l'impact réel des mesures réglementaires sur l'évolution de la couche d'ozone stratosphérique.
Ozone troposphérique
Dans la troposphère, le contenu en ozone reste limité à 10 % du contenu atmosphérique total et les concentrations relatives sont de l'ordre de quelques dizaines de milliardièmes (ppb). L'origine de l'ozone troposphérique est double. D'une part, les transferts de masse d'air entre la stratosphère, réservoir principal, et la troposphère. D'autre part, la photo-oxydation de constituants précurseurs - hydrocarbures, oxydes d'azote, monoxyde de carbone, méthane - dont les émissions sont aujourd'hui largement dominées par les sources anthropiques (industrie, transport, pratiques agricoles). L'existence de cette formation photochimique d'ozone a été depuis longtemps mise en évidence dans les atmosphères urbaines et péri-urbaines des grandes cités fortement polluées (Los Angeles, Milan, Athènes, Mexico, New York..). L'ozone ainsi formé à l'échelle locale constitue une source qui, alliée à la production directe d'ozone dans l'atmosphère libre hors des régions de forte pollution, contribue à l'augmentation des concentrations observées aux échelles régionales et globales. Ainsi, la comparaison avec les valeurs actuelles des concentrations d'ozone mesurées au début du XXe siècle dans plusieurs stations de l'hémisphère Nord (Observatoire Météorologique du Parc Montsouris à Paris, Observatoire du Pic du Midi, Observatoire de Montecalieri en Italie) et de l'hémisphère Sud (Montevideo en Uruguay, Cordoba en Argentine) montrent que le niveau d'ozone dans l'atmosphère « non polluée » a été multiplié par 4 dans l'hémisphère Nord et par près de 2 dans l'hémisphère Sud. L'influence des sources anthropiques est confirmée par les observations de la variation en latitude des concentrations d'ozone qui montrent des valeurs deux fois plus élevées dans l'hémisphère Nord (40-60 ppb) que dans l'hémisphère Sud (20-25 ppb), reflétant ainsi la dissymétrie dans la distribution des sources, plus de 80 % des précurseurs polluants étant émis dans l'hémisphère Nord et dans les régions tropicales, notamment par la combustion de la biomasse.
Les enjeux pour l'environnement de l'augmentation de l'ozone troposphérique et des constituants photo-oxydants qui lui sont liés sont particulièrement importants. Oxydant puissant, l'ozone constitue un danger pour la santé des populations lorsque les teneurs relatives dépassent des seuils de l'ordre de la centaine de ppb. Cet effet oxydant est également néfaste pour la croissance des végétaux, et constitue une cause additionnelle du dépérissement des forêts et de la dégradation des matériaux. Par ailleurs, du fait de ses propriétés d'absorption du rayonnement ultra-violet solaire, l'ozone peut être photodissocié dans la basse atmosphère et toute modification de sa concentration influe directement, à courte échelle de temps, sur les propriétés oxydantes de la troposphère. Enfin, l'ozone est un gaz à effet de serre 1200 fois plus actif à masse égale dans l'atmosphère que le gaz carbonique. L'augmentation de sa concentration dans la troposphère conduit donc à un renforcement de l'effet de serre additionnel. Le problème de l'ozone troposphérique est ainsi étroitement lié au problème climatique. Il constitue en fait l'essentiel du couplage entre le climat et la chimie de l'atmosphère.
Dans la troposphère, les concentrations d'ozone, polluant secondaire produit par réaction chimique dans l'atmosphère, sont étroitement liées à celles des ses précurseurs oxydes d'azote, méthane, monoxyde de carbone, hydrocarbures. Elles sont donc particulièrement sensibles à la part prise par les sources anthropiques dans les émissions de ces constituants, part qui atteint 65 % pour le méthane et le monoxyde de carbone et près de 75 % pour les oxydes d'azote. En revanche à l'échelle planétaire, les émissions d'hydrocarbures non méthaniques par la végétation dominent, ramenant la part anthropique à seulement 20 à 25 % des émissions totales.
Aux échelles locales et régionales, la distribution de l'ozone et de ses précurseurs résulte alors de la combinaison entre les processus chimiques de formation ou de destruction, et les processus de mélange qui conduisent au transport et à la dispersion des constituants atmosphériques. Localement, notamment l'été, apparaissent dans les grandes agglomérations des pics de pollution dus à l'ozone. Les causes premières en sont connues, qui impliquent conditions météorologiques propices et émissions de constituants chimiques. Par temps calme, avec un rayonnement solaire maximal, l'accumulation des polluants primaires - oxydes d'azote, monoxyde de carbone et hydrocarbures - conduit à la production d'ozone dans les basses couches. Les activités humaines liées aux combustions, associées aux modes de transport et de chauffage, font ainsi des zones urbaines et périurbaines un champ privilégié de la pollution par l'ozone. Depuis de nombreuses années, les métropoles mondiales sont concernées et les grandes villes françaises ne sont plus épargnées. Ainsi, Paris et la région marseillaise enregistrent pratiquement tous les étés des pics de pollution pouvant atteindre des niveaux d'alerte à partir desquels des mesures restrictives doivent être mises en place par les pouvoirs publics. Lors de tels épisodes, les effets de la pollution oxydante sur la santé sont apparents, en particulier les affections du système respiratoire chez les personnes à risque.
Ces pollutions fortes et localisées agissent également comme révélateur d'une tendance continue de l'augmentation du pouvoir oxydant de l'atmosphère des basses couches observée à l'échelle globale. L'augmentation, déjà citée, d'un facteur 4 des concentrations d'ozone troposphérique dans l'hémisphère Nord depuis le début du siècle ne doit cependant pas être traduite sans précaution en termes de tendance annuelle, comme il est d'usage de le faire pour les constituants à durée de vie plus longues tels que le dioxyde de carbone ou les chlorofluorocarbures. En effet, les temps caractéristiques des processus photochimiques qui régissent l'équilibre de l'ozone dans la troposphère sont de quelques mois au maximum, et les concentrations observées reflètent donc les variations à la fois spatiales et temporelles des constituants précurseurs. Il est ainsi probable que les mesures de réduction des émissions d'oxydes d'azote et d'hydrocarbures prises dans les années 1970, aient conduit à une diminution du rythme annuel d'accroissement des concentrations d'ozone à la surface au cours de la dernière décennie. En revanche, si les augmentations maximales d'ozone ont été observées au cours des dernières décennies en Amérique du Nord et en Europe, il est vraisemblable que les régions de l'Asie du Sud-Est seront les plus sensibles au cours de la première moitié du XXIe siècle en termes d'augmentation des concentrations d'ozone troposphérique.
La compréhension et la quantification des mécanismes de couplage de la pollution oxydante aux différentes échelles de temps et d'espace concernées est aujourd'hui un sujet de recherche ouvert. De ce fait, la mise en place de politiques de prévention et de réglementation efficaces reste difficile, tant les paramètres à prendre en compte sont nombreux et les mécanismes qui régissent la capacité d'oxydation de l'atmosphère complexes. Des régimes très différents sont observés suivant les concentrations des espèces primaires impliquées, oxyde d'azote et hydrocarbures en particulier, et les effets peuvent être non-linéaires. Par exemple, à proximité de sources d'émissions intenses d'oxyde d'azote, l'ozone peut, dans un premier temps, être détruit, avant que le transport et la dilution des masses d'air ne provoquent une augmentation rapide de sa concentration dans l'atmosphère. C'est ainsi qu'en région parisienne, l'on observe parfois des concentrations en ozone bien plus élevées dans la grande banlieue qu'au centre-ville, et qu'une diminution du trafic automobile peut s'accompagner d'une augmentation rapide des concentrations d'ozone dans Paris intra muros et d'une baisse de ces mêmes concentrations, le lendemain, en banlieue.
Conclusion
Notre compréhension actuelle des mécanismes qui régissent le comportement de l'ozone atmosphérique montre, qu'au-delà des problèmes spécifiques posés par la destruction de couche d'ozone stratosphérique et l'augmentation des propriétés oxydantes de la troposphère, cette problématique rejoint celle du changement climatique dû aux émissions de gaz à effet de serre. En effet, la diminution de l'ozone stratosphérique influe directement sur le bilan d'énergie de la basse atmosphère et l'ozone troposphérique est un gaz à effet de serre. De même, les CFC, agents destructeurs de la couche d'ozone stratosphérique, mais aussi les constituants amenés à les remplacer dans leurs principales utilisations, sont des gaz à effet de serre particulièrement actifs, comme le sont certains précurseurs de l'ozone troposphérique, notamment le méthane. Les oxydes d'azote qui influent directement sur les concentrations d'ozone et des oxydants dans l'atmosphère ont également un effet indirect important sur l'effet de serre additionnel. Tous ces faits scientifiquement établis plaident pour une étude approfondie de l'influence de l'ozone atmosphérique sur le changement climatique.
Cette complexité des problèmes d'environnement implique une prise en compte rapide dans la décision politique et économique de l'avancée des connaissances scientifiques dans un domaine où l'incertitude domine, et dominera encore au cours des prochaines décennies, les rapports science - expertise - décision publique. De ce fait, la multiplication des lieux d'échanges entre les différents acteurs, décideurs, scientifiques mais aussi acteurs privés ou associatifs, reste indispensable à l'émergence des questions stratégiques pertinentes et de leur résolution.
Bibliographie
Ozone et propriétés oxydantes de la troposphère, Académie des Sciences, Rapport n° 30, Octobre 1993, Éditions Lavoisier, Technique et Documentation
Ozone Stratosphérique, Académie des Sciences, Rapport n° 41, Juin 1998, Éditions Lavoisier, Technique et Documentation
VIDEO CANAL U LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante |
|
|
|
|
|
|