ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

VITESSE DU NEUTRINO

 


« Ce qui compte, c'est que nous avons mesuré la vitesse du neutrino »


portrait - par Denis Delbecq dans mensuel n°470 daté décembre 2012 à la page 70 (1698 mots) |
Coordinateur discret de l'expérience internationale Opera sur les neutrinos, le physicien Dario Autiero s'est retrouvé sous les projecteurs l'an dernier en annonçant que la particule semblait aller plus vite que la lumière.

C'est l'histoire d'une particule, un neutrino, qui n'aurait jamais dû arriver en avance. L'histoire, aussi, d'un physicien trahi par un câble mal branché. Expérimentateur de renom, Dario Autiero s'était mis en tête, avec une vingtaine de physiciens, de mesurer la vitesse des neutrinos, particules qui n'interagissent presque pas avec la matière. En septembre 2011, le résultat est rendu public : la particule serait plus rapide que la lumière, en violation de la théorie de la relativité d'Einstein. Neuf mois et de nombreuses expériences plus tard, le neutrino est rentré dans le rang. Le héros de l'histoire n'a pas pour autant perdu sa soif de comprendre.

« Maintenant que cette période un peu folle est achevée, j'ai retrouvé mon état fondamental », sourit Dario Autiero. Sa voix douce dévoile ses origines italiennes. Elle ne laisse paraître ni lassitude ni déception. Dans son bureau de l'institut de physique nucléaire de Lyon, le quadragénaire grisonnant affiche une passion intacte pour la science. « Ça remonte à mon enfance, raconte le physicien. À 7 ans, j'ai remarqué, sur un étalage à Venise, une série de jolis livres qui expliquaient les atomes, les molécules et toutes ces choses. J'ai convaincu mon grand-père de me les offrir. J'étais surpris d'apprendre que le son et la lumière n'ont pas la même vitesse. J'ai alors compris que c'est la physique qui tente de répondre aux questions essentielles sur notre monde. »

Son appétit grandit au cours de l'adolescence. « Pendant les vacances, j'allais à la plage le matin, puis je me plongeais dans des livres universitaires. » Né dans une famille où les nombres s'alignent en tableaux - un père économiste et une mère experte-comptable -, le jeune Dario rejoint l'université de Pise. Sa thèse de doctorat, soutenue en 1991, portait sur l'étude des propriétés magnétiques d'une particule élémentaire, le boson W.

« Il était très méticuleux, se souvient Vincenzo Cavasinni, qui dirigea son doctorat. Il revérifiait maintes fois ses résultats. Ensuite, il est parti travailler à l'Organisation européenne de recherche nucléaire (CERN), à Genève, mais on est toujours resté en contact. » Dans ce temple de la physique des particules, Dario Autiero rejoint l'expérience Nomad sur les « oscillations » des neutrinos.

Cette particule existe sous trois formes, et passe spontanément de l'une à l'autre. Nomad a pour but de surprendre de rares neutrinos de type « mu » qui se transforment en neutrinos « tau ». « Ces études doivent répondre à des questions sur l'origine de la masse et de la matière noire dans l'Univers », précise Dario Autiero.

Au démarrage de Nomad, les physiciens calculent qu'il suffit de placer les détecteurs à un kilomètre de la source de neutrinos. Mais il apparaît qu'il faut laisser les particules parcourir plusieurs centaines de kilomètres pour espérer observer la transformation de quelques-unes. D'où l'idée de la collaboration internationale Opera, démarrée en 2000 : orienter un faisceau de neutrinos produit au CERN vers le laboratoire souterrain de Gran Sasso, en Italie, à 732 kilomètres de là.

Quand, en 2002, le CERN se retire d'Opera faute de moyens, Dario Autiero rejoint l'institut de physique nucléaire de Lyon, au CNRS. Il est alors dirigé par Yves Déclais, porte-parole de la collaboration. « Dario Autiero est une référence mondiale en physique, souligne celui-ci, aujourd'hui chercheur émérite. Il a fait partie du noyau dur d'Opera, les trois ou quatre personnes qui ont été essentielles à sa conception et sa mise en oeuvre. »

Règle non graduée
Dario Autiero se passionne aussi pour la géodésie et les horloges atomiques. « On s'est dit qu'en améliorant le système de synchronisation avec le CERN, on pourrait mesurer le temps de parcours des neutrinos et en déduire leur vitesse, tout en conduisant nos expériences sur les oscillations », explique-t-il. Opera reçoit des équipements complémentaires pour chronométrer les neutrinos et déterminer la position du laboratoire.

Les chercheurs procèdent en aveugle, pour éviter tout préjugé. « Les données étaient enregistrées dans le cadre d'une configuration technique plus ancienne, qui remontait à 2006. C'est un peu comme si nous avions mesuré une longueur avec une règle non graduée, puis comparé les différentes mesures pour vérifier qu'elles se recoupent, avant de recalibrer le résultat pour connaître sa valeur. Ce n'est qu'au printemps 2011 que nous avons calculé la distance entre le CERN et Gran Sasso avec une incertitude de 20 centimètres et déterminé le temps de vol à dix nanosecondes près. » Dario Autiero et son étudiante de thèse, Giulia Brunetti, découvrent alors l'inimaginable : au terme d'un voyage de 2,5 millisecondes, les neutrinos arrivent avec 60 milliardièmes de seconde d'avance sur le temps que mettrait de la lumière sur la même distance.

« Nous étions persuadés qu'il y avait une erreur. Nous avons gardé ça pour nous et entrepris de tout vérifier », précise-t-il. Les ordinateurs, les cartes électroniques, les détecteurs... L'influence, millimétrique, des marées de l'écorce terrestre. L'effet du séisme de l'Aquila en 2009, qui a déplacé le laboratoire de 7 centimètres, etc. Après deux mois d'un travail acharné avec la vingtaine de personnes impliquées, tout a été passé au peigne fin, croient alors les chercheurs. « Nous n'avons pas trouvé de biais. Nous avons donc prévenu les responsables de la collaboration, créé un groupe de travail qui a entrepris d'autres vérifications, et enfin averti l'ensemble des membres d'Opera», se souvient Dario Autiero.

Rumeur et fuite
L'information n'aurait pas dû filtrer, le temps que d'autres groupes confirment ou infirment le résultat. Mais Opera rassemble près de 170 scientifiques, ce qui rend le secret difficile à garder. Un séminaire public est donc prévu à Genève le 23 septembre 2011. Hélas, informé de la rumeur deux jours plus tôt, le physicien - retraité - Antonio Zichichi, père du laboratoire de Gran Sasso, appelle le quotidien italien Il Giornale, qui relaie la nouvelle dans son édition du 22 septembre, rejoint quelques heures plus tard par l'influent New York Times.

Le lendemain, à Genève, chercheurs et journalistes écoutent, médusés, les explications de Dario Autiero. « Je n'ai pas parlé de découverte. Nous avons détaillé notre méthode et ce résultat anormal pour inciter d'autres équipes à faire leurs propres expériences », se défend celui-ci. Malgré cette prudence, de nombreux journalistes évoquent un bouleversement de la physique. « Les médias français ont réagi sans sensationnalisme, souligne le physicien. Mais en Italie et dans les pays anglo-saxons, il y a eu de tout. »

Des dizaines d'articles scientifiques sont diffusés sur le site de prépublication Arxiv. « Je passais mes nuits à répondre aux journalistes, aux chercheurs et même à des particuliers qui avaient chacun, bien sûr, une explication théorique », se souvient-il. Chez les physiciens, le scepticisme est de mise. Le théoricien italien Gian Guidice, du CERN, dira que l'explication théorique la plus plausible qu'il a entendue est qu'en Suisse les neutrinos voyagent à la vitesse de la lumière, mais que sitôt la frontière italienne franchie, ils ne respectent plus les limites de vitesse !

À l'automne 2011, des chronométrages - plus précis - renforcent la confiance du groupe de travail, qui soumet un article au Journal of High Energy Physics (JHEP) le 17 novembre. Mais début décembre, une série de vérifications laissent penser qu'un connecteur de fibre optique était mal branché, fait attesté depuis par une photographie découverte dans un dossier. De quoi surestimer la vitesse des neutrinos. Parallèlement, un défaut d'électronique est repéré, qui agit dans le sens inverse. « Le 23 février 2012, j'ai donc demandé au JHEP de mettre en attente l'article, qui avait été accepté. Tout le monde a travaillé jusqu'au bout sans compter, jour et nuit. »

En mai, Opera et trois autres expériences indépendantes de Gran Sasso mettent enfin un terme à l'incertitude : le neutrino ne va pas plus vite que la lumière. Entre-temps, une motion circule au sein de la collaboration pour « renverser » Dario Autiero et le porte-parole d'Opera Antonio Ereditato, autre Italien, basé, lui, à l'université de Berne, en Suisse. En mars, les deux physiciens démissionnent. Pour Yves Déclais : « Cette affaire n'était qu'un prétexte. Les Italiens de Gran Sasso n'ont jamais pardonné à Dario d'avoir choisi le CNRS plutôt que leur laboratoire. »

Ce dernier affirme être heureux de son nouveau sort : « La coordination d'Opera me prenait beaucoup de temps. J'en ai plus aujourd'hui pour faire de la physique. » Il jette un voile pudique sur la manière dont il a traversé ces épreuves. « Ces centaines de courriels et de coups de fil quotidiens, c'était à la limite de l'inhumain. Mais ce qui compte, c'est que l'objectif est atteint : une mesure très fine de la vitesse des neutrinos qui marie la physique des particules et les techniques de métrologie du temps et de l'espace. Cela n'avait jamais été fait. »

À entendre Vincenzo Cavasinni, il a été plus affecté qu'il ne le dit. « Dario était triste, très touché. Il a même parlé d'abandonner la physique. Je ne m'explique pas qu'ils aient pu passer à côté d'un tel biais alors qu'ils ont vérifié des effets physiques très subtils ; je lui ai rappelé que l'erreur fait partie de la science, et qu'on doit la gérer de manière honnête. Et c'est ce qu'il a fait. » Yves Déclais regrette aussi cette erreur « grossière » :« Mais il a eu raison de mettre son résultat sur la table, et il peut être fier d'avoir conduit jusqu'au bout ce travail, qui reste une vraie première. Certains sont très forts pour commenter le travail des autres. Ils oublient qu'il y a eu beaucoup d'erreurs dans l'histoire de la physique des neutrinos. »

Par ailleurs, l'objectif initial d'Opera a été atteint : deux neutrinos tau ont été observés dans le faisceau de neutrinos mu, en 2010 et 2012. Et le dépouillement des données continue. Mais déjà, Dario Autiero a le regard tourné vers l'avenir. « Notre groupe de Lyon participe à un projet de mesure des oscillations de neutrinos sur une distance plus grande encore. Nous espérons installer un détecteur géant au fond d'une mine en Finlande, à 2 300 kilomètres du CERN. »

Par Denis Delbecq

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LE SPIN

 


Albert Fert : Vive l'électronique de spin !


entretien - par Albert Fert dans mensuel n°370 daté décembre 2003 à la page 67 (2227 mots) | Gratuit
Si les disques durs de nos ordinateurs contiennent aujourd'hui jusqu'à 200 gigaoctets, c'est grâce à la magnétorésistance géante, découverte en 1988 dans un laboratoire français par le physicien Albert Fert. Celui-ci reçoit ce mois-ci la médaille d'or du CNRS, la plus grande distinction de l'organisme de recherche.

LA RECHERCHE : Avec 2 455 citations en quinze ans, votre article sur la découverte de la magnétorésistance géante GMR est l'un des plus cités en physique [1]. Il est à la base d'un nouveau type d'électronique, l'électronique de spin. Comment avez-vous découvert ce phénomène ?

ALBERT FERT : Le concept de la GMR est venu d'idées sur la conduction électrique dans des métaux ferromagnétiques fer ou nickel par exemple que Ian Campbell, mon directeur de thèse, et moi-même avions développées vers 1970 au laboratoire de physique des solides d'Orsay Essonne. Cependant, entre ces idées de physique fondamentale et la découverte de la GMR, en 1988, il a fallu attendre les avancées technologiques qui, vers le milieu des années quatre-vingt, ont commencé à permettre la fabrication de multicouches, des empilements de couches extrêmement minces de métaux différents.

En 1986, j'ai établi une collaboration avec le laboratoire central de recherche de Thomson-CSF qui maîtrisait une technique de dépôt sous ultravide appelée « épitaxie par jets moléculaires ». Il nous a ainsi été possible de fabriquer des multicouches de bonne qualité dans lesquelles les épaisseurs individuelles des couches ne dépassaient pas 1 ou 2 nanomètres. Nous avons découvert la GMR sur des multicouches alternant des couches de fer et de chrome. Si l'on prenait en compte les résultats de ma thèse sur la conduction électrique dans le fer, on devait s'attendre à provoquer une diminution de la résistance électrique de la multicouche en alignant les aimantations de couches de fer par un champ magnétique. Dans nos expériences de 1988, la résistance des multicouches fer/chrome diminua par un facteur deux. C'était une variation beaucoup plus grande que celle obtenue dans la plupart des matériaux par application d'un champ magnétique. Nous avons appelé le phénomène « magnétorésistance géante » ou giant magnetoresistance GMR.

Cette magnétorésistance attira très rapidement l'attention des industriels, car elle pouvait être utilisée pour détecter facilement un faible champ magnétique, par exemple pour la lecture d'enregistrements magnétiques. La découverte de la GMR donna aussi le coup d'envoi d'un nouveau domaine de recherche, que l'on appelle maintenant « électronique de spin » ou « spintronique », et qui exploite les propriétés de nanostructures magnétiques.

Quel phénomène est en action dans la GMR ?

ALBERT FERT : Le courant électrique dans un conducteur est transporté par les électrons dont une caractéristique quantique est le spin [2]. On peut imaginer le spin comme une minuscule aiguille de boussole portée par l'électron et associée à la rotation de l'électron sur lui-même. Sir Nevill Mott, prix Nobel britannique de physique en 1977, avait déjà suggéré dans les années trente que, dans un métal ferromagnétique, les électrons ayant des spins parallèles ou antiparallèles à l'aimantation devaient transporter des courants différents. Ma thèse de 1970 sur les propriétés de conduction des métaux ferromagnétiques avait ensuite éclairé le problème. J'avais ainsi montré que certains métaux ou alliages ferromagnétiques laissent passer un courant d'électrons dont le spin est parallèle à leur aimantation, tandis qu'ils arrêtent presque totalement les électrons dont le spin est orienté en sens opposé. Dans les années soixante-dix, quelques équipes, à Strasbourg ou à Eindhoven chez Philips, ont poursuivi ce type d'études. Cependant, ce ne fut pas vraiment un domaine de recherche à la mode jusqu'à la découverte de la GMR et l'essor de l'électronique de spin. Dans le cas des multicouches fer/chrome, quand deux couches de fer ont des aimantations opposées, l'une arrête les électrons de spin haut, l'autre ceux de spin bas, la résistance est alors très élevée.

C'est la technologie qui a permis cette avancée en recherche fondamentale ?

ALBERT FERT : L'électronique de spin est née d'une rencontre entre des idées de physique fondamentale et des progrès technologiques, comme c'est le cas dans de nombreux domaines de la physique. Les nanotechnologies permettent d'élaborer, à l'échelle du nanomètre, les architectures de l'électronique de spin multicouches, nanofils, boîtes quantiques, etc., mais aussi de les caractériser, d'en avoir une image précise. Car il ne suffit pas de savoir fabriquer, il faut aussi pouvoir vérifier ce qu'on a voulu fabriquer.

D'un point de vue plus général, on peut dire que ces technologies relancent aujourd'hui de manière extraordinaire la physique de la matière condensée. Une belle physique se développe dans le domaine des nanotubes de carbone, de la nanoélectronique, des structures pour électronique moléculaire, etc. Dans les années quatre-vingt, j'avais le sentiment que la physique de la matière condensée patinait un peu et que, dans l'étude des solides naturels, on commençait à « couper les cheveux en quatre ». Pierre-Gilles de Gennes avait exprimé aussi cette idée. Mais il y a toujours des surprises. Les nanotechnologies, en permettant au chercheur de donner libre cours à son imagination pour créer de nouvelles associations d'atomes ou de molécules, en privilégiant aussi les caractéristiques quantiques des phénomènes, ont ouvert des voies nouvelles et fascinantes à la recherche.

Et, en même temps, elles ont ouvert la voie à des applications... On disait que le stockage des données allait buter sur des limites théoriques. Vous avez prouvé le contraire.

ALBERT FERT : Effectivement, des idées nouvelles peuvent repousser certaines limites. Avant la GMR, la densité d'information stockée sur un disque dur était limitée par l'impossibilité de détecter des champs magnétiques très faibles, et donc de lire des inscriptions magnétiques bits très petites. La réponse « géante » à un tout petit champ magnétique des têtes de lecture actuelles à GMR a permis de diminuer la taille des bits et d'augmenter d'environ un facteur cent la densité d'information stockée sur un centimètre carré de disque dur ! La capacité de certains disques durs dépasse maintenant les 200 gigaoctets. La prochaine génération n'utilisera plus la GMR classique mais, pour une sensibilité encore meilleure, la GMR en courant perpendiculaire aux couches. Une limite à la diminution de la taille des bits pourrait venir des fluctuations thermiques de bits de quelques nanomètres, mais diverses parades sont déjà étudiées avec certains nouveaux matériaux.

Vous ne vous êtes pas arrêté là. Où vous ont mené vos recherches ?

ALBERT FERT : L'électronique de spin se développe aujourd'hui dans de nombreuses nouvelles directions. Une propriété très étudiée est la magnétorésistance de jonctions tunnel TMR, qui apparaît quand deux couches ferromagnétiques sont séparées par une couche isolante. C'est un peu comme la GMR, mais le mode de transport des électrons à travers l'isolant est un phénomène quantique appelé « effet tunnel ». La TMR avait déjà été observée en 1975 par un chercheur français, Michel Jullière, mais c'est seulement en 1995 qu'une équipe du MIT a relancé son étude. Notre équipe a contribué à la compréhension des mécanismes physiques de la TMR et a aussi obtenu des records de magnétorésistance en utilisant de nouveaux types de matériaux ferromagnétiques.

La TMR aura des applications importantes sur la réalisation de MRAM Magnetic Random Access Memory, des mémoires vives qui devraient concurrencer, voire remplacer, les mémoires à base de semi-conducteurs de type DRAM ou SRAM des ordinateurs actuels. Ces dernières ont un caractère volatil : l'information mémorisée « meurt » dès que l'on éteint l'ordinateur. Il faut la stocker sur le disque dur avant l'arrêt de l'ordinateur et la recharger au redémarrage ou à l'appel d'un logiciel, ce qui ralentit le fonctionnement. Ces opérations ne seront plus nécessaires avec les MRAM dont la mémoire est permanente. Les DRAM et SRAM nécessitent aussi un « rafraîchissement » de leur mémoire environ toutes les 10 millisecondes, et consomment donc de l'énergie en dehors de leur période de travail effectif. La consommation des MRAM permanentes sera nettement plus faible, d'où également un avantage certain pour l'électronique nomade. Deux consortiums, Altis impliquant IBM et Infineon, filiale de Siemens et Motorola avec ST-Microelectronics et Philips, annoncent des MRAM pour 2004 ou 2005. Les premiers développements industriels auront lieu en France, à Corbeil-Essonne pour Altis, et à Crolles près de Grenoble pour l'autre consortium.

Quel est l'avenir de l'électronique de spin ?

ALBERT FERT : De nombreux phénomènes nouveaux apparaissent. Par exemple, nous développons actuellement des expériences dans lesquelles nous renversons l'aimantation d'une couche de cobalt sans appliquer de champ magnétique, mais seulement en y injectant des électrons au spin sélectionné. Dans d'autres expériences, nous manipulons les spins des électrons d'un semi-conducteur. Cette fusion avec l'électronique classique est une évolution intéressante. On profitera, entre autres, du couplage avec l'optique que permettent les semi-conducteurs. À plus longue échéance, nous avons tous à l'esprit l'ordinateur quantique dans lequel on ne combine plus des données binaires, mais des états d'objets quantiques [3]. Le spin offre une des possibilités intéressantes. Ce n'est pas la seule, mais il faut explorer cette voie en même temps que d'autres.

La course aux brevets est très vive dans votre secteur. L'Allemand Peter Grünberg a publié le même genre de résultats quelques mois après votre article de 1988, mais il a été le premier à déposer le brevet correspondant au dispositif de fabrication. Comment est-ce possible ?

ALBERT FERT : Vous voulez parler du brevet de la GMR ? L'équipe de mon ami Peter Grünberg en Allemagne et la mienne avons découvert la GMR à peu près simultanément. Les résultats de Grünberg étaient moins spectaculaires, mais il s'agissait du même phénomène et nous partageons donc la découverte. Nous avons publié avant nos collègues allemands, mais notre brevet a été enregistré après le leur, et donc trop tard. Pour ce premier brevet, nous avons ainsi raté un bon coup. Mais c'est la loi dans ce genre de sport. Pour la seconde génération de têtes de lecture et pour d'autres applications, nous avons en revanche des brevets qui tiennent parfaitement la route.

IBM, Siemens et Bosch vantent la technologie de la GMR et l'utilisent dans de nombreux capteurs. Même dans des endroits insoupçonnés.

ALBERT FERT : Si l'application la plus importante de la GMR est la lecture des disques durs informatiques, une autre est la réalisation de capteurs de champ magnétique. Il y en a beaucoup dans une automobile : un aimant tourne avec un rotor et un capteur détecte son passage pour mesurer la vitesse de rotation ou synchroniser un changement de vitesse. Siemens et Bosch ont développé des capteurs à GMR que l'on trouve un peu partout, non seulement dans des voitures, mais aussi des appareils domestiques. J'ai été étonné de retrouver la GMR dans les potentiomètres sans contact d'un lave-vaisselle !

Vous avez monté un laboratoire mixte CNRS-Thalès. Qu'est-ce que cela vous apporte ?

ALBERT FERT : Nous sommes toujours immergés dans la communauté de recherche fondamentale, mais travailler avec l'industrie nous donne aussi une bonne vision des enjeux industriels, qui me manquait quand j'étais à l'université. Et cela favorise bien sûr le transfert de connaissances entre recherches fondamentale et appliquée. La création en 1995 de l'unité mixte CNRS-Thalès, également associée à l'université Paris-Sud, nous a permis de bénéficier de moyens technologiques qui étaient encore peu développés dans les laboratoires universitaires.

Cela change actuellement. Le ministère de la Recherche est en train de créer, avec le CNRS et le CEA, des plates-formes technologiques comme celle, consacrée aux micro- et nanotechnologies, qui est associée au projet Minerve à Orsay ou encore Minatech à Grenoble. Ces plates-formes regroupent des moyens technologiques qui sont mis à la disposition des laboratoires.

Dans le budget de la recherche 2004, le ministère pousse les initiatives privées en finançant l'industrie, tout en diminuant en euros constants les ressources de la recherche fondamentale. Est-ce la bonne méthode ?

ALBERT FERT : On parle toujours de rattraper les 3 % du PIB mais, chaque année, le budget déçoit. Mon parcours personnel m'a montré que les avancées technologiques apportées par ma recherche ont pris racine dans certains de mes travaux fondamentaux très antérieurs. Et mon expérience actuelle ne fait que confirmer combien il est fructueux de coupler la recherche fondamentale et le développement industriel. Malheureusement, la recherche fondamentale est le parent pauvre des choix ministériels. Notre pays ne réfléchit pas à son avenir économique dans quinze ans.

Outre-Altantique, des voix commencent à s'élever contre les nanotechnologies. Un peu comme avec les OGM, il y a une réticence d'une partie de la société, qui imagine des nanorobots se dupliquant atome par atome et prenant le pouvoir sur les citoyens. Y a-t-il une réflexion de la part du monde de la recherche ou de l'industrie sur l'impact de ces technologies ?

ALBERT FERT : On est toujours effrayé par ce que l'on ne connaît pas, d'où l'importance pour les scientifiques de communiquer et d'expliquer. À mon avis, il n'y a pas de dangers spécifiques liés aux nanotechnologies. La GMR est utile si elle permet aux scanners et aux appareils d'IRM des hôpitaux de gérer et de stocker des données médicales plus précises, si elle permet aussi de suivre le parcours, dans le corps humain, de nanoaimants fixés à des molécules qui viennent se coller à des cellules cancéreuses pour les localiser. Les MRAM me seront également utiles si elles m'évitent la perte de mon document quand mon ordinateur « plante ». Par ailleurs, il faut que la société se questionne sur d'autres utilisations potentielles. Pour prendre un exemple bien connu, il faut bien sûr légiférer pour éviter que la puissance de l'informatique ne soit utilisée à la réalisation de fichiers qui portent atteinte aux libertés des citoyens.

Propos recueillis par Jacques-Olivier Baruch

Photos : Bruno Fert

Par Albert Fert

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
 

LE LASER

 


Le laser


back to basic - par Cécile Michaut dans mensuel n°347 daté novembre 2001 à la page 52 (2858 mots) |
Inventé il y a quarante ans, le laser a investi notre vie quotidienne et le secteur industriel. Lecture d'information, chirurgie, découpe, soudure, guidage et mesures de distance sont autant de domaines d'utilisation de cette lumière organisée. Einstein, qui a découvert le phénomène à l'origine de l'émission laser, aurait-il imaginé en 1917 un tel succès ?

Qu'est-ce que la lumière laser ?
La discipline, dont on dit qu'elle fait la force des armées, fait aussi la spécificité de la lumière laser. En effet, la lumière ordinaire, qu'elle provienne du Soleil ou d'une ampoule à incandescence, se propage dans toutes les directions, et sa décomposition en un arc-en-ciel révèle de multiples ondes lumineuses qui, n'ayant pas été émises en même temps, oscillent de manière indépendante les unes des autres. Contrairement à cette lumière quelque peu anarchique, la lumière laser fait donc preuve d'une discipline remarquable. Elle est, en général, composée d'une seule couleur - on dit qu'elle est monochromatique - et se déplace dans une direction bien précise, formant un faisceau qui diverge très peu. La lumière laser peut ainsi être comparée à une troupe de soldats au pas cadencé, tandis que la lumière classique ressemblerait plus à une foule, où chacun va dans sa direction, avec son propre rythme. Monochromatisme et directivité sont les deux vertus majeures qui ont permis aux lasers de proliférer.

Qui a découvert le principe du laser ?
Le phénomène fondamental a été décrit dès 1917 par Albert Einstein : c'est l'« émission stimulée ». Il ne pouvait être imaginé en dehors du cadre de l'interprétation quantique de la matière et de la lumière : amorcée par Einstein en 1905, cette vision du monde physique permet de considérer la lumière comme une onde ou un ensemble de particules, les photons. Lorsqu'un atome absorbe l'énergie lumineuse apportée par un photon, un de ses électrons passe du niveau d'énergie le plus bas baptisé fondamental à un autre niveau plus élevé dit excité : pour que cette absorption ait lieu, il faut que l'énergie du photon soit rigoureusement égale à la différence d'énergie entre ces deux niveaux. Inversement, lorsqu'un électron « redescend » d'un niveau d'énergie vers un niveau plus bas, l'atome émet un photon dont l'énergie est, là aussi, égale à la différence d'énergie entre les deux niveaux. Ce photon est émis dans une direction aléatoire. Ainsi décrite, l'émission « spontanée » de photons est au coeur de la production de la lumière ordinaire.

Pour qu'il y ait émission « stimulée », il faut qu'un atome se trouve déjà dans un niveau d'énergie excité. S'il rencontre un photon de même énergie que celui qui serait émis spontanément, Einstein a démontré mathématiquement qu'il devait émettre un photon aux caractéristiques strictement identiques à celui qu'il vient de rencontrer : on dispose alors de deux photons de même énergie donc de même longueur d'onde, même direction et même phase. L'atome, quant à lui, a perdu son énergie et retourne à son état fondamental.

Quand le laser a-t-il été mis au point ?
Si le principe a été décrit en 1917, il n'a été mis en oeuvre dans un dispositif expérimental que dans les années 1950 ! Il s'agissait plus précisément d'un maser microwave amplification by stimulated emission of radiation , c'est-à-dire d'un appareil destiné à amplifier, grâce à l'émission stimulée, des ondes dont la longueur d'onde est beaucoup plus petite que la lumière.

Dans un milieu quelconque, les atomes restent très peu de temps dans l'état excité, et, en moyenne, l'immense majorité d'entre eux se trouve dans leur état fondamental. La fréquence des émissions stimulées est alors très faible. Pour tirer profit du principe décrit par Einstein, il faut que la majorité des atomes soit dans un état excité, ce qu'on appelle une inversion de population. Tirant profit des connaissances accumulées sur les radars à partir de la Seconde Guerre mondiale, les Américains Charles Townes, James Gordon et Herbert Zeiger sont parvenus, en 1954, à isoler des molécules d'ammoniac excitées de toutes les autres molécules restées dans l'état fondamental. Une émission maser pouvait ainsi avoir lieu de façon significative et mesurable. Malheureusement, par principe, la séparation des molécules ne permettait pas l'émission continue du rayonnement : lorsque les molécules excitées ont émis leur photon, l'émission s'arrête.

De fait, réaliser une inversion de population sans séparer physiquement les molécules nécessite au moins trois niveaux d'énergie dans l'atome : le niveau fondamental, le niveau excité, et un troisième niveau intermédiaire accessible uniquement à partir du niveau supérieur. Une fois excités, les atomes se désexcitent spontanément vers ce niveau intermédiaire, mais, si la désexcitation depuis le niveau intermédiaire vers le niveau fondamental est peu probable, il apparaît alors une accumulation d'atomes sur ce niveau dit métastable. On a ainsi « pompé » des atomes du niveau fondamental vers le niveau intermédiaire : l'inversion de population est réalisée. Un laser continu doit donc contenir des atomes ou des molécules possédant de tels niveaux d'énergie. En se fondant notamment sur les travaux du physicien français Alfred Kastler prix Nobel de physique en 1966 pour ses recherches sur une technique appelée pompage optique, les physiciens soviétiques Nikolai BasovBassov et Aleksandr Prokhorov ont développé un nouveau type de maser, et ils ont partagé avec Townes le prix Nobel de physique en 1964. A l'époque où ils sont apparus, l'utilité des masers n'avait rien d'évident. Sceptiques, certains collègues de Townes ironisaient même ouvertement sur l'acronyme qui, disaient-ils, ne signifiait rien d'autre que « Means of Acquiring Support for Expensive Research » moyens d'acquérir des fonds pour des recherches coûteuses !

Persévérant, Townes, encore lui, a publié en 1958, en collaboration avec Arthur Schawlow, le principe de réalisation d'un laser, où le « l » de light lumière remplace le « m » de microwave micro-onde. C'est cependant Theodore Maiman qui, le premier, a fabriqué en 1960 le premier dispositif expérimental. A la surprise de nombreux chercheurs, le milieu qu'il a utilisé n'était pas un gaz, mais un solide : un barreau de rubis. Ce laser ne fonctionnait qu'en mode pulsé, mais la même année Peter Sorokin et Mirek Stevenson ont développé un laser à quatre niveaux d'énergie, capable d'émettre un rayonnement en continu. La technologie du laser était née. Restait à trouver ses applications... Aujourd'hui, sa grande polyvalence nous a fait oublier que, longtemps, le laser est resté « une solution en attente d'un problème » !

Quels sont les éléments d'un laser ?
Un laser requiert des atomes ou des molécules excitables, formant le milieu laser, sous forme de solide, de liquide ou de gaz, et une source d'énergie susceptible d'exciter ces constituants. L'émission stimulée peut commencer dès qu'un premier photon de fréquence adéquate est présent dans le milieu. Il provoque alors l'émission d'un autre photon, chacun entraînant encore l'émission d'un photon, et ainsi de suite : c'est l'amplification de la lumière. Pour faire fonctionner ce laser, il faut encore un oscillateur, composé d'un cylindre allongé dont les extrémités sont formées de deux miroirs parallèles. Lorsque des photons sont émis dans la grande direction de ce cylindre voir figure ci-contre, la lumière fait de nombreux allers et retours entre les miroirs, provoquant de nombreuses autres émissions stimulées. L'un des deux miroirs n'est pas totalement réfléchissant. Une petite proportion 1 % ou 2 % de la lumière le traverse, et forme le faisceau laser.

Mais plutôt que de parler du laser, mieux vaut mentionner les lasers, tant ils diffèrent selon l'application à laquelle on les destine. En effet, quoi de commun entre le petit laser de nos platines de compact disques, consommant quelques milliwatts, et ceux utilisés dans les recherches sur la fusion nucléaire, capables d'émettre un rayonnement de plusieurs centaines de milliers de milliards de watts pendant un temps très bref quelques femtosecondes, soit des millionièmes de milliardièmes de seconde ? Et comment passer sous silence la grande largeur du spectre des couleurs des lasers, depuis l'infrarouge jusqu'à l'ultraviolet, voire aux rayons X ?

Dans les années 1970, ont été développés des lasers d'un nouveau type, dits lasers à semi-conducteurs ou diodes lasers. Ces dernières sont assez différentes des lasers classiques. Elles sont formées à la jonction entre deux types de semi-conducteurs baptisés n et p. Les premiers possèdent un excès d'électrons, les seconds un déficit. Lorsque l'on fait passer un courant à travers cette diode, certains électrons se retrouvent au-dessus d'un niveau d'énergie à partir duquel ils peuvent se désexciter. L'inversion de population est obtenue directement par le courant électrique. Ce sont ces diodes lasers qui ont donné un nouvel essor aux applications, notamment en électronique.

Existe-t-il des lasers naturels ?
Dans certaines régions de formation d'étoiles massives, ou de transformation d'étoiles évoluées en étoiles géantes rouges, les conditions sont réunies pour que des émissions de type maser se produisent. Des molécules comme l'eau, le méthanol ou l'oxyde de silicium possèdent en effet des niveaux d'énergie adaptés à une émission stimulée dans le domaine micro-onde. Le pompage est plus facile dans ce domaine que dans le visible car les énergies mises en jeu sont bien plus faibles. Il est provoqué par le rayonnement cosmique, ou par des collisions avec l'élément chimique majoritaire dans l'espace, l'hydrogène. Les masers naturels ne possèdent évidemment pas de cavité résonnante qui, comme celle de nos lasers, serait susceptible d'amplifier le phénomène. Puisqu'il faut suffisamment de molécules ayant subi l'inversion de population, le milieu « inversé » doit posséder une taille minimale. Selon les observations des astronomes, cette taille est de l'ordre de 100 millions à 1 milliard de kilomètres, ce qui est très petit à l'échelle du cosmos la lumière met quelques dizaines à quelques centaines de seconde pour parcourir une telle distance. Parce qu'elle n'est pas spécifiquement amplifiée dans une direction donnée, la lumière des masers cosmiques n'est pas directive, mais les propriétés de monochromatisme sont conservées. Les masers sont facilement observables, car l'atmosphère est transparente aux micro-ondes. Elle est en revanche presque totalement opaque à l'infrarouge. Or, les atmosphères de Mars et de Vénus émettent du rayonnement dans le domaine infrarouge, dû à des molécules de dioxyde de carbone. Voilà pourquoi les astronomes ont dû attendre les télescopes spatiaux pour observer des lasers cosmiques.

Quelle utilisation pour les lasers en médecine ?
Médecins et chercheurs ont perçu très tôt le potentiel du laser. Dès 1961, soit un an après la mise au point du premier laser à rubis, les Américains Charles Koester et Charles Cambell réalisaient la première application thérapeutique sur l'homme, en détruisant la tumeur rétinienne d'un patient à l'aide d'un tel laser. De nombreuses pistes thérapeutiques ont ensuite été explorées, mais seules sont restées celles pour lesquelles il n'existe pas d'alternative au laser. La palme revient incontestablement à l'ophtalmologie : recollement et soins de la rétine, découpe et coagulation des vaisseaux rétiniens, etc. Le laser possède ici un avantage capital : il peut être envoyé à travers l'oeil sans l'abîmer car il est focalisé en un point précis, où il dépose toute sa puissance. De même, en dermatologie, le laser permet de coaguler des vaisseaux sous la peau sans dommage, par exemple pour le traitement des taches de vin. En dentisterie, le laser est particulièrement apprécié pour les opérations provoquant des saignements importants, comme la chirurgie des gencives ou l'orthodontie.

Parallèlement à ces utilisations en thérapeutique, se développent depuis le milieu des années 1980 les applications en diagnostic. La détection précoce des cancers en est l'exemple le plus avancé, validé par de nombreuses études cliniques. Une fibre optique dirigeant un faisceau laser de faible intensité sur les muqueuses provoquera, par exemple, une fluorescence différente si le tissu est cancéreux ou s'il est sain. De même, l'analyse de l'absorption des tissus dans le domaine infrarouge renseigne sur leur oxygénation, avec des applications en cardiologie, pour la surveillance des hémorragies cérébrales, ou encore pour l'analyse des performances des athlètes.

Quelles sont les principales applications des lasers ?
Combien de fois avez-vous utilisé un laser aujourd'hui ? Si vous avez écouté un compact disque, tiré vos documents sur une imprimante laser et fait vos courses dans un supermarché équipé de caisses à code barre, voilà au moins trois circonstances. Les lecteurs de CD contiennent des diodes laser, dont le faisceau interfère avec les reliefs du disque. Il convertit les minuscules creux et bosses du disque en information numérique, qui est ensuite traitée. Le laser est ici utilisé pour la finesse et la directivité du faisceau, ainsi que sa cohérence. Les diodes utilisées aujourd'hui pour ces applications émettent en général dans l'infrarouge. Mais la découverte de diodes émettant dans le bleu fait l'objet de nombreuses recherches : grâce à une longueur d'onde plus courte, la résolution serait plus fine, et la densité d'information augmenterait. En divisant par deux la longueur d'onde, la densité d'informations sur une surface est en effet multipliée par quatre.

L'industrie est aussi grande utilisatrice de lasers. Le faisceau laser est facilement focalisé et concentre une grande énergie sur une toute petite surface. Il est ainsi possible de souder des métaux de manière très efficace car, au-delà d'une certaine énergie atteinte, par exemple, en focalisant un laser de quelques kilowatts de puissance sur une tache d'un dixième de millimètre de largeur, le métal se vaporise localement, et l'énergie est déposée à l'intérieur du métal. Le laser permet de graver, percer ou découper des métaux, mais aussi de découper de nombreuses autres matières, comme le tissu. Il est également utilisé pour le nettoyage de surfaces, notamment dans le domaine de la microélectronique : les surfaces sont recouvertes d'un mince film d'eau, dont la brusque évaporation par le laser entraîne les particules polluantes.

Enfin, la directivité du laser en fait un instrument de choix pour la mesure de distances, et pour guider les machines de travaux publics. Le tunnel sous la Manche a notamment bénéficié du laser, pour contrôler la direction de perçage. La qualité du laser est telle que l'on peut mesurer la distance Terre-Lune avec une précision de quelques millimètres, grâce à un panneau de miroirs déposés sur la Lune lors de la mission Apollo 11 en 1969 : parce que la divergence du laser est très réduite, un faisceau de dix centimètres sur la Terre atteindra la Lune avec une largeur de deux kilomètres seulement. Il suffit de mesurer le temps de trajet aller-retour d'une impulsion laser pour, connaissant la vitesse de la lumière, en déduire la distance.

Plus rapides, plus fins, plus précis : pour paraphraser la devise olympique, les scientifiques développent aujourd'hui des lasers aux impulsions toujours plus brèves, aux raies toujours plus fines donc à la longueur d'onde plus petite, et à la fréquence toujours plus précise. Objectifs principaux : améliorer la gravure par lithographie laser des circuits électroniques, analyser des réactions chimiques, ou augmenter la densité d'information transmise à travers les fibres optiques.

Comment peut-on refroidir avec un laser ?
D'habitude, le laser est associé à la chaleur plutôt qu'au froid : il peut souder des métaux, brûler des cellules biologiques, etc. Il paraît donc totalement contradictoire qu'il serve également à refroidir des atomes. Pourtant, le laser permet d'obtenir des températures extrêmement basses. Comment est-ce possible ? La température est l'expression du mouvement désordonné des atomes dans toutes les directions : plus les atomes bougent vite, plus la température est élevée. Or, les photons peuvent exercer une force sur un atome et le ralentir. Si l'on choisit convenablement la fréquence d'un faisceau laser dirigé contre un jet d'atomes, les atomes absorbent les photons, et subissent un effet de recul. En revanche, les atomes excités réémettent un photon dans n'importe quelle direction et l'effet mécanique moyen de cette désexcitation est nul : les atomes sont ainsi freinés, donc refroidis.

Depuis les premières réalisations, vers 1985, de refroidissements d'atomes par cette méthode, bien d'autres variantes plus efficaces mais plus compliquées ont été inventées, qui ont permis d'atteindre des températures de seulement quelques milliardièmes de degré au-dessus du zéro absolu 10-9 K. Ces travaux, réalisés notamment au laboratoire Kastler Brossel de l'Ecole normale supérieure de Paris, ont valu à Claude Cohen-Tannoudji le prix Nobel de physique en 1997.

Le laser peut-il être une arme ?
Lorsque l'on évoque les « armes laser », surgissent tout de suite les images du film La Guerre des étoiles , dans lequel le héros combat avec une « épée laser ». En fait, une telle arme ne peut pas exister, du moins sous cette forme. Tout d'abord, on ne voit pas un tel faisceau tant qu'il ne frappe aucun obstacle surface, poussière ou fumée dans les spectacles avec laser. De plus, dans le film, l'épée avait une taille d'environ un mètre. Or, un faisceau laser se propage tant qu'il ne rencontre pas d'obstacle : il ne peut donc pas avoir une longueur bien définie.

Cependant, l'idée du rayon laser détruisant l'ennemi n'est plus tout à fait de la science-fiction, mais il est loin d'être au point. L'armée américaine prévoit d'effectuer les premiers essais d'interception, depuis l'espace, de missiles balistiques à l'aide de lasers en 2010. Sur Terre, de telles interceptions sont plus difficilement envisageables : un rayon laser de très forte puissance ne se propage pas très loin dans l'air, car il interagit avec la matière qu'il rencontre molécules de l'air, poussière, vapeur d'eau, etc., et il perd ainsi beaucoup d'énergie. Sans parler des intempéries, qui neutralisent le faisceau.

En revanche, le laser est très utilisé pour le guidage des armes, notamment des missiles. Il permet également de simuler la fusion des bombes à hydrogène, car leur grande puissance très conce

Par Cécile Michaut


  DOCUMENT      larecherche.fr     LIEN

 
 
 
 

COULEUR

 




COULEUR

OPTIQUE
La vision des couleurs
Lumière et couleurs
Les synthèses des couleurs
La synthèse additive des couleurs
La synthèse soustractive des couleurs
BEAUX-ARTS
Évolution technique
Diversité des matières
La main du peintre
Un sujet de controverses
Le tournant du xixe s.

Trichromie, synthèse additive
Consulter aussi dans le dictionnaire : couleur
Cet article fait partie du dossier consacré à l'art et du dossier consacré à la lumière.
Sensation résultant de l'impression produite sur l'œil par une lumière émise par une source ; effet obtenu par la combinaison des teintes utilisées dans un tableau.
OPTIQUE

La vision des couleurs

Au sens physiologique du terme, la couleur n'existe qu'en fonction de trois éléments : le système visuel, la lumière émise par une source et le milieu qui les sépare. La rétine humaine comprend trois familles de cellules (cônes), spécialisées chacune dans la détection du vert, du rouge et du bleu (couleurs principales). À partir des signaux issus de ces récepteurs, le cerveau synthétise la perception de couleur. Des anomalies de la perception (contraste successif, temps d'« adaptation chromatique ») témoignent de la complexité du phénomène.
Lumière et couleurs

Comme le montre l'expérience, réalisée par Newton, de la dispersion de la lumière solaire (lumière blanche) par un prisme, le domaine des longueurs d'onde lumineuses visibles s'étend de 390 nanomètres (violet) à 770 nanomètres (rouge). En deçà et au-delà de ces limites se trouvent les rayonnements ultraviolets et infrarouges.
Lorsqu'un corps est éclairé par la lumière solaire, il peut diffuser de la même manière toutes les radiations (sa surface apparaît « blanche »), en absorber certaines et diffuser les autres (sa surface est « colorée ») ou les absorber toutes (sa surface est « noire »). La couleur dépend donc de la manière dont la substance éclairée réagit sous la lumière. Elle naît pratiquement toujours de l'interaction des ondes lumineuses avec les électrons de la substance.
Outre la diffusion et l'absorption, on connaît d'autres mécanismes créateurs de couleurs : la fluorescence, les interférences, la diffraction, les décharges dans les gaz, l'effet du champ cristallin, etc. Grâce aux travaux de Chevreul, de Lacouture et de Munsell, le caractère tridimensionnel des couleurs a été mis en évidence. Il est utilisé dans les classifications des couleurs qui prennent en compte trois éléments : la clarté, la tonalité et la saturation. (→ colorimétrie).
Les synthèses des couleurs

La synthèse additive des couleurs

Trichromie, synthèse additiveTrichromie, synthèse additive
On peut montrer qu'un écran « blanc » diffuse une lumière de la même couleur que celle qu'il reçoit. Il suffit donc de le regarder pour connaître la couleur de la lumière qui l'éclaire : sous un projecteur rouge, il est rouge ; sous un projecteur vert, il est vert. Et si on allume les deux projecteurs à la fois ? On constate alors que l'écran est jaune, d'un jaune plus ou moins verdâtre ou rougeâtre suivant la puissance respective de chaque projecteur, et qui peut être assez vif si on règle convenablement ces puissances.
Ainsi, en mélangeant des lumières rouge et verte convenablement dosées, on obtient du jaune. Pour obtenir du blanc, il faut ajouter à ce jaune un peu de bleu, au moyen d'un troisième projecteur. Et, suivant la couleur exacte du bleu, on devra modifier légèrement le rapport du rouge et du vert. Mais un réglage convenable des trois projecteurs permettra d'obtenir du blanc. On pourrait d'ailleurs en obtenir avec deux projecteurs seulement, un jaune et un bleu, à condition de pouvoir choisir la couleur exacte de l'un des deux. Pour un jaune donné, il existera une nuance de bleu permettant, par un dosage convenable, d'obtenir du blanc : ce bleu-là est dit complémentaire du jaune en question. Cette notion de couleurs complémentaires joue un grand rôle dans l'imprimerie en couleurs.
En modifiant les proportions du mélange issu des trois projecteurs, on pourra obtenir une lumière de n'importe quelle couleur, ou presque : c’est la synthèse additive des couleurs (principe utilisé dans les téléviseurs). En effet, on peut, dans un graphique, représenter ces mélanges par les puissances respectives de chaque projecteur, c'est-à-dire par différents points dans un espace à trois dimensions. Mais, en fixant arbitrairement la puissance totale, on ramène à deux le nombre des variables, et on peut ainsi représenter n'importe quel mélange par un point dans un plan. De plus, en mélangeant les couleurs représentées par deux points A et B, on obtiendra forcément une couleur représentée par un point du segment AB, plus ou moins proche de A ou de B suivant les proportions du mélange.
Quelle que soit sa source (Soleil, bougie, néon), une lumière polychromatique peut toujours être analysée par le prisme comme un mélange de lumières monochromatiques, qui seront représentées par des points situés sur une courbe englobant tous les points du plan représentant des mélanges. Ce principe permet de montrer sur un diagramme chromatique pratiquement toutes les couleurs, ainsi que leur composition de base.
Il faut souligner que ce choix des couleurs de base n'est commandé – en dehors de la facilité plus ou moins grande de leur production – que par l'avantage de disposer d'un triangle RVB (rouge, vert, bleu) le plus grand possible sur le diagramme. Trois autres couleurs différentes, R', V' et B', permettraient également d'obtenir la plupart des couleurs souhaitées, et en particulier du blanc. Avec une sorte de pourpre violacé, de l'orange et du bleu-vert, par exemple, les résultats seraient aussi bons qu'avec les trois couleurs traditionnelles : s'il est usuel d'appeler ces dernières les couleurs « primaires », il n'y a pas – pour le physicien sinon pour le photographe ou l'éclairagiste – de couleurs plus « primaires » que les autres.
La synthèse soustractive des couleurs

Trichromie, synthèse soustractive

Trichromie, synthèse soustractive  Trichromie, synthèse soustractive des couleurs
Si le principe de la synthèse additive des couleurs, c'est-à-dire l'utilisation du rouge, du vert et du bleu, était appliqué dans l'imprimerie, le mélange du rouge et du vert ne donnerait qu'un jaune moutarde peu lumineux. En effet, les imprimeurs (ou les peintres) n’utilisent pas des faisceaux de lumière pour composer leurs couleurs, mais des pigments colorés qui diffusent certaines couleurs. C'est pourquoi, contrairement à la télévision, la synthèse des couleurs est, ici, dite soustractive, car fondée sur l'absorption de la lumière. Les trois couleurs utilisées en imprimerie sont le jaune, le cyan et le magenta, dites « couleurs primaires » car elles ne dérivent d'aucune autre couleur tout en permettant d'obtenir toutes les autres par mélange. La superposition de ces trois couleurs ne donne qu'un brun noirâtre, aussi est-il nécessaire d'utiliser à part une encre noire.
La reproduction en quadrichromie peut se diviser en deux étapes : la décomposition et la recomposition des couleurs.
Le sujet à reproduire est tout d'abord photographié trois fois, en noir et blanc, avec différents filtres : bleu-violet, vert-jaune et rouge-orangé. On obtient ainsi trois négatifs en noir et blanc exprimant par leur degré de noirceur (densité optique) les proportions respectives de magenta, cyan et jaune qu'il faut combiner en chaque point du sujet pour contretyper sa couleur (obtenir son positif). Un quatrième film, le noir, est nécessaire pour les couleurs, mais aussi pour le texte, les filets.
Quatre plaques sont alors fabriquées, chez le photograveur, pour permettre la recomposition du sujet sur papier à partir des encres magenta, cyan, jaune et noire.
Si deux encres se recouvrent sur le papier, leurs absorptions s'ajoutent. En un point où, par exemple, du magenta et du jaune se superposent, le vert et le bleu sont absorbés : cet endroit-là du papier est rouge. De même, le mélange du jaune et du cyan produit du vert, celui du cyan et du magenta un bleu-violet assez foncé. Il reste à faire varier les proportions du mélange de lumières diffusées pour reproduire n'importe quelle couleur. Or l'imprimerie est une opération en « tout ou rien » : soit on met de l'encre, soit on n'en met pas. Aussi est-il nécessaire d'imprimer, avec chacune des encres, non pas des surfaces uniformes, mais des points régulièrement espacés, plus ou moins gros suivant que la couleur qu'ils absorbent doit être plus ou moins retranchée du mélange diffusé. Ces images en pointillé sont obtenues, pour chacune des encres, en tirant la photo à travers un filtre coloré approprié et une trame, c'est-à-dire un tissu à mailles très fines.
BEAUX-ARTS

Tributaire des moyens techniques et de la conception de l'image propres à l'artiste et à son temps, la couleur a connu au cours de l’histoire des mutations considérables.
Évolution technique

Diversité des matières

Les différentes époques voient leurs artistes faire usage de produits variés pour réaliser leurs œuvres : substances des peintures pariétales préhistoriques (ocres, charbon de bois, …), pigments minéraux et végétaux incorporés à divers liants pour l’élaboration des peintures murales du Moyen Âge et de la Renaissance, pratique de la peinture à l'huile à partir du xve s., emploi dematériaux industriels divers à partir du xixe s.
La main du peintre

L’emploi de la couleur diffère selon les artistes. Qu’elle soit appliquée sur de grandes surfaces, disposée en aplats ou en touches juxtaposées, en cernes ou en contours, elle sert par sa matérialité l’expression propre à chaque créateur qui en fait usage. Sa qualité expressive et son pouvoir de suggestion donnent également un sens à la réalisation plastique de l’œuvre.
Le travail de composition chromatique de l'artiste repose sur des notions de base : les couleurs primaires ou fondamentales (bleu, rouge, jaune), mélangées deux à deux, donnent les couleurs secondaires ou binaires (violet, vert, orangé, chacune étant la complémentaire de la couleur primaire qui n'entre pas dans sa composition), et toutes les combinaisons possibles définissent les teintes et les tons.
Un sujet de controverses

Fondement des jeux de valeur, de coloris, de lumière et des rapports spatiaux, la couleur se retrouve au cours des siècles au cœur de multiples débats où elle se voit opposée au dessin et à la forme. Les plus célèbres d’entre eux voient s’affronter durant la Renaissance les partisans des Vénitiens à ceux de Raphaël, les admirateurs de Rubens et de Rembrandt à l'Académie au xviie s. puis les défenseurs de Delacroix à ceux de Ingres dans le courant du xixe s.
Le tournant du xixe s.

Au cours du xixe s., contre l'académisme, l'étude (qui prolonge les travaux de théoriciens comme Chevreul) et l'exaltation de la couleur-lumière triomphent avec les impressionnistes (Claude Monet). Dès lors, la couleur, construction, expression ou sujet autonome, assume une fonction picturale primordiale, de Cézanne ou Van Gogh à Matisse, au fauvisme ou à l'abstraction (Rothko).

 

DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google