ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LE LASER

 

Le laser


back to basic - par Cécile Michaut dans mensuel n°347 daté novembre 2001 à la page 52 (2858 mots) | Gratuit
Inventé il y a quarante ans, le laser a investi notre vie quotidienne et le secteur industriel. Lecture d'information, chirurgie, découpe, soudure, guidage et mesures de distance sont autant de domaines d'utilisation de cette lumière organisée. Einstein, qui a découvert le phénomène à l'origine de l'émission laser, aurait-il imaginé en 1917 un tel succès ?

Qu'est-ce que la lumière laser ?
La discipline, dont on dit qu'elle fait la force des armées, fait aussi la spécificité de la lumière laser. En effet, la lumière ordinaire, qu'elle provienne du Soleil ou d'une ampoule à incandescence, se propage dans toutes les directions, et sa décomposition en un arc-en-ciel révèle de multiples ondes lumineuses qui, n'ayant pas été émises en même temps, oscillent de manière indépendante les unes des autres. Contrairement à cette lumière quelque peu anarchique, la lumière laser fait donc preuve d'une discipline remarquable. Elle est, en général, composée d'une seule couleur - on dit qu'elle est monochromatique - et se déplace dans une direction bien précise, formant un faisceau qui diverge très peu. La lumière laser peut ainsi être comparée à une troupe de soldats au pas cadencé, tandis que la lumière classique ressemblerait plus à une foule, où chacun va dans sa direction, avec son propre rythme. Monochromatisme et directivité sont les deux vertus majeures qui ont permis aux lasers de proliférer.

Qui a découvert le principe du laser ?
Le phénomène fondamental a été décrit dès 1917 par Albert Einstein : c'est l'« émission stimulée ». Il ne pouvait être imaginé en dehors du cadre de l'interprétation quantique de la matière et de la lumière : amorcée par Einstein en 1905, cette vision du monde physique permet de considérer la lumière comme une onde ou un ensemble de particules, les photons. Lorsqu'un atome absorbe l'énergie lumineuse apportée par un photon, un de ses électrons passe du niveau d'énergie le plus bas baptisé fondamental à un autre niveau plus élevé dit excité : pour que cette absorption ait lieu, il faut que l'énergie du photon soit rigoureusement égale à la différence d'énergie entre ces deux niveaux. Inversement, lorsqu'un électron « redescend » d'un niveau d'énergie vers un niveau plus bas, l'atome émet un photon dont l'énergie est, là aussi, égale à la différence d'énergie entre les deux niveaux. Ce photon est émis dans une direction aléatoire. Ainsi décrite, l'émission « spontanée » de photons est au coeur de la production de la lumière ordinaire.

Pour qu'il y ait émission « stimulée », il faut qu'un atome se trouve déjà dans un niveau d'énergie excité. S'il rencontre un photon de même énergie que celui qui serait émis spontanément, Einstein a démontré mathématiquement qu'il devait émettre un photon aux caractéristiques strictement identiques à celui qu'il vient de rencontrer : on dispose alors de deux photons de même énergie donc de même longueur d'onde, même direction et même phase. L'atome, quant à lui, a perdu son énergie et retourne à son état fondamental.

Quand le laser a-t-il été mis au point ?
Si le principe a été décrit en 1917, il n'a été mis en oeuvre dans un dispositif expérimental que dans les années 1950 ! Il s'agissait plus précisément d'un maser microwave amplification by stimulated emission of radiation , c'est-à-dire d'un appareil destiné à amplifier, grâce à l'émission stimulée, des ondes dont la longueur d'onde est beaucoup plus petite que la lumière.

Dans un milieu quelconque, les atomes restent très peu de temps dans l'état excité, et, en moyenne, l'immense majorité d'entre eux se trouve dans leur état fondamental. La fréquence des émissions stimulées est alors très faible. Pour tirer profit du principe décrit par Einstein, il faut que la majorité des atomes soit dans un état excité, ce qu'on appelle une inversion de population. Tirant profit des connaissances accumulées sur les radars à partir de la Seconde Guerre mondiale, les Américains Charles Townes, James Gordon et Herbert Zeiger sont parvenus, en 1954, à isoler des molécules d'ammoniac excitées de toutes les autres molécules restées dans l'état fondamental. Une émission maser pouvait ainsi avoir lieu de façon significative et mesurable. Malheureusement, par principe, la séparation des molécules ne permettait pas l'émission continue du rayonnement : lorsque les molécules excitées ont émis leur photon, l'émission s'arrête.

De fait, réaliser une inversion de population sans séparer physiquement les molécules nécessite au moins trois niveaux d'énergie dans l'atome : le niveau fondamental, le niveau excité, et un troisième niveau intermédiaire accessible uniquement à partir du niveau supérieur. Une fois excités, les atomes se désexcitent spontanément vers ce niveau intermédiaire, mais, si la désexcitation depuis le niveau intermédiaire vers le niveau fondamental est peu probable, il apparaît alors une accumulation d'atomes sur ce niveau dit métastable. On a ainsi « pompé » des atomes du niveau fondamental vers le niveau intermédiaire : l'inversion de population est réalisée. Un laser continu doit donc contenir des atomes ou des molécules possédant de tels niveaux d'énergie. En se fondant notamment sur les travaux du physicien français Alfred Kastler prix Nobel de physique en 1966 pour ses recherches sur une technique appelée pompage optique, les physiciens soviétiques Nikolai BasovBassov et Aleksandr Prokhorov ont développé un nouveau type de maser, et ils ont partagé avec Townes le prix Nobel de physique en 1964. A l'époque où ils sont apparus, l'utilité des masers n'avait rien d'évident. Sceptiques, certains collègues de Townes ironisaient même ouvertement sur l'acronyme qui, disaient-ils, ne signifiait rien d'autre que « Means of Acquiring Support for Expensive Research » moyens d'acquérir des fonds pour des recherches coûteuses !

Persévérant, Townes, encore lui, a publié en 1958, en collaboration avec Arthur Schawlow, le principe de réalisation d'un laser, où le « l » de light lumière remplace le « m » de microwave micro-onde. C'est cependant Theodore Maiman qui, le premier, a fabriqué en 1960 le premier dispositif expérimental. A la surprise de nombreux chercheurs, le milieu qu'il a utilisé n'était pas un gaz, mais un solide : un barreau de rubis. Ce laser ne fonctionnait qu'en mode pulsé, mais la même année Peter Sorokin et Mirek Stevenson ont développé un laser à quatre niveaux d'énergie, capable d'émettre un rayonnement en continu. La technologie du laser était née. Restait à trouver ses applications... Aujourd'hui, sa grande polyvalence nous a fait oublier que, longtemps, le laser est resté « une solution en attente d'un problème » !

Quels sont les éléments d'un laser ?
Un laser requiert des atomes ou des molécules excitables, formant le milieu laser, sous forme de solide, de liquide ou de gaz, et une source d'énergie susceptible d'exciter ces constituants. L'émission stimulée peut commencer dès qu'un premier photon de fréquence adéquate est présent dans le milieu. Il provoque alors l'émission d'un autre photon, chacun entraînant encore l'émission d'un photon, et ainsi de suite : c'est l'amplification de la lumière. Pour faire fonctionner ce laser, il faut encore un oscillateur, composé d'un cylindre allongé dont les extrémités sont formées de deux miroirs parallèles. Lorsque des photons sont émis dans la grande direction de ce cylindre voir figure ci-contre, la lumière fait de nombreux allers et retours entre les miroirs, provoquant de nombreuses autres émissions stimulées. L'un des deux miroirs n'est pas totalement réfléchissant. Une petite proportion 1 % ou 2 % de la lumière le traverse, et forme le faisceau laser.

Mais plutôt que de parler du laser, mieux vaut mentionner les lasers, tant ils diffèrent selon l'application à laquelle on les destine. En effet, quoi de commun entre le petit laser de nos platines de compact disques, consommant quelques milliwatts, et ceux utilisés dans les recherches sur la fusion nucléaire, capables d'émettre un rayonnement de plusieurs centaines de milliers de milliards de watts pendant un temps très bref quelques femtosecondes, soit des millionièmes de milliardièmes de seconde ? Et comment passer sous silence la grande largeur du spectre des couleurs des lasers, depuis l'infrarouge jusqu'à l'ultraviolet, voire aux rayons X ?

Dans les années 1970, ont été développés des lasers d'un nouveau type, dits lasers à semi-conducteurs ou diodes lasers. Ces dernières sont assez différentes des lasers classiques. Elles sont formées à la jonction entre deux types de semi-conducteurs baptisés n et p. Les premiers possèdent un excès d'électrons, les seconds un déficit. Lorsque l'on fait passer un courant à travers cette diode, certains électrons se retrouvent au-dessus d'un niveau d'énergie à partir duquel ils peuvent se désexciter. L'inversion de population est obtenue directement par le courant électrique. Ce sont ces diodes lasers qui ont donné un nouvel essor aux applications, notamment en électronique.

Existe-t-il des lasers naturels ?
Dans certaines régions de formation d'étoiles massives, ou de transformation d'étoiles évoluées en étoiles géantes rouges, les conditions sont réunies pour que des émissions de type maser se produisent. Des molécules comme l'eau, le méthanol ou l'oxyde de silicium possèdent en effet des niveaux d'énergie adaptés à une émission stimulée dans le domaine micro-onde. Le pompage est plus facile dans ce domaine que dans le visible car les énergies mises en jeu sont bien plus faibles. Il est provoqué par le rayonnement cosmique, ou par des collisions avec l'élément chimique majoritaire dans l'espace, l'hydrogène. Les masers naturels ne possèdent évidemment pas de cavité résonnante qui, comme celle de nos lasers, serait susceptible d'amplifier le phénomène. Puisqu'il faut suffisamment de molécules ayant subi l'inversion de population, le milieu « inversé » doit posséder une taille minimale. Selon les observations des astronomes, cette taille est de l'ordre de 100 millions à 1 milliard de kilomètres, ce qui est très petit à l'échelle du cosmos la lumière met quelques dizaines à quelques centaines de seconde pour parcourir une telle distance. Parce qu'elle n'est pas spécifiquement amplifiée dans une direction donnée, la lumière des masers cosmiques n'est pas directive, mais les propriétés de monochromatisme sont conservées. Les masers sont facilement observables, car l'atmosphère est transparente aux micro-ondes. Elle est en revanche presque totalement opaque à l'infrarouge. Or, les atmosphères de Mars et de Vénus émettent du rayonnement dans le domaine infrarouge, dû à des molécules de dioxyde de carbone. Voilà pourquoi les astronomes ont dû attendre les télescopes spatiaux pour observer des lasers cosmiques.

Quelle utilisation pour les lasers en médecine ?
Médecins et chercheurs ont perçu très tôt le potentiel du laser. Dès 1961, soit un an après la mise au point du premier laser à rubis, les Américains Charles Koester et Charles Cambell réalisaient la première application thérapeutique sur l'homme, en détruisant la tumeur rétinienne d'un patient à l'aide d'un tel laser. De nombreuses pistes thérapeutiques ont ensuite été explorées, mais seules sont restées celles pour lesquelles il n'existe pas d'alternative au laser. La palme revient incontestablement à l'ophtalmologie : recollement et soins de la rétine, découpe et coagulation des vaisseaux rétiniens, etc. Le laser possède ici un avantage capital : il peut être envoyé à travers l'oeil sans l'abîmer car il est focalisé en un point précis, où il dépose toute sa puissance. De même, en dermatologie, le laser permet de coaguler des vaisseaux sous la peau sans dommage, par exemple pour le traitement des taches de vin. En dentisterie, le laser est particulièrement apprécié pour les opérations provoquant des saignements importants, comme la chirurgie des gencives ou l'orthodontie.

Parallèlement à ces utilisations en thérapeutique, se développent depuis le milieu des années 1980 les applications en diagnostic. La détection précoce des cancers en est l'exemple le plus avancé, validé par de nombreuses études cliniques. Une fibre optique dirigeant un faisceau laser de faible intensité sur les muqueuses provoquera, par exemple, une fluorescence différente si le tissu est cancéreux ou s'il est sain. De même, l'analyse de l'absorption des tissus dans le domaine infrarouge renseigne sur leur oxygénation, avec des applications en cardiologie, pour la surveillance des hémorragies cérébrales, ou encore pour l'analyse des performances des athlètes.

Quelles sont les principales applications des lasers ?
Combien de fois avez-vous utilisé un laser aujourd'hui ? Si vous avez écouté un compact disque, tiré vos documents sur une imprimante laser et fait vos courses dans un supermarché équipé de caisses à code barre, voilà au moins trois circonstances. Les lecteurs de CD contiennent des diodes laser, dont le faisceau interfère avec les reliefs du disque. Il convertit les minuscules creux et bosses du disque en information numérique, qui est ensuite traitée. Le laser est ici utilisé pour la finesse et la directivité du faisceau, ainsi que sa cohérence. Les diodes utilisées aujourd'hui pour ces applications émettent en général dans l'infrarouge. Mais la découverte de diodes émettant dans le bleu fait l'objet de nombreuses recherches : grâce à une longueur d'onde plus courte, la résolution serait plus fine, et la densité d'information augmenterait. En divisant par deux la longueur d'onde, la densité d'informations sur une surface est en effet multipliée par quatre.

L'industrie est aussi grande utilisatrice de lasers. Le faisceau laser est facilement focalisé et concentre une grande énergie sur une toute petite surface. Il est ainsi possible de souder des métaux de manière très efficace car, au-delà d'une certaine énergie atteinte, par exemple, en focalisant un laser de quelques kilowatts de puissance sur une tache d'un dixième de millimètre de largeur, le métal se vaporise localement, et l'énergie est déposée à l'intérieur du métal. Le laser permet de graver, percer ou découper des métaux, mais aussi de découper de nombreuses autres matières, comme le tissu. Il est également utilisé pour le nettoyage de surfaces, notamment dans le domaine de la microélectronique : les surfaces sont recouvertes d'un mince film d'eau, dont la brusque évaporation par le laser entraîne les particules polluantes.

Enfin, la directivité du laser en fait un instrument de choix pour la mesure de distances, et pour guider les machines de travaux publics. Le tunnel sous la Manche a notamment bénéficié du laser, pour contrôler la direction de perçage. La qualité du laser est telle que l'on peut mesurer la distance Terre-Lune avec une précision de quelques millimètres, grâce à un panneau de miroirs déposés sur la Lune lors de la mission Apollo 11 en 1969 : parce que la divergence du laser est très réduite, un faisceau de dix centimètres sur la Terre atteindra la Lune avec une largeur de deux kilomètres seulement. Il suffit de mesurer le temps de trajet aller-retour d'une impulsion laser pour, connaissant la vitesse de la lumière, en déduire la distance.

Plus rapides, plus fins, plus précis : pour paraphraser la devise olympique, les scientifiques développent aujourd'hui des lasers aux impulsions toujours plus brèves, aux raies toujours plus fines donc à la longueur d'onde plus petite, et à la fréquence toujours plus précise. Objectifs principaux : améliorer la gravure par lithographie laser des circuits électroniques, analyser des réactions chimiques, ou augmenter la densité d'information transmise à travers les fibres optiques.

Comment peut-on refroidir avec un laser ?
D'habitude, le laser est associé à la chaleur plutôt qu'au froid : il peut souder des métaux, brûler des cellules biologiques, etc. Il paraît donc totalement contradictoire qu'il serve également à refroidir des atomes. Pourtant, le laser permet d'obtenir des températures extrêmement basses. Comment est-ce possible ? La température est l'expression du mouvement désordonné des atomes dans toutes les directions : plus les atomes bougent vite, plus la température est élevée. Or, les photons peuvent exercer une force sur un atome et le ralentir. Si l'on choisit convenablement la fréquence d'un faisceau laser dirigé contre un jet d'atomes, les atomes absorbent les photons, et subissent un effet de recul. En revanche, les atomes excités réémettent un photon dans n'importe quelle direction et l'effet mécanique moyen de cette désexcitation est nul : les atomes sont ainsi freinés, donc refroidis.

Depuis les premières réalisations, vers 1985, de refroidissements d'atomes par cette méthode, bien d'autres variantes plus efficaces mais plus compliquées ont été inventées, qui ont permis d'atteindre des températures de seulement quelques milliardièmes de degré au-dessus du zéro absolu 10-9 K. Ces travaux, réalisés notamment au laboratoire Kastler Brossel de l'Ecole normale supérieure de Paris, ont valu à Claude Cohen-Tannoudji le prix Nobel de physique en 1997.

Le laser peut-il être une arme ?
Lorsque l'on évoque les « armes laser », surgissent tout de suite les images du film La Guerre des étoiles , dans lequel le héros combat avec une « épée laser ». En fait, une telle arme ne peut pas exister, du moins sous cette forme. Tout d'abord, on ne voit pas un tel faisceau tant qu'il ne frappe aucun obstacle surface, poussière ou fumée dans les spectacles avec laser. De plus, dans le film, l'épée avait une taille d'environ un mètre. Or, un faisceau laser se propage tant qu'il ne rencontre pas d'obstacle : il ne peut donc pas avoir une longueur bien définie.

Cependant, l'idée du rayon laser détruisant l'ennemi n'est plus tout à fait de la science-fiction, mais il est loin d'être au point. L'armée américaine prévoit d'effectuer les premiers essais d'interception, depuis l'espace, de missiles balistiques à l'aide de lasers en 2010. Sur Terre, de telles interceptions sont plus difficilement envisageables : un rayon laser de très forte puissance ne se propage pas très loin dans l'air, car il interagit avec la matière qu'il rencontre molécules de l'air, poussière, vapeur d'eau, etc., et il perd ainsi beaucoup d'énergie. Sans parler des intempéries, qui neutralisent le faisceau.

En revanche, le laser est très utilisé pour le guidage des armes, notamment des missiles. Il permet également de simuler la fusion des bombes à hydrogène, car leur grande puissance très conce

Par Cécile Michaut

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

L'ÉQUATION ULTIME POUR LA PHYSIQUE

 

3 - L'équation ultime pour la physique


dossier spécial - par Lisa Randall dans mensuel n°390 daté octobre 2005 à la page 42 (2800 mots) | Gratuit
Existe-t-elle cette « théorie du Tout » qui expliquerait simplement l'ensemble des phénomènes physiques ? De nombreux physiciens se sont en tout cas attelés à son élaboration. À la fin du siècle dernier, le développement de la théorie des cordes laissait penser à certains qu'ils y parviendraient rapidement. C'était sans compter avec la complexité du monde.

Les physiciens aiment les choses simples. Depuis près d'un siècle, bon nombre d'entre eux ont recherché un cadre conceptuel unique qui permettrait d'expliquer simplement pourquoi notre Univers est tel qu'il est, et pourquoi son contenu se comporte comme nous l'observons. Cette quête, dont on ne sait si elle s'achèvera un jour, a déjà permis d'améliorer considérablement notre compréhension du monde, en particulier, depuis quelques années, avec le développement de la théorie des cordes.

Une quête audacieuse

Existe-t-il une « théorie du Tout » ? Une théorie fondée sur un petit nombre de paramètres reliés entre eux par une seule équation, qui permettrait de prédire l'ensemble des phénomènes physiques connus ? L'idée est particulièrement audacieuse. Telle est pourtant la quête dans laquelle se sont engagés des physiciens depuis près d'un siècle.

Compte tenu de la complexité du monde, ils sont peut-être trop optimistes. Même si elle existe, on trouvera fort probablement parmi ses conséquences des phénomènes secondaires complexes, que l'on ne pourra pas prévoir de façon simple. De plus, en admettant que les scientifiques parviennent à faire des prédictions à partir de l'équation d'une théorie ultime, celles-ci dépendraient toujours de conditions initiales incertaines : comment tout a commencé lire « À la recherche du temps zéro », p. 30. Enfin, quand bien même ils découvriraient une théorie dont la formulation paraîtrait extrêmement simple, il est fort probable qu'il faudrait lui ajouter des éléments pour ajuster ses prédictions aux grandeurs mesurables de l'Univers.

Malgré ces réserves, et même si elle n'aboutit pas, la recherche d'une « théorie du Tout » a une certaine utilité. Elle peut d'abord améliorer notre compréhension de principes physiques fondamentaux. Elle pourrait aussi nous rapprocher d'une théorie physique plus générale que celles dont nous disposons aujourd'hui, qui décrirait une plus grande diversité de phénomènes. C'est déjà ce qui s'est produit dans le passé.

Premiers pas vers l'unification

La première étape vers une « théorie du Tout » consisterait à unifier les quatre forces fondamentales de la physique : la gravitation, l'électromagnétisme, et les deux forces nucléaires, faible et forte. La gravitation et l'électromagnétisme sont bien connus : ces forces sont responsables respectivement de la chute des corps et de la propagation de la lumière, par exemple. Les deux autres n'ont été identifiées et comprises qu'au XXe siècle. La force faible intervient dans les interactions nucléaires qui permettent au soleil de briller. La force forte permet quant à elle la cohésion des particules élémentaires au sein des noyaux atomiques.

À basse énergie * , les forces nucléaires se comportent d'une manière très différente des forces électromagnétiques et gravitationnelles. À cause de cela, et du fait que les forces nucléaires étaient encore inconnues il y a une centaine d'années, les premières tentatives d'unification ne concernèrent d'abord que la gravité et l'électromagnétisme. En 1919, soit cinq ans après qu'Albert Einstein eut achevé sa théorie de la relativité générale, qui est surtout une théorie de la gravitation, le mathématicien allemand Theodor Kaluza formula une théorie particulièrement intéressante [1] .

Observant que la relativité générale reste valable si l'espace compte plus de dimensions que les trois qui nous sont familières, Kaluza proposa l'existence d'une quatrième dimension spatiale qu'il ne faut pas confondre avec le temps, quatrième dimension de l'espace-temps. Grâce à cette dimension supplémentaire, l'électromagnétisme apparaissait au sein d'une théorie qui ne contenait au départ que la gravitation. Les deux forces résultaient des oscillations de la même particule, le « graviton », censé transmettre les interactions gravitationnelles. Dans la direction des trois dimensions spatiales ordinaires, ces oscillations produisaient la gravité ; dans la direction de la dimension supplémentaire, elles produisaient la force électromagnétique. Selon cette théorie, toutefois, les intensités des forces électromagnétique et gravitationnelle auraient dû être identiques. Or l'expérience montre que ce n'est pas le cas : ces intensités diffèrent même de plusieurs ordres de grandeur. Cela n'a pas empêché Einstein de suivre la piste proposée par Kaluza à la recherche d'une théorie unificatrice, et de développer ses propres stratégies dans les trente dernières années de sa vie. En vain.

La découverte des forces nucléaires marqua un tournant important dans le casse-tête de l'unification des forces. Les physiciens comprirent alors que la gravité était fondamentalement différente des trois autres forces. Ils se focalisèrent donc sur l'unification de ces dernières. Sheldon Glashow et Steven Weinberg, alors tous les deux à l'université Harvard, et Abdus Salam, alors à l'Imperial College de Londres, firent le premier pas dans cette direction en développant indépendamment, entre 1961 et 1967, la théorie « électrofaible », qui unifie électromagnétisme et force faible.

Au-delà du Modèle standard

Selon cette théorie, que tous les physiciens considèrent aujourd'hui comme correcte, la force électromagnétique n'était pas une force distincte dans l'Univers primordial. Ce n'est que plus tard, lorsque l'Univers s'est suffisamment refroidi, que cette force, transmise par une particule sans masse, le photon, s'est différenciée de la force faible. Ce succès attira des critiques. Ainsi, c'est à cette époque que l'écrivain polonais Stanislaw Lem inventa l'expression « théorie du Tout » pour se moquer des théories d'un savant farfelu apparaissant dans plusieurs de ses romans de science-fiction.

Toutefois, en 1974, en suivant la même logique, Glashow et son collègue de Harvard Howard Georgi proposèrent une théorie qui englobait toutes les forces non gravitationnelles [2] . Selon eux, une « grande force unifiée » s'était partagée en trois peu après le Big Bang, alors que l'Univers commençait à se dilater et à se refroidir. Ils démontrèrent que les équations qui décrivent les particules connues et les forces non gravitationnelles auxquelles elles sont soumises entrent dans un cadre mathématique sous-jacent unique.

Il restait à traiter le problème des intensités des interactions. Pour que l'unification fonctionne, les trois forces devaient avoir la même intensité aux énergies et températures élevées qui caractérisaient les premiers instants de l'Univers ; elles devaient aussi avoir des intensités différentes aux énergies et températures basses, conditions dans lesquelles les physiciens réalisent aujourd'hui leurs expériences.

La « théorie quantique des champs * » permettait de calculer la variation de l'intensité d'une interaction en fonction de l'énergie. Peu après la proposition de Glashow et Georgi, ce dernier réalisa ce calcul, avec Weinberg et Helen Quinn, de l'université de Californie, pour les trois forces non gravitationnelles [3] . Ils trouvèrent que leurs intensités variaient avec l'énergie, de sorte qu'elles devaient avoir la même intensité pour une énergie cent mille milliards de fois plus grande que celles auxquelles des expériences avaient été réalisées.

Nous savons aujourd'hui que ces calculs n'étaient pas assez précis pour démontrer l'unification. Des mesures plus précises de l'intensité des forces indiquent que celles-ci ne se rejoignent pas tout à fait à haute énergie. Nous savons aussi aujourd'hui que des théories qui vont au-delà du Modèle standard, la théorie qui décrit les particules connues ainsi que leurs interactions [4] , entretiennent l'espoir d'une unification des forces et, partant, de la découverte de la « théorie du Tout ». L'un de ces modèles, la « supersymétrie », qui associe une nouvelle particule « supersymétrique » à chaque particule du Modèle standard, est à ce titre très intéressant [fig. 1] [5] . Dans les théories supersymétriques, élaborées dans les années 1970, les contributions de particules virtuelles permettent en effet aux forces non gravitationnelles de s'unifier à très haute énergie. Nous ne savons pas à ce jour si des particules supersymétriques existent vraiment, mais nous espérons que de futures expériences permettront de trancher.

De façon remarquable, à l'énergie très élevée à laquelle les forces non gravitationnelles semblent s'unifier, même la gravité a une intensité comparable aux trois autres forces : cela laisse penser qu'elle pourrait être unifiée avec celles-ci. Avant d'y parvenir, nous devrons trouver une théorie de la gravitation plus générale encore que la relativité générale. Malgré ses succès indéniables, celle-ci ne serait pas la théorie ultime de la gravité, car elle ne s'applique pas à des distances extrêmement courtes. En fait, à des distances de l'ordre de la longueur de Planck 10-33 centimètre, la taille de l'Univers immédiatement après le Big Bang la description quantique du graviton n'est plus pertinente. Pour expliquer les tout premiers instants de l'Univers, ou, ce qui revient au même, les phénomènes physiques à très haute énergie, nous devons donc trouver une théorie de la gravitation s'appliquant au-dessous de l'échelle de Planck.

Vibrations et membranes

La « théorie des cordes » est considérée comme la meilleure candidate pour atteindre cet objectif. En théorie des cordes, la nature de la matière diffère radicalement des approches traditionnelles de la physique : les objets les plus élémentaires sont des boucles unidimensionnelles, ou « cordes », en vibration dont la longueur est la longueur de Planck [fig. 2] . Contrairement aux cordes d'un violon, celles-ci ne sont pas composées d'atomes, eux-mêmes composés d'électrons et de noyaux, eux-mêmes composés de quarks. En fait, c'est exactement le contraire : toutes les particules connues sont produites par les vibrations de ces cordes.

Cette théorie avance également des idées provocantes sur la nature de l'espace. En effet, ses prévisions n'ont de sens que si l'espace contient plus de trois dimensions. Selon les modèles considérés, il y en aurait neuf ou dix, voire davantage.

Initialement, les théoriciens pensaient ne devoir utiliser que des cordes fondamentales, dont les différents modes de vibration produisaient l'ensemble des particules. Mais, depuis la fin des années 1990, ils ont compris qu'ils devaient prendre en compte d'autres objets afin d'expliquer l'organisation des particules connues et leur dynamique : les « branes ». Ces branes sont des sortes de membranes qui s'étendent dans plusieurs dimensions de l'espace. Elles peuvent piéger les particules et les forces qui, du coup, ne « ressentent » plus ce qu'il se passe dans les autres dimensions.

La théorie des cordes n'est pas la seule tentative d'unification de la mécanique quantique et de la gravitation. La « gravité quantique en boucles », par exemple, qui a été inventée vers le milieu des années 1980, a la même ambition. La théorie des cordes est toutefois la plus prometteuse, car elle embrasse les prévisions de la relativité générale, de la mécanique quantique et de la physique des particules ; elle permettrait en outre d'étendre la physique à des domaines de distance et d'énergie pour lesquels les théories concurrentes sont inadaptées. Bien qu'elle ne soit pas encore assez développée pour que l'on puisse tester son efficacité dans ces conditions insaisissables, elle a d'ores et déjà permis l'obtention de résultats qui apportent un éclairage intéressant sur des problèmes relatifs à la gravitation quantique et à la physique des particules.

L'un des plus grands succès de la théorie des cordes comme théorie de la gravitation quantique concerne les trous noirs. En 1996, Andrew Strominger et Cumrun Vafa, deux théoriciens de l'université Harvard, ont fabriqué à l'aide de branes un objet correspondant à un trou noir [6] . Ils ont ensuite compté le nombre d'assemblages différents permettant d'obtenir le même résultat : ce nombre indique la quantité d'information que peut contenir l'objet. Or ils ont retrouvé de cette façon un résultat obtenu dans les années 1970 par Stephen Hawking et Jacob Bekenstein, alors tous les deux à l'université de Cambridge, qui avaient réalisé des calculs de thermodynamique sur les trous noirs. C'est une preuve que la théorie des cordes permet de décrire au moins certaines propriétés de l'Univers.

La nature de la gravitation

En 1997, Juan Maldacena, à l'époque à l'université Harvard, formula une idée tout aussi excitante concernant la gravitation, dont nous n'avons pas encore compris toutes les conséquences. Il a démontré qu'une théorie particulière de la gravitation contient la même information qu'une théorie qui prenait en compte les autres types de forces mais pas la gravitation [7] . En d'autres termes, si l'on souhaite effectuer un calcul dans le cadre d'une de ces théories, il existe en principe un calcul correspondant dans l'autre théorie qui donne la solution. En outre, sa théorie « non gravitationnelle » appliquée sur une surface particulière de l'espace serait complètement équivalente à sa théorie gravitationnelle dans l'espace de dimension plus élevée délimité par cette surface. Cette découverte semble indiquer quelque chose de fondamental sur la nature même de la gravitation. Là encore, la recherche d'une « théorie du Tout », bien qu'elle n'aboutisse pas complètement, nous permet des avancées déterminantes.

Un autre résultat des dix dernières années a été une meilleure compréhension des liens qui existent entre les différentes versions de la théorie des cordes. Au milieu des années 1990, on disposait en effet de cinq variantes, chacune décrivant des interactions différentes. Grâce notamment aux travaux d'Edward Witten, de l'Institut des études avancées de Princeton, nous savons désormais que ces cinq théories, apparemment différentes, ont le même contenu physique [8] . Witten en a déduit l'existence d'une théorie plus fondamentale, qu'il a baptisée « théorie M », qui rassemblerait dans un même cadre la « supergravité » à onze dimensions et les différentes expressions de la théorie des cordes.

Ainsi, même si la théorie des cordes a souvent été présentée comme la « théorie du Tout », nous devons nous rendre à l'évidence : ce n'est pas la théorie la plus générale. Alors qu'initialement les physiciens espéraient que cette théorie permettrait de faire des prédictions univoques sur les propriétés de l'Univers, ils se sont aperçus qu'il existe de nombreux modèles, chacun contenant différentes forces, différentes dimensions et différentes combinaisons de particules. La théorie M et les branes augmentent considérablement le nombre de manières dont la théorie des cordes permet de décrire l'existence des particules et des forces.

Des dimensions enroulées

Un autre exemple est l'incapacité de la théorie des cordes à expliquer pourquoi la géométrie de notre Univers est telle que nous l'observons. Les théoriciens des cordes ont longtemps pensé beaucoup le pensent encore que les dimensions supplémentaires de l'espace étaient compactées sur de très courtes distances, et enroulées les unes sur les autres, formant une structure appelée « espace de Calabi-Yau ». Or, il existe a priori un très grand nombre d'espaces de Calabi-Yau. Avec certains d'entre eux, on retrouve bien les trois familles de particules élémentaires décrites par le Modèle standard, identifiées dans les expériences. Mais avec d'autres, il peut y avoir plusieurs centaines de familles de particules élémentaires. Aucune théorie ne permet de choisir un espace de Calabi-Yau en particulier, celui qui donnerait sa géométrie à notre Univers.

En 1999, avec Raman Sundrum, de l'université Johns-Hopkins, nous avons trouvé une autre explication de l'arrangement des dimensions supplémentaires. Nous avons démontré que, si les dimensions spatiales ordinaires sont correctement courbées - comme le postule la théorie de la relativité d'Einstein en présence d'un certain type d'énergie -, les dimensions supplémentaires peuvent être « cachées » même si leur taille est infinie [9] . En raison de la courbure de l'espace et du temps, la gravitation est alors localisable dans ces dimensions supplémentaires, même si, en principe, elle peut s'étendre à l'infini.

Ces exemples montrent que nous avons encore des progrès à faire pour comprendre pourquoi les particules et les interactions déduites de la théorie des cordes ont les propriétés que nous observons dans notre monde. Nous comprendrons peut-être pourquoi certaines manifestations de la théorie des cordes prennent le pas sur les autres, mais bien que sa formulation sous-jacente soit une théorie unique, la théorie des cordes, dans son état actuel de développement, ne permet pas de prédire toutes les caractéristiques de l'Univers.

Pour conclure, il est sans doute trop ambitieux de chercher à découvrir directement une « théorie du Tout ». Les progrès viendront davantage d'une compréhension plus fine des principes directeurs caractérisant une théorie fondamentale, mais aussi de la recherche de solutions à des problèmes moins abstraits pour lesquels on peut faire des expériences. Des avancées graduelles devraient ainsi guider les physiciens qui cherchent une manière de raccorder la théorie des cordes à notre monde.

Si les théories que certains physiciens et moi-même avons avancées sont correctes, nous en saurons probablement plus sur les dimensions cachées de l'Univers une fois que le grand collisionneur de hadrons du CERN, près de Genève, sera opérationnel, après 2007 [10] . Des signes de l'existence des particules supersymétriques pourraient aussi être identifiés. J'ignore si nous allons trouver un jour les réponses à toutes nos questions ou découvrir une théorie unificatrice. Je suis en revanche certaine que ces recherches continueront de nous rapprocher d'une meilleure compréhension des lois fondamentales de la nature.

EN DEUX MOTS - Depuis près d'un siècle, les physiciens cherchent une théorie capable d'unifier la mécanique quantique et la relativité, et de révéler ainsi la nature unique des quatre forces fondamentales. La théorie des cordes, souvent qualifiée de « théorie ultime », est considérée aujourd'hui comme la meilleure candidate. Mais des travaux récents suggèrent qu'elle ne serait pas le dernier mot de la physique.

Par Lisa Randall
Vous devez vous identifier ou créer un compte pour réagir à cet article
COMMENTAIRE (1)
Le casse-tête de l'unification des forces
Soumis le 17/03/2015 par bschaeffer@wana... | #1
Il n'y a pas de casse-tête de l’unification des forces car seules deux sont prouvées. La force dite de Coulomb, répulsive, serait équilibrée par la "force forte", imaginée avant la découverte des moments magnétiques des nucléons. L'usage constant du mot "FIT" prouve que les lois fondamentales de l'énergie nucléaire sont inconnues.

L'énergie de liaison du deuton s'obtient en appliquant les lois de Coulomb en 1/r et de Poisson en 1/r³. Le deuton contient 3 charges électriques ponctuelles, alignées par raison de symétrie. L'une est positive dans le proton, les deux autres, égales et opposées dans le neutron pas si neutre. L'équilibre STATIQUE entre les charges électriques et les moments magnétiques du proton et du neutron, colinéaires et opposés, donne, au point d'inflexion horizontal de la courbe, l'énergie de liaison (impossible à afficher ici mais vous pouvez voir mon article de Dubna:

 http://isinn.jinr.ru/past-isinns/isinn-22/progr-27_05_2014/Schaeffer.pdf

 

  DOCUMENT    larecherche.fr     LIEN

 
 
 
 

L'EXPÉRIENCE "OPERA"

 

Paris, 31 mai 2010
Expérience OPERA : détection d'un premier candidat dans la recherche d'une preuve directe de l'oscillation des neutrinos

L'expérience OPERA (1) au Gran Sasso près de Rome, à laquelle participe le CNRS/IN2P3 (2) , a probablement détecté son premier neutrino de type tau. Ce neutrino proviendrait de la transformation, au cours de son voyage de 730 km, d'un des très nombreux neutrinos de type muon envoyés dans le faisceau CNGS du CERN. Pour parvenir à cette observation, les accélérateurs du CERN ont produit des milliards de milliards de neutrinos de type muons. Ce nombre est nécessaire vu la très faible capacité des neutrinos à interagir avec la matière. Ce résultat est important car l'observation de plusieurs événements de ce genre pourra constituer la preuve directe attendue depuis longtemps de l'oscillation (changement de saveur) des neutrinos, ouvrant ainsi la voie à une nouvelle et fascinante physique au-delà du Modèle Standard des particules et de leurs interactions.
Bien que la disparition de la saveur initiale du neutrino ait déjà été observée dans plusieurs expériences ces quinze dernières années, l'« observation directe » du changement de saveur des neutrinos, ou « oscillation », constitue la pièce manquante du puzzle et l'expérience OPERA est unique au monde dans cette perspective.

En 2006, la détection par OPERA, au Laboratoire souterrain du Gran Sasso de l'Institut national de physique nucléaire italien (INFN), des premiers neutrinos de type « muons » envoyés depuis le CERN avait marqué le début de la phase opérationnelle de l'expérience. Des recherches sophistiquées et d'une très haute précision spatiale (au niveau du micron) obtenue sur une cible de 1300 tonnes ont alors été lancées pour observer le signal très particulier pouvant être induit par les neutrinos de type « tau ».

Le détecteur d'OPERA est constitué d'environ 150 000 unités appelées briques, chacune d'entre elle équivalant à un appareil photo sophistiqué. Grâce à ces briques, alternant feuilles de plomb et films photo spéciaux, les chercheurs d'OPERA peuvent détecter tous les détails des événements neutrinos par une mesure précise des particules élémentaires produites par l'interaction du neutrino avec la brique.

Après 3 ans d'expérimentations, pendant lesquelles plusieurs milliers d'interactions de neutrinos ont été enregistrées et analysées, les chercheurs ont à présent peut-être réussi à mettre en évidence un premier candidat pour l'interaction d'un neutrino de type « tau », observé par le dispositif de détection d'OPERA. L'image représente le détail de la région qui entoure le point d'interaction du neutrino (venant de la gauche de l'image) produisant plusieurs particules dont les trajectoires sont reconstituées dans la brique. La présence d'une trajectoire avec un coude (rouge puis turquoise) est la probable signature de l'interaction d'un neutrino tau, avec un taux de probabilité d'environ 98%. L'image représente un volume de seulement quelques millimètres cube, mais riche d'informations pour reconstruire la physique de l'interaction.

Ce résultat crucial pour la physique du neutrino est le fruit d'une entreprise scientifique complexe, réalisée grâce aux compétences d'un grand nombre de chercheurs, techniciens, scientifiques et étudiants, et avec un engagement fort de la part des différents partenaires de ce projet : en particulier, les laboratoires hôtes du Gran Sasso et du CERN, le support financier majeur de l'Italie et du Japon, et les importantes contributions (moyens humains et financiers) de la France, l'Allemagne, la Belgique et la Suisse. Plusieurs chercheurs d'Israël, Corée, Russie, Tunisie et Turquie contribuent également au projet.

Quatre laboratoires de l'IN2P3/CNRS  ont été impliqués dans l'expérience OPERA.

Ils ont contribué dès le début à son élaboration et à sa construction. Ils ont en particulier conçu et réalisé dans leur totalité des éléments essentiels du détecteur, les trajectographes à scintillateur servant à localiser la brique dans laquelle se produit l'interaction neutrino, l'électronique de lecture ainsi que le système d'acquisition innovant “avec intelligence distribuée” de l'ensemble des détecteurs électroniques. Ils ont également mis au point le dispositif automatisé de manipulation des 150 000 briques. Dans les quatre dernières années, les laboratoires français ont fourni des contributions majeures dans l'analyse des données, incluant l'environnement de calcul et la base de données des événements, une des plus grandes bases relationnelles du monde. Cette activité a bénéficié d'un très fort support du Centre de Calcul de l'IN2P3 (CNRS), qui a offert ses ressources de calcul à l'ensemble de la collaboration.

 

DOCUMENT         cnrs        LIEN

 
 
 
 

VITESSE DU NEUTRINO

 

Les neutrinos ne font décidément pas d'excès de vitesse


et aussi - 13/06/2012 par Fiorenza Gracci (832 mots)
Les physiciens de la collaboration internationale Borexino viennent de mettre fin définitivement à une controverse démarrée à l’automne dernier : les neutrinos ne se déplacent pas plus vite que la lumière.

Vendredi 8 juin, à l’occasion de la conférence biennale NEUTRINO 2012 à Kyoto, au Japon, plusieurs équipes internationales des laboratoires du Gran Sasso, en Italie, ont présenté conjointement leurs résultats sur un des sujets les plus discutés de l’année écoulée : la vitesse des neutrinos. En 2011, l’équipe de l'expérience OPERA avait en effet créé la surprise en détectant des neutrinos plus rapides que la lumière. Mais toutes les vérifications entreprises depuis vont dans le même sens : ils s’étaient trompés. Parmi les résultats présentés vendredi, les mesures de l'expérience Borexino sont particulièrement précises.

Les neutrinos sont des particules élémentaires qui n’interagissent presque pas avec la matière, et sont de ce fait très difficiles à étudier. On sait toutefois qu'ils possèdent une masse. Elle n'est pas connue avec précision, mais elle est très faible : des centaines de milliers de fois plus petite que celle des électrons. Les physiciens étaient donc certains qu'ils ne pouvaient pas se déplacer aussi vite que la lumière, en conformité avec la théorie de la relativité restreinte d’Einstein.

L'annonce, par des physiciens de la collaboration OPERA, qu'ils avaient détecté des neutrinos voyageant à une vitesse supérieure à celle de la lumière, a donc suscité de fortes réactions dans le monde de la physique. Plusieurs collaborations internationales ont rapidement entrepris de reproduire ces mesures, y compris OPERA elle-même. Leurs résultats ont été présentés ce vendredi 8 juin.

Ces expériences reposent sur un accélérateur de particules du CERN, logé dans un tunnel souterrain près de Genève, qui produit des faisceaux de protons. Ceux-ci frappent une cible de graphite, se désintègrent et produisent des neutrinos, qui ensuite voyagent pendant 732 kilomètres, jusqu'aux détecteurs des laboratoires souterrains du Gran Sasso, dans le centre de l’Italie. Là, à 1 400 mètres sous les montagnes, les physiciens peuvent mesurer le temps d’arrivée des neutrinos pour le comparer à celui des photons.

Toutes les équipes du Gran Sasso, LVD, ICARUS, OPERA et Borexino, qui en temps normal étudient différentes propriétés des neutrinos, ont effectué ces mesures de vitesse. En mars 2012, l’équipe ICARUS avait donné, la première, des résultats incompatibles avec ceux d'OPERA. Puis OPERA elle-même, à l’aide des données de l’équipe LVD, a démontré que ses données étaient biaisées. En avril dernier, suite à la découverte que des défaillances techniques avaient faussé les mesures, deux responsables d’OPERA, Antonio Ereditato et Dario Autiero, avaient présenté leurs démissions.

« Mais les mesures de Borexino étaient attendues car elles sont les plus fiables, dotées de la meilleure précision », affirme Davide Franco, du laboratoire Astroparticule et Cosmologie de l’Université Paris-Diderot, et membre de l’expérience Borexino. En effet, en vue d’effectuer ces mesures de vitesse, l’instrumentation a été considérablement améliorée : « Les nouveaux systèmes de détection et de chronométrage ont permis d’atteindre une résolution de quelques nanosecondes », indique Daniel Vignaud, du même laboratoire.

Les neutrinos (v) provenant de l’accélérateur de particules produisent des muons (µ) qui passent dans le scintillateur où ils émettent un flash lumineux, que les physiciens utilisent pour chronométrer leur arrivée (crédit : Borexino)

Arrivé au Gran Sasso, le faisceau de neutrinos provenant du CERN interagit avec la roche environnante, produisant des muons. Ce sont ces derniers qui sont captés par les appareils de Borexino. Le détecteur, au centre, est une sphère de 8,5 mètres de diamètre contenant 100 tonnes d’un liquide appelé scintillateur. Au passage d’un muon, celui-ci émet un photon, et ce signal lumineux est enregistré.

Selon les résultats de Borexino, présentés vendredi 8 juin, les neutrinos ne vont pas plus vite que la lumière, leurs vitesses étant statistiquement identiques.« D’après nos mesures, l’écart de temps de parcours entre neutrinos et photons est de l’ordre de la nanoseconde, avec une erreur de quelques nanosecondes, donc largement inférieur aux 62 nanosecondes mesurées initialement par OPERA », précise Daniel Vignaud. Bien que les mesures effectuées par Borexino reposent sur le même accélérateur du CERN, elles utilisent un système satellitaire de chronométrage différent et sont donc bien indépendantes de celles d’OPERA.

Pour autant, le dernier mot n’est peut-être pas dit, comme le suggère un autre spécialiste des neutrinos qui était présent à la conférence à Kyoto. Ryan Nichol, du Groupe de Physique des Hautes Energies du University College à Londres, reste de l’avis que « même si cette expérience montre bien l’excellente précision du détecteur de Borexino, une vérification entièrement indépendante reposant sur un équipement complètement différent resterait toujours très intéressante à réaliser ».

Toujours est-il que les spécialistes des neutrinos vont pouvoir sereinement retourner à leurs études initiales. Car, comme le précise Gianluigi Fogli, de l'Université de Bari et de l’Institut national de Physique nucléaire italien, « la mesure de la vitesse des neutrinos est peu parlante et donc peu utile en soi. Comme il est impossible de la mesurer avec exactitude, elle ne pourra pas servir à calculer la masse du neutrino. En somme, elle reste tout à fait secondaire par rapport aux recherches sur les diverses propriétés des neutrinos menées par les expériences ICARUS, LVD, OPERA et Borexino ».

Par Fiorenza Gracci

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google