|
|
|
|
|
|
LES HORLOGES ATOMIQUES ... |
|
|
|
|
|
Les horloges atomiques montent en fréquence
palmarès - par Antoine Cappelle dans mensuel n°483 daté décembre 2013 à la page 50 (2032 mots) | Gratuit
Le temps va-t-il changer ? Il semble en tout cas compté désormais pour la référence actuelle de la seconde, fondée depuis 1967 sur des mesures réalisées avec une horloge atomique au césium. Cette année des physiciens ont en effet montré qu'un autre type d'horloges atomiques, les horloges atomiques optiques à atomes neutres, sont plus performantes.
En juillet, Rodolphe Le Targat, Jérôme Lodewyck et leurs collègues du laboratoire Systèmes de référence temps-espace (LNE-Syrte) de l'Observatoire de Paris, ont établi que leurs horloges atomiques au strontium délivrent une fréquence définie avec une marge d'erreur de seulement une unité sur le seizième chiffre significatif, soit une incertitude de 10-16 [1]. C'est mieux que les meilleures horloges au césium, dont l'incertitude est de 2 x 10-16. Puis, en septembre, une équipe américano-italienne a présenté ses résultats sur la stabilité de ses deux horloges atomiques à l'ytterbium : en sept heures de fonctionnement, leurs fréquences ne diffèrent que de 1,6 x 10-18 [2].
Toutes les horloges atomiques reposent sur le même principe, qui est l'un des fondements de la mécanique quantique : l'énergie d'un atome est quantifiée. Elle ne varie pas de façon continue, mais par paliers. Les physiciens parlent des états d'énergie de l'atome. Ils sont bien définis et propres à chaque élément chimique.
Atomes et photons
Le passage d'un atome d'un état à un autre est associé à l'absorption ou à l'émission d'un photon, dont l'énergie correspond à la différence entre celle des deux états. Les différents éléments possédant des états répartis de façon spécifique, ils absorbent et émettent des photons chacun à des énergies, donc à des fréquences*, particulières.
Les horloges atomiques au césium, mises au point au milieu des années 1950, ont ainsi pour référence un changement d'état énergétique correspondant à un rayonnement électromagnétique à 9,2 gigahertz, dans le domaine des micro-ondes. La seconde est définie aujourd'hui par le Bureau international des poids et mesures comme la durée de 9,2 milliards d'oscillations de l'onde correspondante. Les horloges atomiques optiques, elles, se fondent sur des changements d'états correspondant à des fréquences environ 100 000 fois plus élevées, dans le domaine de la lumière visible.
En pratique, comment procède-t-on ? Prenons l'exemple de l'horloge au strontium. Un four vaporise cet élément, dont environ 10 000 atomes sont injectés dans une enceinte sous vide, ralentis puis confinés dans un « piège optique », réalisé à l'aide d'un laser. Pour les amener tous au niveau d'énergie interne choisi, le niveau « fondamental », on envoie une première impulsion lumineuse avec un laser de lumière rouge, à une longueur d'onde de 689 nanomètres. C'est ce que l'on appelle le « pompage optique » [fig. 1].
Un second laser, le « laser d'horloge », émet alors vers les atomes de strontium une impulsion lumineuse d'une longueur d'onde de 698 nanomètres. Cette longueur d'onde correspond à la fréquence caractéristique de la transition, environ 4,3 x 1014 hertz. Les atomes sont ainsi placés dans une superposition de l'état fondamental et de l'état d'énergie supérieur, l'« état excité ».
La superposition est une autre caractéristique du monde quantique. Tant que l'on ne mesure pas l'état de chaque atome, celui-ci est une combinaison des deux états possibles. On ne peut connaître cet état que statistiquement, en mesurant un grand nombre d'atomes, ou un grand nombre de fois un seul atome.
C'est l'étape de comptage qui fait basculer les atomes dans un état ou dans l'autre. On la réalise en envoyant sur le nuage atomique une impulsion laser d'une longueur d'onde de 461 nanomètres (une lumière bleue). Celle-ci induit en outre un phénomène de fluorescence des atomes qui sont revenus dans l'état fondamental : ils absorbent et réémettent chacun des photons, ce qui les éjecte du piège optique. Un détecteur mesure la lumière de fluorescence, dont l'intensité est proportionnelle au nombre d'atomes impliqués.
Ajustement progressif
Les atomes qui ont basculé dans l'état excité sont ramenés à l'état fondamental par les impulsions couplées de deux lasers rouges, à 679 et 707 nanomètres de longueur d'onde. Et, à leur tour, ils sont comptés par fluorescence. Au départ, la fréquence du laser d'horloge n'est jamais centrée exactement sur la fréquence de transition des atomes. Mais la proportion d'atomes passant dans l'état excité est d'autant plus grande que la fréquence s'approche de la bonne valeur. Un dispositif informatique calcule donc cette proportion à partir des deux mesures et en déduit la correction à apporter à la fréquence du laser d'horloge.
Cet ajustement est effectué par un modulateur acousto-optique, système mélangeant la fréquence d'une onde sonore à celle du signal lumineux. Un nouveau cycle de mesure est alors entamé, avec une fréquence du laser d'horloge légèrement différente. L'opération est reproduite toutes les 0,7 seconde, afin, en excitant de plus en plus d'atomes, de rapprocher par ajustements successifs la fréquence du laser de celle de la transition du strontium.
La pureté du spectre de fréquence du laser d'horloge est décisive. « Un laser émet généralement sur une bande de fréquence large d'une centaine de kilohertz, indique Rodolphe Le Targat. Ce n'est pas assez bon pour sonder la transition atomique d'une horloge optique. Pour limiter cet étalement en fréquence, le bruit, nous utilisons donc une cavité de référence ultra-stable. » Ce système, constitué de deux miroirs, engendre un phénomène de résonance afin de privilégier une fréquence particulière. La bande de fréquence du laser est ainsi réduite à une fraction de hertz. « Malgré cela, nous devons renouveler sans cesse les cycles de détection, afin d'éviter que la fréquence du laser ne dérive, explique le physicien. Sans cela, il sortirait en quelques secondes de la bande de fréquence de transition atomique, en raison de sa largeur spectrale et des variations de la cavité ultra-stable. »
En fonctionnement stabilisé, on obtient donc pour le laser d'horloge une fréquence bien définie. Avec les horloges atomiques optiques, cette fréquence est, on l'a vu, environ 100 000 fois plus élevée qu'avec une horloge au césium. Ces oscillations plus rapides permettent de subdiviser la seconde en plus petites fractions, et donc de la caractériser avec une meilleure précision.
Toutefois, la valeur de la fréquence n'est pas le seul paramètre important. Car la fréquence entraînant le changement d'énergie des atomes a, elle aussi, une largeur spectrale. « Certaines transitions peuvent être déclenchées dans des bandes de fréquence de quelques mégahertz de large, précise Rodolphe Le Targat. Ce qui correspond à l'incertitude avec laquelle l'horloge pourrait se caler sur cette fréquence. C'est pourquoi nous travaillons, comme d'autres groupes de recherche, sur une transition du strontium dont la largeur spectrale est de 1 millihertz. »
Par ailleurs, la sensibilité des atomes au rayonnement du laser d'horloge peut être altérée par de nombreux paramètres. Notamment, leurs mouvements dans la direction du faisceau du laser d'horloge modifient la façon dont ils le perçoivent. C'est l'effet Doppler : lorsqu'un atome s'éloigne de la source de lumière, la fréquence de celle-ci lui apparaît plus petite ; s'il s'en rapproche elle lui paraît plus grande. Ce phénomène peut donc être une source d'erreur.
Atomes immobilisés
Pour la réduire, les physiciens restreignent les mouvements des atomes à l'aide d'un « réseau optique ». Ils utilisent l'interaction entre les atomes et la lumière d'un laser infra-rouge produisant une onde stationnaire : ses minimas et maximas d'intensité lumineuse ne se propagent pas. Cette onde agit comme un piège pour les atomes, qui sont attirés par les maximas, répartis tous les 400 nanomètres environ.
Pour évaluer les performances réelles d'une telle horloge, il faut les comparer à celles d'une autre horloge aux performances équivalentes. C'est pourquoi les physiciens du LNE-Syrte ont construit deux horloges au strontium indépendantes. Ils ont ainsi montré que les fréquences produites par ces deux horloges sont en accord avec une incertitude de 1,5 x 10-16 [fig. 2]. « C'est mieux que l'incertitude sur la définition actuelle de la seconde, se réjouit Rodolphe Le Targat. Nous n'étions pas encore certains que des horloges optiques à atomes neutres pourraient dépasser les horloges au césium, mais nos travaux l'ont confirmé. » Même si cette performance n'égale pas le record absolu (lire « L'horloge la plus exacte »)
Le principal facteur empêchant les horloges du LNE-Syrte d'être encore plus précises est connu. « Le rayonnement thermique de l'appareillage entraîne un léger déplacement des états d'énergie des atomes, et donc de la fréquence de transition au sein du nuage de gaz. Mais ce phénomène n'est pas homogène dans l'espace autour des atomes, il est donc difficile de connaître exactement son influence », détaille Rodolphe Le Targat. Pour contourner cette limite, les chercheurs travaillent à réduire la puissance thermique dissipée, et à isoler leur enceinte du four produisant la vapeur de strontium. Ils visent la division par 10 des fluctuations de température ressenties par les atomes de strontium.
De façon générale, plus les horloges gagnent en exactitude, plus elles révèlent de nouveaux phénomènes qui influencent leur précision. Ainsi, le potentiel gravitationnel de la Terre doit maintenant être pris en compte. Lui aussi modifie la fréquence de transition : une différence de hauteur de 1 mètre change le seizième chiffre significatif de la fréquence de l'horloge.
En parallèle, les physiciens essaient aussi d'améliorer un autre critère de qualité : la stabilité de l'horloge au cours du temps, qui définit la régularité de la fréquence du laser d'horloge. Plusieurs sources de bruit viennent perturber la mesure de cette fréquence, mais elles peuvent être minimisées en moyennant la fréquence sur une longue durée. En une seconde de fonctionnement, les horloges au strontium du LNE-Syrte affichent une stabilité de 2 x 10-15 : c'est-à-dire que la fréquence ne varie que de 2 x 10-15 entre deux intervalles successifs d'une seconde.
Stabilité du temps
Les meilleures horloges au césium, elles, parviennent à une instabilité de l'ordre de 10-14 sur une seconde, et atteignent 10-16 après plusieurs jours de fonctionnement. Mais une équipe de physiciens américains et italiens a dépassé ce record, en obtenant une stabilité de 1,6 x 10-18 en seulement 7 heures, avec une horloge atomique optique à l'ytterbium. Celle-ci, avec une fréquence de référence de 5,2 x 1014 hertz, soit 578 nanomètres, est aussi une excellente candidate comme étalon de fréquence.
Mais dans ce domaine, la lumière jaune, les lasers disponibles aujourd'hui sont moins performants que dans le rouge. La qualité de celui qu'ont utilisé les physiciens a donc joué un rôle important dans leur réussite. « Pour obtenir un rayonnement à la bonne longueur d'onde, nous avons mélangé les fréquences de deux lasers », raconte Andrew Ludlow, de l'Institut américain des normes et des technologies, qui a participé à l'étude. « La fréquence obtenue est très stable, avec peu de bruit, ce qui nous a permis d'interagir avec les atomes sans compromettre la stabilité de l'horloge. »
Le bruit du laser, c'est-à-dire la présence de fréquences non souhaitées, est la principale limite à la stabilité. L'une des solutions pour le minimiser est d'allonger le temps d'utilisation du laser d'horloge tout en minimisant la durée des autres étapes. « Des mesures plus longues pourraient améliorer la stabilité, mais ce n'est pas certain », prévient Andrew Ludlow. « Car d'autres effets systématiques pourraient avoir une influence à long terme. »
La limite fondamentale à la stabilité des horloges atomiques devrait être le « bruit de projection quantique », phénomène intrinsèque aux atomes. Il découle de la superposition de deux états d'énergie dans laquelle les place l'impulsion du laser d'horloge. La mesure de l'état d'énergie des atomes, lors de l'étape de comptage, les « projette » dans un état donné. Cela produit une incertitude sur la mesure, auquel les chercheurs seront confrontés lorsqu'ils auront encore progressé. Son influence pourrait être minimisée par la mesure des états d'un grand nombre d'atomes simultanément, comme le font les horloges à atomes neutres.
Les horloges atomiques ont donc encore une marge de progression pour les prochaines années. « L'exactitude devrait progresser d'un ordre de grandeur d'ici à un ou deux ans », prévoit Rodolphe Le Targat. Pour la stabilité, selon Andrew Ludlow, « il est possible d'atteindre les 10-18 sur une mesure d'une seconde. Mais ce ne sera pas facile. » Ces améliorations devraient permettre de définir quelle technologie d'horloge optique serait à la fois la plus exacte et la plus stable, et donc le meilleur choix pour une nouvelle référence internationale aussi durable que celle qui a court aujourd'hui.
Par Antoine Cappelle
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
FAIRE DE LA LUMIÈRE AVEC DU SON ... |
|
|
|
|
|
Comment faire de la lumière avec du son
sonoluminescence et fusion nucléaire - par Sascha Hilgenfeldt, Detlef Lohse dans mensuel n°354 daté juin 2002 à la page 22 (3384 mots) | Gratuit
Curiosité de laboratoire, la sonoluminescence, production de lumière dans une bulle de gaz comprimée par des ultrasons, a suscité depuis une douzaine d'années les théories les plus exotiques. Des expériences très précises et la conjugaison de connaissances provenant de différents domaines de la physique ont toutefois permis de dissiper la plus grande partie du mystère.
Nous avons tous, un jour ou l'autre, assisté à un orage. Nous avons vu, de plus ou moins près, tomber la foudre, en même temps que nous l'entendions. Un phénomène unique, la circulation dans l'air d'un courant électrique, produit simultanément de la lumière l'éclair et du son le tonnerre. Tout un chacun peut d'ailleurs se prendre, à petite échelle, pour Jupiter, et reproduire l'expérience dans sa cuisine à l'aide d'un allume-gaz, qui crépite en même temps qu'il produit des étincelles.
Pourtant, le son et la lumière sont de nature complètement différente. Ils sont tous deux transportés par des ondes, mais l'éclair nous arrive un million de fois plus vite que le tonnerre. En outre, la longueur d'onde de la lumière visible environ 0,5 micromètre est au moins mille fois plus petite que celle du son. Et, surtout, la densité d'énergie transportée par une onde lumineuse est 1 000 milliards de fois supérieure à celle d'une onde sonore ou ultrasonore* ordinaire.
Eclair lumineux. Comment imaginer alors qu'une onde sonore puisse fournir assez d'énergie pour produire de la lumière ? C'est pourtant ce qu'ont observé, au début des années 1930, des physiciens de l'université de Cologne, en Allemagne. Lorsqu'ils envoyaient des ultrasons dans de l'eau, des bulles se formaient, ce qui n'était pas très surprenant : ce phénomène, nommé « cavitation », était bien connu depuis longtemps. Mais les bulles émettaient de la lumière ! Cette « sonoluminescence » était toutefois difficile à détecter, car la lumière était peu intense. Elle resta donc une curiosité de laboratoire. D'autant que les bulles se formaient à des positions aléatoires, produisaient une impulsion lumineuse et disparaissaient. Impossible de concentrer les observations sur une seule bulle pour étudier en détail le mécanisme d'émission !
La plupart des physiciens refusaient même de croire à la réalité de la sonoluminescence. L'énorme concentration d'énergie nécessaire pour engendrer de la lumière à partir d'ultrasons était obtenue par des moyens si simples que cela semblait suspect. La suite montra qu'ils avaient tort : l'implosion rapide d'une petite bulle de gaz peut produire des températures et des pressions suffisantes pour engendrer un bref éclair lumineux.
Monobulle. Est-ce à cause de ce scepticisme ? L'étude de la sonoluminescence ne commença véritablement qu'en 1989. Felipe Gaitan, qui préparait sa thèse sous la direction de Lawrence Crum, à l'université du Mississippi, réussit en effet cette année-là à observer et à contrôler la sonoluminescence avec une seule bulle. A l'aide d'une onde ultrasonore stationnaire, il piégeait une bulle d'air micrométrique au centre d'une petite bouteille d'eau, et il la faisait imploser en produisant un éclair lumineux. En outre, contrairement à ce qui se passait pour la sonoluminescence « multibulle », cette sonoluminescence « monobulle » était stable : l'implosion ne détruisait pas la bulle et se répétait à chaque cycle de l'onde ultrasonore, c'est-à-dire environ 20 000 fois par seconde1.
La lueur bleuâtre émise par ces implosions, semblable à une étoile dans le ciel nocturne, était visible à l'oeil nu. En étudiant la diffusion d'un faisceau laser sur la bulle*, F. Gaitan et ses collègues déterminèrent les variations du rayon de celle-ci en fonction du temps. Au cours de chaque période d'excitation par les ultrasons, la bulle gonflait d'abord assez longuement, puis elle se contractait très rapidement. Le cycle se terminait par une succession de rebonds fig. 1.
Peu après la découverte de F. Gaitan, de nombreuses équipes s'intéressèrent à ce phénomène fascinant. Notamment, dans les cinq années qui suivirent, des expériences très minutieuses de l'équipe de Seth Putterman, de l'université de Californie à Los Angeles, apportèrent quelques surprises2. D'abord, la stabilité de l'émission lumineuse dépend très étroitement de la quantité de gaz dissous dans le liquide et du mélange de gaz utilisé. En particulier, l'émission n'est stable que si ce mélange contient un gaz rare*. Ensuite, contrairement à ce que l'on observe dans la sonoluminescence « multibulle », la lumière est émise sur une plage continue de longueurs d'onde, et pas sous forme de raies à des longueurs d'onde précises. L'intensité de cette émission est d'ailleurs maximale dans l'ultraviolet, d'où sa teinte bleuâtre. Enfin, en 1992, S. Putterman et ses collègues affirmèrent que la durée de chaque éclair lumineux était bien inférieure à 50 picosecondes* !
Deux catégories d'explications. Cet ensemble de résultats étranges engendra pléthore de théories explicatives. En 1996, lors du congrès annuel de la Société d'acoustique des Etats-Unis, à Honolulu, une conférence consacrée à la sonoluminescence se déroula dans le désordre le plus complet. Les propositions étaient si diverses qu'on ne trouvait pas deux théoriciens qui réussissaient à se mettre d'accord. Quant aux expérimentateurs, aucune théorie ne leur convenait ! Robert Apfel, de l'université Yale, qui présidait cette session, somma alors les théoriciens de rassembler dans un tableau les points fondamentaux de leurs théories et leurs principales prédictions, afin que l'on puisse s'y retrouver et faire des comparaisons sensées.
Ce travail fait, on s'aperçut que la plupart des explications tombaient dans deux grandes catégories3 : celles qui faisaient appel à une décharge électrique et celles qui attribuaient une origine thermique à l'énergie lumineuse. La brièveté des éclairs, suggérée par S. Putterman, avait aussi suscité d'autres explications plus exotiques, de la « fractoluminescence » à la « flexoélectricité », en passant par le « rayonnement du vide quantique ». Certains évoquaient même, déjà, la fusion nucléaire !
Quelle était la bonne théorie ? Cette même année 1996, nous avons justement commencé à nous intéresser à la sonoluminescence. Nous avons repris le problème à sa base, en étudiant d'abord la stabilité remarquable de la bulle. Pourquoi ne disparaît-elle pas lorsqu'elle implose, comme celles de la sonoluminescence « multibulle » ?
Fort heureusement, nous ne partions pas de zéro : la dynamique des bulles dans l'eau avait déjà fait l'objet de nombreux travaux. Dès 1917, Lord Rayleigh* avait décrit les contractions des bulles de cavitation qui se forment dans les zones de basse pression derrière les hélices des bateaux : leur comportement était proche de celui décrit par F. Gaitan. La dynamique de Rayleigh avait ensuite été reprise et étendue pour toutes sortes de bulles oscillantes, notamment en 1977, par Andrea Prosperetti, de l'université Johns Hopkins, à Baltimore4.
Ces travaux fournissaient un premier niveau de réponse à notre question : comme l'onde stationnaire autour de la bulle a une géométrie quasi sphérique, et n'excite que des vibrations radiales, une bulle sphérique ne peut pas se briser en plusieurs petites bulles. En revanche, si la forme de la bulle s'écarte trop de la sphère, en d'autres termes si les petites instabilités, inévitables, sont trop amplifiées, alors la bulle est détruite. Cela se produit, à une fréquence d'excitation donnée, si l'intensité des ultrasons ou la taille de la bulle au repos dépassent certains seuils. En deçà, la bulle reste sphérique, implosion après implosion5.
Toutefois, même si l'on choisit correctement l'amplitude des ultrasons et la taille de la bulle, deux autres phénomènes contribuent à faire disparaître cette dernière. D'abord, la tension de surface* d'une bulle au repos ou faiblement excitée est responsable de la dissolution progressive de son contenu gazeux dans le liquide qui l'entoure. La pression du côté convexe de la surface à l'intérieur de la bulle est en effet plus grande que du côté concave dans l'eau : le gaz a donc tendance à sortir de la bulle, qui rétrécit jusqu'à disparaître. A l'opposé, une bulle fortement excitée bénéficie d'une « diffusion rectifiée » : chaque fois qu'elle se dilate, la pression baisse fortement à l'intérieur, et une petite quantité de gaz dissous dans le liquide y pénètre, augmentant ainsi sa taille au repos.
Recherche de stabilité. La bulle ne conserve donc sa taille initiale que si ces mécanismes s'équilibrent mutuellement : elle ne se dissout pas et ne grossit pas non plus jusqu'à une taille où les instabilités seraient trop grandes et la briseraient lors de son implosion. En tenant compte des deux phénomènes de diffusion antagonistes, nous avons calculé un diagramme indiquant, en fonction de l'amplitude des ultrasons, à quelles concentrations de gaz dissous et à quelles amplitudes de pression on devrait observer une bulle stable fig. 2.
Ce diagramme montre que la stabilité est impossible à atteindre si le gaz présent dans la bulle est aussi dissous dans l'eau en trop grande quantité : on ne doit pas en laisser plus de 1 % de sa concentration de saturation, faute de quoi la bulle disparaît assez vite. Après avoir fait ce constat, nous nous sommes demandé comment F. Gaitan avait pu observer une sonoluminescence stable avec une bulle d'air. En effet, il avait bien dégazé son eau au préalable, mais jusqu'à 20 % ou 40 % de la concentration de saturation seulement. Selon nos calculs, l'eau contenait donc environ cent fois trop d'air : la bulle aurait dû se désintégrer en quelques fractions de seconde !
D'ailleurs, heureusement que F. Gaitan n'avait pas calculé ce diagramme avant d'entreprendre ses expériences : le dégazage de l'eau à moins de 1% d'air nécessite des techniques perfectionnées dont il ne disposait pas. S'il avait étudié scrupuleusement la théorie, il n'aurait sans doute pas découvert la sonoluminescence monobulle !
En 1997, nous avons résolu cette énigme, en même temps que nous avons expliqué des résultats obtenus avec différents gaz par S. Putterman et ses collègues. En 1994, ces derniers avaient en effet tenté d'obtenir la sonoluminescence avec des bulles contenant séparément les différents constituants de l'air. Mais le phénomène n'était pas stable avec de l'oxygène ou de l'azote purs, ni avec un mélange des deux dans les mêmes proportions que dans l'air. Seules les bulles contenant des gaz rares émettaient durablement de la lumière. Ils en avaient conclu, mais sans aller plus loin, que c'était la petite proportion d'argon dans l'air environ 1 % qui stabilisait la sonoluminescence.
L'explication qui nous vint naturellement à l'esprit pourquoi personne n'y avait pensé avant nous ? était que, pendant l'implosion, la température s'élève tellement dans la bulle que les molécules d'oxygène et d'azote se dissocient. Les atomes ainsi formés réagissent chimiquement avec la vapeur d'eau présente dans la bulle, et les gaz correspondants sont progressivement évacués de celle-ci. Dans tous les cas, si une bulle renferme au départ un mélange de gaz, après plusieurs cycles d'oscillation elle ne contient plus que ceux qui ne se dissocient pas, même à très haute température, autrement dit les gaz rares. Cette hypothèse de dissociation a été confirmée depuis par un grand nombre d'expériences, notamment celles de Thomas Matula et Lawrence Crum, de l'université de Washington, en 19986.
La bulle d'air initiale est donc rapidement transformée en bulle d'argon pur. En ne laissant dans l'eau que 20 à 40 % d'air par rapport à la concentration de saturation de gaz, F. Gaitan avait donc en fait réduit la concentration de l'argon, qui entre à hauteur de 1 % dans la composition de l'air, entre 0,2 % et 0,4 % de la concentration de saturation. Coup de chance : c'était précisément dans la plage de concentration où la bulle est stable.
Coup de chance supplémentaire : la stabilité de la bulle, condition nécessaire à l'existence de la sonoluminescence, est aussi une condition suffisante. Des expériences menées par Glynn Holt et F. Gaitan7, alors à Caltech, ont permis de vérifier que la plage de stabilité de la sonoluminescence correspond assez bien à la plage de stabilité de la bulle sur notre diagramme théorique8. Seules des amplitudes des ultrasons comprises entre 1,2 et 1,5 fois la pression ambiante permettent la stabilité. Si la pression est plus faible, la bulle n'implose pas assez vite ; elle est détruite si la pression est plus grande.
La compréhension de la dynamique des parois de la bulle n'éclaircissait toutefois pas la physique qui se déroulait à l'intérieur : le problème le plus compliqué restait entier. Heureusement, une nouvelle expérience vint nous indiquer la direction dans laquelle nous devions chercher.
Durée de l'éclair. En 1997, Bruno Gompf et son équipe de l'université de Stuttgart mesurèrent pour la première fois précisément la durée de l'éclair lumineux9. A la surprise générale, ces expériences montraient sans ambiguïté que la durée des éclairs était de 100 à 300 picosecondes, beaucoup plus que ce que l'on pensait jusque-là. Cette durée n'était pas si différente de celle de l'implosion de la bulle, de l'ordre de la nanoseconde. Cela laissa espérer que l'on pourrait expliquer l'émission lumineuse par un mécanisme physique classique, un échauffement lié à la compression de la bulle. L'élaboration de théories exotiques, destinées à expliquer des éclairs beaucoup plus courts que l'implosion elle-même, devenait du même coup inutile.
En outre, nos résultats sur la dynamique de la bulle disqualifiaient les théories faisant appel à des décharges électriques. Nous l'avons vu, seules les bulles parfaitement sphériques sont stables et produisent la sonoluminescence pendant de longues durées. Or, des décharges électriques ne peuvent produire de la lumière que dans des systèmes dissymétriques. Il devint alors évident pour nous qu'une émission thermique était à l'origine de la sonoluminescence.
Tous les problèmes n'étaient pas réglés pour autant. En particulier, l'équipe de B. Gompf avait mesuré que l'éclair durait aussi longtemps à toutes les longueurs d'onde, du rouge à l'ultraviolet fig. 4. La source de lumière n'était donc pas un « corps noir », l'émetteur de rayonnement le plus simple. Le spectre lumineux d'un corps noir est une courbe en cloche, et la longueur d'onde du maximum ne dépend que de la température. Au fur et à mesure que l'on chauffe, ce maximum se déplace du rouge vers le bleu et l'ultraviolet. Les températures auxquelles se produit une émission rouge étant maintenues plus longtemps dans la bulle, l'impulsion dans le rouge aurait été au moins deux fois plus longue que dans l'ultraviolet.
Willy Moss et ses collègues, du laboratoire de Los Alamos, suggérèrent alors, en se fondant sur une simulation numérique, que nous avions affaire à un émetteur volumique plutôt qu'à un corps noir10. Ils soulignèrent qu'un émetteur thermique n'est un corps noir que s'il est effectivement noir, c'est-à-dire s'il absorbe efficacement les photons à toutes les longueurs d'onde. Les seuls photons observés sont alors émis par la surface de l'objet. Toutefois, si la bulle est trop petite, ou le gaz trop transparent vis-à-vis des photons, ceux qui sont émis à l'intérieur de la bulle ne sont pas tous réabsorbés : le spectre observé résulte en partie d'une émission volumique. Bien que l'on ait aussi affaire à une émission thermique, le spectre, l'intensité et la durée de l'émission lumineuse sont différents de ceux d'un corps noir.
Spectre continu. Pour vérifier cette hypothèse, nous devions calculer les caractéristiques de l'émission et de l'absorption du petit volume de gaz fortement comprimé dans la bulle lire l'encadré : « Emission et absorption ». Mais il y avait encore un préalable : un paramètre essentiel de ce calcul est la température, pour laquelle l'obtention d'une valeur fiable n'était pas si simple.
Dans le cas de la sonoluminescence multibulles, le spectre lumineux est formé de raies, caractéristiques du liquide environnant et dont les intensités relatives permettent de calculer la température. Ainsi, dans les années 1990, Ken Suslick et ses collègues de l'université d'Urbana-Champaign, qui étudiaient des réactions chimiques dans des bulles qui implosent, avaient calculé des températures de 3 000 à 6 000 kelvins.
Dans la sonoluminescence monobulle, le spectre est continu : impossible de déterminer directement la température. En 2000 et 2001, K. Suslick et ses collègues, ainsi que Woowon Kang, de l'université de Chicago, et ses collègues, ont toutefois détecté, indépendamment, des raies spectrales dans une bulle unique excitée par des ultrasons de faible amplitude11. Ces raies sont de moins en moins marquées et recouvertes par un spectre continu de plus en plus intense à mesure que l'amplitude des ultrasons donc la violence de l'implosion est augmentée : plus la bulle chauffe, moins on voit les raies. Ces dernières étant bien visibles dans la sonoluminescence multibulle, les physiciens en ont conclu que, dans la plupart des cas de sonoluminescence monobulle, la température atteint des valeurs bien supérieures.
A l'heure actuelle, seuls des modèles numériques permettent des prédictions quant à la hauteur effective des pics de température. Ils se présentent sous des formes très diverses, de simulations numériques complètes à de simples extensions de la dynamique classique des bulles. Leurs éléments les plus importants sont un modèle d'échange thermique entre la bulle et le liquide environnant, et un modèle des réactions chimiques dans la bulle. Ce dernier est important non seulement pour établir l'équilibre de diffusion du gaz de la bulle, mais aussi parce que la chimie contribue à l'équilibre énergétique. Comme le montre un travail remarquable de Brian Storey et Andrew Szeri, de l'université de Berkeley, les réactions chimiques peuvent réduire de façon significative la température maximale de la bulle12. Les principales réactions, telles que la dissociation de la vapeur d'eau, consomment en effet de l'énergie : c'est autant de chaleur en moins pour chauffer la bulle. Aucun de ces modèles ne peut prétendre reproduire directement les chiffres expérimentaux pour l'intensité lumineuse, mais ils semblent tous pointer vers un maximum de température aux environs de 10 000 kelvins.
En nous fondant sur la dynamique classique de la bulle, et en considérant que l'intérieur de celle-ci est uniforme, nous avons obtenu une estimation de température légèrement supérieure, en négligeant la chimie13. Ce schéma très simple peut alors être incorporé dans un modèle complet de la stabilité de la bulle et de l'émission lumineuse par un émetteur thermique volumique.
Ce modèle permet de retrouver assez précisément des données expérimentales pour la sonoluminescence monobulle avec de l'argon et du xénon. Nos calculs portant sur la durée de l'éclair en fonction de l'amplitude des ultrasons, pour une concentration fixe de gaz dans l'eau, reproduisent ainsi assez bien les données mesurées par l'équipe de S. Putterman14 fig. 5.
En outre, notre modèle permet de calculer la durée de l'éclair à différentes longueurs d'onde : en accord avec les expériences, les impulsions rouge et ultraviolette durent à peu près aussi longtemps. Ainsi, la différence la plus étonnante avec le comportement du corps noir peut être expliquée : pour un émetteur thermique volumique, le mécanisme d'émission lumineuse dépend étroitement du petit nombre d'électrons libres dans le gaz, qui lui-même augmente de façon exponentielle avec la température. Si la température chute de seulement 10 % au- dessous de sa valeur maximale, la production de photons est fortement réduite pour toutes les longueurs d'onde, ce qui conduit à des durées d'impulsion identiques.
Pas de « nouvelle physique ». De nombreux détails de ce modèle sont encore à améliorer. Par exemple, une prise en compte satisfaisante des réactions chimiques nécessiterait plus de données sur leurs vitesses aux densités extrêmes qui règnent dans la bulle contractée. Le paramètre essentiel du calcul est la température, et seule une modélisation plus perfectionnée ou une autre avancée expérimentale pourront déterminer cette quantité avec une précision raisonnable. Par ailleurs, si la température était un peu plus faible que ce que nous pensons, une partie de l'émission pourrait aussi provenir des processus moléculaires observés dans la sonoluminescence multibulle.
Malgré ces incertitudes, la sonoluminescence n'a aujourd'hui plus grand-chose de mystérieux : c'est simplement un processus d'émission thermique par une source inhabituelle, un petit volume de gaz qui a été comprimé jusqu'à des densités proches de celles de l'état solide et chauffé à environ 10 000 kelvins, et dont la petite taille fait qu'il reste transparent pour les photons. L'explication a nécessité l'alliance de savoirs provenant d'une grande diversité de champs. Les oscillations de la bulle et sa stabilité ont été expliquées par la dynamique des fluides et par l'acoustique ; sa température par la dynamique des fluides et la chimie ; l'émission lumineuse elle-même par la physique des plasmas...
Aucune « nouvelle physique » n'a été inventée, les températures obtenues ne sont pas assez élevées pour déclencher la fusion nucléaire lire « La "sonofusion" a fait long feu », page 32 et nous n'avons utilisé que des faits bien connus dans différents champs de la physique. Mais c'est la synthèse de ces faits et la façon dont ils sont conjugués qui font de la sonoluminescence un objet d'étude fascinant et excitant. La description complète et cohérente que nous avons aujourd'hui du phénomène n'a été obtenue que grâce à un travail expérimental qui a tracé la voie, permettant d'éliminer des théories et d'en confirmer d'autres.
Par Sascha Hilgenfeldt, Detlef Lohse
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
LE LASER |
|
|
|
|
|
Le laser
back to basic - par Cécile Michaut dans mensuel n°347 daté novembre 2001 à la page 52 (2858 mots) | Gratuit
Inventé il y a quarante ans, le laser a investi notre vie quotidienne et le secteur industriel. Lecture d'information, chirurgie, découpe, soudure, guidage et mesures de distance sont autant de domaines d'utilisation de cette lumière organisée. Einstein, qui a découvert le phénomène à l'origine de l'émission laser, aurait-il imaginé en 1917 un tel succès ?
Qu'est-ce que la lumière laser ?
La discipline, dont on dit qu'elle fait la force des armées, fait aussi la spécificité de la lumière laser. En effet, la lumière ordinaire, qu'elle provienne du Soleil ou d'une ampoule à incandescence, se propage dans toutes les directions, et sa décomposition en un arc-en-ciel révèle de multiples ondes lumineuses qui, n'ayant pas été émises en même temps, oscillent de manière indépendante les unes des autres. Contrairement à cette lumière quelque peu anarchique, la lumière laser fait donc preuve d'une discipline remarquable. Elle est, en général, composée d'une seule couleur - on dit qu'elle est monochromatique - et se déplace dans une direction bien précise, formant un faisceau qui diverge très peu. La lumière laser peut ainsi être comparée à une troupe de soldats au pas cadencé, tandis que la lumière classique ressemblerait plus à une foule, où chacun va dans sa direction, avec son propre rythme. Monochromatisme et directivité sont les deux vertus majeures qui ont permis aux lasers de proliférer.
Qui a découvert le principe du laser ?
Le phénomène fondamental a été décrit dès 1917 par Albert Einstein : c'est l'« émission stimulée ». Il ne pouvait être imaginé en dehors du cadre de l'interprétation quantique de la matière et de la lumière : amorcée par Einstein en 1905, cette vision du monde physique permet de considérer la lumière comme une onde ou un ensemble de particules, les photons. Lorsqu'un atome absorbe l'énergie lumineuse apportée par un photon, un de ses électrons passe du niveau d'énergie le plus bas baptisé fondamental à un autre niveau plus élevé dit excité : pour que cette absorption ait lieu, il faut que l'énergie du photon soit rigoureusement égale à la différence d'énergie entre ces deux niveaux. Inversement, lorsqu'un électron « redescend » d'un niveau d'énergie vers un niveau plus bas, l'atome émet un photon dont l'énergie est, là aussi, égale à la différence d'énergie entre les deux niveaux. Ce photon est émis dans une direction aléatoire. Ainsi décrite, l'émission « spontanée » de photons est au coeur de la production de la lumière ordinaire.
Pour qu'il y ait émission « stimulée », il faut qu'un atome se trouve déjà dans un niveau d'énergie excité. S'il rencontre un photon de même énergie que celui qui serait émis spontanément, Einstein a démontré mathématiquement qu'il devait émettre un photon aux caractéristiques strictement identiques à celui qu'il vient de rencontrer : on dispose alors de deux photons de même énergie donc de même longueur d'onde, même direction et même phase. L'atome, quant à lui, a perdu son énergie et retourne à son état fondamental.
Quand le laser a-t-il été mis au point ?
Si le principe a été décrit en 1917, il n'a été mis en oeuvre dans un dispositif expérimental que dans les années 1950 ! Il s'agissait plus précisément d'un maser microwave amplification by stimulated emission of radiation , c'est-à-dire d'un appareil destiné à amplifier, grâce à l'émission stimulée, des ondes dont la longueur d'onde est beaucoup plus petite que la lumière.
Dans un milieu quelconque, les atomes restent très peu de temps dans l'état excité, et, en moyenne, l'immense majorité d'entre eux se trouve dans leur état fondamental. La fréquence des émissions stimulées est alors très faible. Pour tirer profit du principe décrit par Einstein, il faut que la majorité des atomes soit dans un état excité, ce qu'on appelle une inversion de population. Tirant profit des connaissances accumulées sur les radars à partir de la Seconde Guerre mondiale, les Américains Charles Townes, James Gordon et Herbert Zeiger sont parvenus, en 1954, à isoler des molécules d'ammoniac excitées de toutes les autres molécules restées dans l'état fondamental. Une émission maser pouvait ainsi avoir lieu de façon significative et mesurable. Malheureusement, par principe, la séparation des molécules ne permettait pas l'émission continue du rayonnement : lorsque les molécules excitées ont émis leur photon, l'émission s'arrête.
De fait, réaliser une inversion de population sans séparer physiquement les molécules nécessite au moins trois niveaux d'énergie dans l'atome : le niveau fondamental, le niveau excité, et un troisième niveau intermédiaire accessible uniquement à partir du niveau supérieur. Une fois excités, les atomes se désexcitent spontanément vers ce niveau intermédiaire, mais, si la désexcitation depuis le niveau intermédiaire vers le niveau fondamental est peu probable, il apparaît alors une accumulation d'atomes sur ce niveau dit métastable. On a ainsi « pompé » des atomes du niveau fondamental vers le niveau intermédiaire : l'inversion de population est réalisée. Un laser continu doit donc contenir des atomes ou des molécules possédant de tels niveaux d'énergie. En se fondant notamment sur les travaux du physicien français Alfred Kastler prix Nobel de physique en 1966 pour ses recherches sur une technique appelée pompage optique, les physiciens soviétiques Nikolai BasovBassov et Aleksandr Prokhorov ont développé un nouveau type de maser, et ils ont partagé avec Townes le prix Nobel de physique en 1964. A l'époque où ils sont apparus, l'utilité des masers n'avait rien d'évident. Sceptiques, certains collègues de Townes ironisaient même ouvertement sur l'acronyme qui, disaient-ils, ne signifiait rien d'autre que « Means of Acquiring Support for Expensive Research » moyens d'acquérir des fonds pour des recherches coûteuses !
Persévérant, Townes, encore lui, a publié en 1958, en collaboration avec Arthur Schawlow, le principe de réalisation d'un laser, où le « l » de light lumière remplace le « m » de microwave micro-onde. C'est cependant Theodore Maiman qui, le premier, a fabriqué en 1960 le premier dispositif expérimental. A la surprise de nombreux chercheurs, le milieu qu'il a utilisé n'était pas un gaz, mais un solide : un barreau de rubis. Ce laser ne fonctionnait qu'en mode pulsé, mais la même année Peter Sorokin et Mirek Stevenson ont développé un laser à quatre niveaux d'énergie, capable d'émettre un rayonnement en continu. La technologie du laser était née. Restait à trouver ses applications... Aujourd'hui, sa grande polyvalence nous a fait oublier que, longtemps, le laser est resté « une solution en attente d'un problème » !
Quels sont les éléments d'un laser ?
Un laser requiert des atomes ou des molécules excitables, formant le milieu laser, sous forme de solide, de liquide ou de gaz, et une source d'énergie susceptible d'exciter ces constituants. L'émission stimulée peut commencer dès qu'un premier photon de fréquence adéquate est présent dans le milieu. Il provoque alors l'émission d'un autre photon, chacun entraînant encore l'émission d'un photon, et ainsi de suite : c'est l'amplification de la lumière. Pour faire fonctionner ce laser, il faut encore un oscillateur, composé d'un cylindre allongé dont les extrémités sont formées de deux miroirs parallèles. Lorsque des photons sont émis dans la grande direction de ce cylindre voir figure ci-contre, la lumière fait de nombreux allers et retours entre les miroirs, provoquant de nombreuses autres émissions stimulées. L'un des deux miroirs n'est pas totalement réfléchissant. Une petite proportion 1 % ou 2 % de la lumière le traverse, et forme le faisceau laser.
Mais plutôt que de parler du laser, mieux vaut mentionner les lasers, tant ils diffèrent selon l'application à laquelle on les destine. En effet, quoi de commun entre le petit laser de nos platines de compact disques, consommant quelques milliwatts, et ceux utilisés dans les recherches sur la fusion nucléaire, capables d'émettre un rayonnement de plusieurs centaines de milliers de milliards de watts pendant un temps très bref quelques femtosecondes, soit des millionièmes de milliardièmes de seconde ? Et comment passer sous silence la grande largeur du spectre des couleurs des lasers, depuis l'infrarouge jusqu'à l'ultraviolet, voire aux rayons X ?
Dans les années 1970, ont été développés des lasers d'un nouveau type, dits lasers à semi-conducteurs ou diodes lasers. Ces dernières sont assez différentes des lasers classiques. Elles sont formées à la jonction entre deux types de semi-conducteurs baptisés n et p. Les premiers possèdent un excès d'électrons, les seconds un déficit. Lorsque l'on fait passer un courant à travers cette diode, certains électrons se retrouvent au-dessus d'un niveau d'énergie à partir duquel ils peuvent se désexciter. L'inversion de population est obtenue directement par le courant électrique. Ce sont ces diodes lasers qui ont donné un nouvel essor aux applications, notamment en électronique.
Existe-t-il des lasers naturels ?
Dans certaines régions de formation d'étoiles massives, ou de transformation d'étoiles évoluées en étoiles géantes rouges, les conditions sont réunies pour que des émissions de type maser se produisent. Des molécules comme l'eau, le méthanol ou l'oxyde de silicium possèdent en effet des niveaux d'énergie adaptés à une émission stimulée dans le domaine micro-onde. Le pompage est plus facile dans ce domaine que dans le visible car les énergies mises en jeu sont bien plus faibles. Il est provoqué par le rayonnement cosmique, ou par des collisions avec l'élément chimique majoritaire dans l'espace, l'hydrogène. Les masers naturels ne possèdent évidemment pas de cavité résonnante qui, comme celle de nos lasers, serait susceptible d'amplifier le phénomène. Puisqu'il faut suffisamment de molécules ayant subi l'inversion de population, le milieu « inversé » doit posséder une taille minimale. Selon les observations des astronomes, cette taille est de l'ordre de 100 millions à 1 milliard de kilomètres, ce qui est très petit à l'échelle du cosmos la lumière met quelques dizaines à quelques centaines de seconde pour parcourir une telle distance. Parce qu'elle n'est pas spécifiquement amplifiée dans une direction donnée, la lumière des masers cosmiques n'est pas directive, mais les propriétés de monochromatisme sont conservées. Les masers sont facilement observables, car l'atmosphère est transparente aux micro-ondes. Elle est en revanche presque totalement opaque à l'infrarouge. Or, les atmosphères de Mars et de Vénus émettent du rayonnement dans le domaine infrarouge, dû à des molécules de dioxyde de carbone. Voilà pourquoi les astronomes ont dû attendre les télescopes spatiaux pour observer des lasers cosmiques.
Quelle utilisation pour les lasers en médecine ?
Médecins et chercheurs ont perçu très tôt le potentiel du laser. Dès 1961, soit un an après la mise au point du premier laser à rubis, les Américains Charles Koester et Charles Cambell réalisaient la première application thérapeutique sur l'homme, en détruisant la tumeur rétinienne d'un patient à l'aide d'un tel laser. De nombreuses pistes thérapeutiques ont ensuite été explorées, mais seules sont restées celles pour lesquelles il n'existe pas d'alternative au laser. La palme revient incontestablement à l'ophtalmologie : recollement et soins de la rétine, découpe et coagulation des vaisseaux rétiniens, etc. Le laser possède ici un avantage capital : il peut être envoyé à travers l'oeil sans l'abîmer car il est focalisé en un point précis, où il dépose toute sa puissance. De même, en dermatologie, le laser permet de coaguler des vaisseaux sous la peau sans dommage, par exemple pour le traitement des taches de vin. En dentisterie, le laser est particulièrement apprécié pour les opérations provoquant des saignements importants, comme la chirurgie des gencives ou l'orthodontie.
Parallèlement à ces utilisations en thérapeutique, se développent depuis le milieu des années 1980 les applications en diagnostic. La détection précoce des cancers en est l'exemple le plus avancé, validé par de nombreuses études cliniques. Une fibre optique dirigeant un faisceau laser de faible intensité sur les muqueuses provoquera, par exemple, une fluorescence différente si le tissu est cancéreux ou s'il est sain. De même, l'analyse de l'absorption des tissus dans le domaine infrarouge renseigne sur leur oxygénation, avec des applications en cardiologie, pour la surveillance des hémorragies cérébrales, ou encore pour l'analyse des performances des athlètes.
Quelles sont les principales applications des lasers ?
Combien de fois avez-vous utilisé un laser aujourd'hui ? Si vous avez écouté un compact disque, tiré vos documents sur une imprimante laser et fait vos courses dans un supermarché équipé de caisses à code barre, voilà au moins trois circonstances. Les lecteurs de CD contiennent des diodes laser, dont le faisceau interfère avec les reliefs du disque. Il convertit les minuscules creux et bosses du disque en information numérique, qui est ensuite traitée. Le laser est ici utilisé pour la finesse et la directivité du faisceau, ainsi que sa cohérence. Les diodes utilisées aujourd'hui pour ces applications émettent en général dans l'infrarouge. Mais la découverte de diodes émettant dans le bleu fait l'objet de nombreuses recherches : grâce à une longueur d'onde plus courte, la résolution serait plus fine, et la densité d'information augmenterait. En divisant par deux la longueur d'onde, la densité d'informations sur une surface est en effet multipliée par quatre.
L'industrie est aussi grande utilisatrice de lasers. Le faisceau laser est facilement focalisé et concentre une grande énergie sur une toute petite surface. Il est ainsi possible de souder des métaux de manière très efficace car, au-delà d'une certaine énergie atteinte, par exemple, en focalisant un laser de quelques kilowatts de puissance sur une tache d'un dixième de millimètre de largeur, le métal se vaporise localement, et l'énergie est déposée à l'intérieur du métal. Le laser permet de graver, percer ou découper des métaux, mais aussi de découper de nombreuses autres matières, comme le tissu. Il est également utilisé pour le nettoyage de surfaces, notamment dans le domaine de la microélectronique : les surfaces sont recouvertes d'un mince film d'eau, dont la brusque évaporation par le laser entraîne les particules polluantes.
Enfin, la directivité du laser en fait un instrument de choix pour la mesure de distances, et pour guider les machines de travaux publics. Le tunnel sous la Manche a notamment bénéficié du laser, pour contrôler la direction de perçage. La qualité du laser est telle que l'on peut mesurer la distance Terre-Lune avec une précision de quelques millimètres, grâce à un panneau de miroirs déposés sur la Lune lors de la mission Apollo 11 en 1969 : parce que la divergence du laser est très réduite, un faisceau de dix centimètres sur la Terre atteindra la Lune avec une largeur de deux kilomètres seulement. Il suffit de mesurer le temps de trajet aller-retour d'une impulsion laser pour, connaissant la vitesse de la lumière, en déduire la distance.
Plus rapides, plus fins, plus précis : pour paraphraser la devise olympique, les scientifiques développent aujourd'hui des lasers aux impulsions toujours plus brèves, aux raies toujours plus fines donc à la longueur d'onde plus petite, et à la fréquence toujours plus précise. Objectifs principaux : améliorer la gravure par lithographie laser des circuits électroniques, analyser des réactions chimiques, ou augmenter la densité d'information transmise à travers les fibres optiques.
Comment peut-on refroidir avec un laser ?
D'habitude, le laser est associé à la chaleur plutôt qu'au froid : il peut souder des métaux, brûler des cellules biologiques, etc. Il paraît donc totalement contradictoire qu'il serve également à refroidir des atomes. Pourtant, le laser permet d'obtenir des températures extrêmement basses. Comment est-ce possible ? La température est l'expression du mouvement désordonné des atomes dans toutes les directions : plus les atomes bougent vite, plus la température est élevée. Or, les photons peuvent exercer une force sur un atome et le ralentir. Si l'on choisit convenablement la fréquence d'un faisceau laser dirigé contre un jet d'atomes, les atomes absorbent les photons, et subissent un effet de recul. En revanche, les atomes excités réémettent un photon dans n'importe quelle direction et l'effet mécanique moyen de cette désexcitation est nul : les atomes sont ainsi freinés, donc refroidis.
Depuis les premières réalisations, vers 1985, de refroidissements d'atomes par cette méthode, bien d'autres variantes plus efficaces mais plus compliquées ont été inventées, qui ont permis d'atteindre des températures de seulement quelques milliardièmes de degré au-dessus du zéro absolu 10-9 K. Ces travaux, réalisés notamment au laboratoire Kastler Brossel de l'Ecole normale supérieure de Paris, ont valu à Claude Cohen-Tannoudji le prix Nobel de physique en 1997.
Le laser peut-il être une arme ?
Lorsque l'on évoque les « armes laser », surgissent tout de suite les images du film La Guerre des étoiles , dans lequel le héros combat avec une « épée laser ». En fait, une telle arme ne peut pas exister, du moins sous cette forme. Tout d'abord, on ne voit pas un tel faisceau tant qu'il ne frappe aucun obstacle surface, poussière ou fumée dans les spectacles avec laser. De plus, dans le film, l'épée avait une taille d'environ un mètre. Or, un faisceau laser se propage tant qu'il ne rencontre pas d'obstacle : il ne peut donc pas avoir une longueur bien définie.
Cependant, l'idée du rayon laser détruisant l'ennemi n'est plus tout à fait de la science-fiction, mais il est loin d'être au point. L'armée américaine prévoit d'effectuer les premiers essais d'interception, depuis l'espace, de missiles balistiques à l'aide de lasers en 2010. Sur Terre, de telles interceptions sont plus difficilement envisageables : un rayon laser de très forte puissance ne se propage pas très loin dans l'air, car il interagit avec la matière qu'il rencontre molécules de l'air, poussière, vapeur d'eau, etc., et il perd ainsi beaucoup d'énergie. Sans parler des intempéries, qui neutralisent le faisceau.
En revanche, le laser est très utilisé pour le guidage des armes, notamment des missiles. Il permet également de simuler la fusion des bombes à hydrogène, car leur grande puissance très conce
Par Cécile Michaut
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
L'ÉQUATION ULTIME POUR LA PHYSIQUE |
|
|
|
|
|
3 - L'équation ultime pour la physique
dossier spécial - par Lisa Randall dans mensuel n°390 daté octobre 2005 à la page 42 (2800 mots) | Gratuit
Existe-t-elle cette « théorie du Tout » qui expliquerait simplement l'ensemble des phénomènes physiques ? De nombreux physiciens se sont en tout cas attelés à son élaboration. À la fin du siècle dernier, le développement de la théorie des cordes laissait penser à certains qu'ils y parviendraient rapidement. C'était sans compter avec la complexité du monde.
Les physiciens aiment les choses simples. Depuis près d'un siècle, bon nombre d'entre eux ont recherché un cadre conceptuel unique qui permettrait d'expliquer simplement pourquoi notre Univers est tel qu'il est, et pourquoi son contenu se comporte comme nous l'observons. Cette quête, dont on ne sait si elle s'achèvera un jour, a déjà permis d'améliorer considérablement notre compréhension du monde, en particulier, depuis quelques années, avec le développement de la théorie des cordes.
Une quête audacieuse
Existe-t-il une « théorie du Tout » ? Une théorie fondée sur un petit nombre de paramètres reliés entre eux par une seule équation, qui permettrait de prédire l'ensemble des phénomènes physiques connus ? L'idée est particulièrement audacieuse. Telle est pourtant la quête dans laquelle se sont engagés des physiciens depuis près d'un siècle.
Compte tenu de la complexité du monde, ils sont peut-être trop optimistes. Même si elle existe, on trouvera fort probablement parmi ses conséquences des phénomènes secondaires complexes, que l'on ne pourra pas prévoir de façon simple. De plus, en admettant que les scientifiques parviennent à faire des prédictions à partir de l'équation d'une théorie ultime, celles-ci dépendraient toujours de conditions initiales incertaines : comment tout a commencé lire « À la recherche du temps zéro », p. 30. Enfin, quand bien même ils découvriraient une théorie dont la formulation paraîtrait extrêmement simple, il est fort probable qu'il faudrait lui ajouter des éléments pour ajuster ses prédictions aux grandeurs mesurables de l'Univers.
Malgré ces réserves, et même si elle n'aboutit pas, la recherche d'une « théorie du Tout » a une certaine utilité. Elle peut d'abord améliorer notre compréhension de principes physiques fondamentaux. Elle pourrait aussi nous rapprocher d'une théorie physique plus générale que celles dont nous disposons aujourd'hui, qui décrirait une plus grande diversité de phénomènes. C'est déjà ce qui s'est produit dans le passé.
Premiers pas vers l'unification
La première étape vers une « théorie du Tout » consisterait à unifier les quatre forces fondamentales de la physique : la gravitation, l'électromagnétisme, et les deux forces nucléaires, faible et forte. La gravitation et l'électromagnétisme sont bien connus : ces forces sont responsables respectivement de la chute des corps et de la propagation de la lumière, par exemple. Les deux autres n'ont été identifiées et comprises qu'au XXe siècle. La force faible intervient dans les interactions nucléaires qui permettent au soleil de briller. La force forte permet quant à elle la cohésion des particules élémentaires au sein des noyaux atomiques.
À basse énergie * , les forces nucléaires se comportent d'une manière très différente des forces électromagnétiques et gravitationnelles. À cause de cela, et du fait que les forces nucléaires étaient encore inconnues il y a une centaine d'années, les premières tentatives d'unification ne concernèrent d'abord que la gravité et l'électromagnétisme. En 1919, soit cinq ans après qu'Albert Einstein eut achevé sa théorie de la relativité générale, qui est surtout une théorie de la gravitation, le mathématicien allemand Theodor Kaluza formula une théorie particulièrement intéressante [1] .
Observant que la relativité générale reste valable si l'espace compte plus de dimensions que les trois qui nous sont familières, Kaluza proposa l'existence d'une quatrième dimension spatiale qu'il ne faut pas confondre avec le temps, quatrième dimension de l'espace-temps. Grâce à cette dimension supplémentaire, l'électromagnétisme apparaissait au sein d'une théorie qui ne contenait au départ que la gravitation. Les deux forces résultaient des oscillations de la même particule, le « graviton », censé transmettre les interactions gravitationnelles. Dans la direction des trois dimensions spatiales ordinaires, ces oscillations produisaient la gravité ; dans la direction de la dimension supplémentaire, elles produisaient la force électromagnétique. Selon cette théorie, toutefois, les intensités des forces électromagnétique et gravitationnelle auraient dû être identiques. Or l'expérience montre que ce n'est pas le cas : ces intensités diffèrent même de plusieurs ordres de grandeur. Cela n'a pas empêché Einstein de suivre la piste proposée par Kaluza à la recherche d'une théorie unificatrice, et de développer ses propres stratégies dans les trente dernières années de sa vie. En vain.
La découverte des forces nucléaires marqua un tournant important dans le casse-tête de l'unification des forces. Les physiciens comprirent alors que la gravité était fondamentalement différente des trois autres forces. Ils se focalisèrent donc sur l'unification de ces dernières. Sheldon Glashow et Steven Weinberg, alors tous les deux à l'université Harvard, et Abdus Salam, alors à l'Imperial College de Londres, firent le premier pas dans cette direction en développant indépendamment, entre 1961 et 1967, la théorie « électrofaible », qui unifie électromagnétisme et force faible.
Au-delà du Modèle standard
Selon cette théorie, que tous les physiciens considèrent aujourd'hui comme correcte, la force électromagnétique n'était pas une force distincte dans l'Univers primordial. Ce n'est que plus tard, lorsque l'Univers s'est suffisamment refroidi, que cette force, transmise par une particule sans masse, le photon, s'est différenciée de la force faible. Ce succès attira des critiques. Ainsi, c'est à cette époque que l'écrivain polonais Stanislaw Lem inventa l'expression « théorie du Tout » pour se moquer des théories d'un savant farfelu apparaissant dans plusieurs de ses romans de science-fiction.
Toutefois, en 1974, en suivant la même logique, Glashow et son collègue de Harvard Howard Georgi proposèrent une théorie qui englobait toutes les forces non gravitationnelles [2] . Selon eux, une « grande force unifiée » s'était partagée en trois peu après le Big Bang, alors que l'Univers commençait à se dilater et à se refroidir. Ils démontrèrent que les équations qui décrivent les particules connues et les forces non gravitationnelles auxquelles elles sont soumises entrent dans un cadre mathématique sous-jacent unique.
Il restait à traiter le problème des intensités des interactions. Pour que l'unification fonctionne, les trois forces devaient avoir la même intensité aux énergies et températures élevées qui caractérisaient les premiers instants de l'Univers ; elles devaient aussi avoir des intensités différentes aux énergies et températures basses, conditions dans lesquelles les physiciens réalisent aujourd'hui leurs expériences.
La « théorie quantique des champs * » permettait de calculer la variation de l'intensité d'une interaction en fonction de l'énergie. Peu après la proposition de Glashow et Georgi, ce dernier réalisa ce calcul, avec Weinberg et Helen Quinn, de l'université de Californie, pour les trois forces non gravitationnelles [3] . Ils trouvèrent que leurs intensités variaient avec l'énergie, de sorte qu'elles devaient avoir la même intensité pour une énergie cent mille milliards de fois plus grande que celles auxquelles des expériences avaient été réalisées.
Nous savons aujourd'hui que ces calculs n'étaient pas assez précis pour démontrer l'unification. Des mesures plus précises de l'intensité des forces indiquent que celles-ci ne se rejoignent pas tout à fait à haute énergie. Nous savons aussi aujourd'hui que des théories qui vont au-delà du Modèle standard, la théorie qui décrit les particules connues ainsi que leurs interactions [4] , entretiennent l'espoir d'une unification des forces et, partant, de la découverte de la « théorie du Tout ». L'un de ces modèles, la « supersymétrie », qui associe une nouvelle particule « supersymétrique » à chaque particule du Modèle standard, est à ce titre très intéressant [fig. 1] [5] . Dans les théories supersymétriques, élaborées dans les années 1970, les contributions de particules virtuelles permettent en effet aux forces non gravitationnelles de s'unifier à très haute énergie. Nous ne savons pas à ce jour si des particules supersymétriques existent vraiment, mais nous espérons que de futures expériences permettront de trancher.
De façon remarquable, à l'énergie très élevée à laquelle les forces non gravitationnelles semblent s'unifier, même la gravité a une intensité comparable aux trois autres forces : cela laisse penser qu'elle pourrait être unifiée avec celles-ci. Avant d'y parvenir, nous devrons trouver une théorie de la gravitation plus générale encore que la relativité générale. Malgré ses succès indéniables, celle-ci ne serait pas la théorie ultime de la gravité, car elle ne s'applique pas à des distances extrêmement courtes. En fait, à des distances de l'ordre de la longueur de Planck 10-33 centimètre, la taille de l'Univers immédiatement après le Big Bang la description quantique du graviton n'est plus pertinente. Pour expliquer les tout premiers instants de l'Univers, ou, ce qui revient au même, les phénomènes physiques à très haute énergie, nous devons donc trouver une théorie de la gravitation s'appliquant au-dessous de l'échelle de Planck.
Vibrations et membranes
La « théorie des cordes » est considérée comme la meilleure candidate pour atteindre cet objectif. En théorie des cordes, la nature de la matière diffère radicalement des approches traditionnelles de la physique : les objets les plus élémentaires sont des boucles unidimensionnelles, ou « cordes », en vibration dont la longueur est la longueur de Planck [fig. 2] . Contrairement aux cordes d'un violon, celles-ci ne sont pas composées d'atomes, eux-mêmes composés d'électrons et de noyaux, eux-mêmes composés de quarks. En fait, c'est exactement le contraire : toutes les particules connues sont produites par les vibrations de ces cordes.
Cette théorie avance également des idées provocantes sur la nature de l'espace. En effet, ses prévisions n'ont de sens que si l'espace contient plus de trois dimensions. Selon les modèles considérés, il y en aurait neuf ou dix, voire davantage.
Initialement, les théoriciens pensaient ne devoir utiliser que des cordes fondamentales, dont les différents modes de vibration produisaient l'ensemble des particules. Mais, depuis la fin des années 1990, ils ont compris qu'ils devaient prendre en compte d'autres objets afin d'expliquer l'organisation des particules connues et leur dynamique : les « branes ». Ces branes sont des sortes de membranes qui s'étendent dans plusieurs dimensions de l'espace. Elles peuvent piéger les particules et les forces qui, du coup, ne « ressentent » plus ce qu'il se passe dans les autres dimensions.
La théorie des cordes n'est pas la seule tentative d'unification de la mécanique quantique et de la gravitation. La « gravité quantique en boucles », par exemple, qui a été inventée vers le milieu des années 1980, a la même ambition. La théorie des cordes est toutefois la plus prometteuse, car elle embrasse les prévisions de la relativité générale, de la mécanique quantique et de la physique des particules ; elle permettrait en outre d'étendre la physique à des domaines de distance et d'énergie pour lesquels les théories concurrentes sont inadaptées. Bien qu'elle ne soit pas encore assez développée pour que l'on puisse tester son efficacité dans ces conditions insaisissables, elle a d'ores et déjà permis l'obtention de résultats qui apportent un éclairage intéressant sur des problèmes relatifs à la gravitation quantique et à la physique des particules.
L'un des plus grands succès de la théorie des cordes comme théorie de la gravitation quantique concerne les trous noirs. En 1996, Andrew Strominger et Cumrun Vafa, deux théoriciens de l'université Harvard, ont fabriqué à l'aide de branes un objet correspondant à un trou noir [6] . Ils ont ensuite compté le nombre d'assemblages différents permettant d'obtenir le même résultat : ce nombre indique la quantité d'information que peut contenir l'objet. Or ils ont retrouvé de cette façon un résultat obtenu dans les années 1970 par Stephen Hawking et Jacob Bekenstein, alors tous les deux à l'université de Cambridge, qui avaient réalisé des calculs de thermodynamique sur les trous noirs. C'est une preuve que la théorie des cordes permet de décrire au moins certaines propriétés de l'Univers.
La nature de la gravitation
En 1997, Juan Maldacena, à l'époque à l'université Harvard, formula une idée tout aussi excitante concernant la gravitation, dont nous n'avons pas encore compris toutes les conséquences. Il a démontré qu'une théorie particulière de la gravitation contient la même information qu'une théorie qui prenait en compte les autres types de forces mais pas la gravitation [7] . En d'autres termes, si l'on souhaite effectuer un calcul dans le cadre d'une de ces théories, il existe en principe un calcul correspondant dans l'autre théorie qui donne la solution. En outre, sa théorie « non gravitationnelle » appliquée sur une surface particulière de l'espace serait complètement équivalente à sa théorie gravitationnelle dans l'espace de dimension plus élevée délimité par cette surface. Cette découverte semble indiquer quelque chose de fondamental sur la nature même de la gravitation. Là encore, la recherche d'une « théorie du Tout », bien qu'elle n'aboutisse pas complètement, nous permet des avancées déterminantes.
Un autre résultat des dix dernières années a été une meilleure compréhension des liens qui existent entre les différentes versions de la théorie des cordes. Au milieu des années 1990, on disposait en effet de cinq variantes, chacune décrivant des interactions différentes. Grâce notamment aux travaux d'Edward Witten, de l'Institut des études avancées de Princeton, nous savons désormais que ces cinq théories, apparemment différentes, ont le même contenu physique [8] . Witten en a déduit l'existence d'une théorie plus fondamentale, qu'il a baptisée « théorie M », qui rassemblerait dans un même cadre la « supergravité » à onze dimensions et les différentes expressions de la théorie des cordes.
Ainsi, même si la théorie des cordes a souvent été présentée comme la « théorie du Tout », nous devons nous rendre à l'évidence : ce n'est pas la théorie la plus générale. Alors qu'initialement les physiciens espéraient que cette théorie permettrait de faire des prédictions univoques sur les propriétés de l'Univers, ils se sont aperçus qu'il existe de nombreux modèles, chacun contenant différentes forces, différentes dimensions et différentes combinaisons de particules. La théorie M et les branes augmentent considérablement le nombre de manières dont la théorie des cordes permet de décrire l'existence des particules et des forces.
Des dimensions enroulées
Un autre exemple est l'incapacité de la théorie des cordes à expliquer pourquoi la géométrie de notre Univers est telle que nous l'observons. Les théoriciens des cordes ont longtemps pensé beaucoup le pensent encore que les dimensions supplémentaires de l'espace étaient compactées sur de très courtes distances, et enroulées les unes sur les autres, formant une structure appelée « espace de Calabi-Yau ». Or, il existe a priori un très grand nombre d'espaces de Calabi-Yau. Avec certains d'entre eux, on retrouve bien les trois familles de particules élémentaires décrites par le Modèle standard, identifiées dans les expériences. Mais avec d'autres, il peut y avoir plusieurs centaines de familles de particules élémentaires. Aucune théorie ne permet de choisir un espace de Calabi-Yau en particulier, celui qui donnerait sa géométrie à notre Univers.
En 1999, avec Raman Sundrum, de l'université Johns-Hopkins, nous avons trouvé une autre explication de l'arrangement des dimensions supplémentaires. Nous avons démontré que, si les dimensions spatiales ordinaires sont correctement courbées - comme le postule la théorie de la relativité d'Einstein en présence d'un certain type d'énergie -, les dimensions supplémentaires peuvent être « cachées » même si leur taille est infinie [9] . En raison de la courbure de l'espace et du temps, la gravitation est alors localisable dans ces dimensions supplémentaires, même si, en principe, elle peut s'étendre à l'infini.
Ces exemples montrent que nous avons encore des progrès à faire pour comprendre pourquoi les particules et les interactions déduites de la théorie des cordes ont les propriétés que nous observons dans notre monde. Nous comprendrons peut-être pourquoi certaines manifestations de la théorie des cordes prennent le pas sur les autres, mais bien que sa formulation sous-jacente soit une théorie unique, la théorie des cordes, dans son état actuel de développement, ne permet pas de prédire toutes les caractéristiques de l'Univers.
Pour conclure, il est sans doute trop ambitieux de chercher à découvrir directement une « théorie du Tout ». Les progrès viendront davantage d'une compréhension plus fine des principes directeurs caractérisant une théorie fondamentale, mais aussi de la recherche de solutions à des problèmes moins abstraits pour lesquels on peut faire des expériences. Des avancées graduelles devraient ainsi guider les physiciens qui cherchent une manière de raccorder la théorie des cordes à notre monde.
Si les théories que certains physiciens et moi-même avons avancées sont correctes, nous en saurons probablement plus sur les dimensions cachées de l'Univers une fois que le grand collisionneur de hadrons du CERN, près de Genève, sera opérationnel, après 2007 [10] . Des signes de l'existence des particules supersymétriques pourraient aussi être identifiés. J'ignore si nous allons trouver un jour les réponses à toutes nos questions ou découvrir une théorie unificatrice. Je suis en revanche certaine que ces recherches continueront de nous rapprocher d'une meilleure compréhension des lois fondamentales de la nature.
EN DEUX MOTS - Depuis près d'un siècle, les physiciens cherchent une théorie capable d'unifier la mécanique quantique et la relativité, et de révéler ainsi la nature unique des quatre forces fondamentales. La théorie des cordes, souvent qualifiée de « théorie ultime », est considérée aujourd'hui comme la meilleure candidate. Mais des travaux récents suggèrent qu'elle ne serait pas le dernier mot de la physique.
Par Lisa Randall
Vous devez vous identifier ou créer un compte pour réagir à cet article
COMMENTAIRE (1)
Le casse-tête de l'unification des forces
Soumis le 17/03/2015 par bschaeffer@wana... | #1
Il n'y a pas de casse-tête de l’unification des forces car seules deux sont prouvées. La force dite de Coulomb, répulsive, serait équilibrée par la "force forte", imaginée avant la découverte des moments magnétiques des nucléons. L'usage constant du mot "FIT" prouve que les lois fondamentales de l'énergie nucléaire sont inconnues.
L'énergie de liaison du deuton s'obtient en appliquant les lois de Coulomb en 1/r et de Poisson en 1/r³. Le deuton contient 3 charges électriques ponctuelles, alignées par raison de symétrie. L'une est positive dans le proton, les deux autres, égales et opposées dans le neutron pas si neutre. L'équilibre STATIQUE entre les charges électriques et les moments magnétiques du proton et du neutron, colinéaires et opposés, donne, au point d'inflexion horizontal de la courbe, l'énergie de liaison (impossible à afficher ici mais vous pouvez voir mon article de Dubna:
http://isinn.jinr.ru/past-isinns/isinn-22/progr-27_05_2014/Schaeffer.pdf
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante |
|
|
|
|
|
|