|
|
|
|
|
|
HESS-II, LE PLUS GRAND TELESCOPE |
|
|
|
|
|
Paris, 31 juillet 2012
Première lumière de HESS-II, le plus grand télescope gamma au monde
Le télescope HESS-II (1), situé en Namibie, a été mis en service le 26 juillet 2012 à 0h43 (heure de Paris). Équipé d'un miroir de 28 mètres de diamètre, HESS-II est le plus grand télescope gamma jamais construit à ce jour. Avec ce nouveau géant, l'observatoire international H.E.S.S., auquel contribuent le CNRS et le CEA, permettra de découvrir de nombreuses nouvelles sources cosmiques de haute énergie et de caractériser les phénomènes les plus violents de l'Univers.
Dans l'Univers, les trous noirs supermassifs, les amas de galaxies, les supernovæ, les étoiles doubles et les pulsars jouent le rôle d'accélérateurs naturels de particules cosmiques (électrons, ions…). Ces particules y acquièrent une très grande énergie, produisant des rayons gamma (2). Lorsque ces rayons atteignent l'atmosphère terrestre, ils se détruisent en une gerbe de particules secondaires, qui émettent un flash très ténu de lumière bleutée, la lumière Cherenkov. C'est cette lumière que les télescopes gamma, comme HESS-II, peuvent détecter.
HESS-II s'ajoute aux instruments de l'observatoire H.E.S.S., jusque-là composé de quatre télescopes de 12 mètres de diamètre, en fonctionnement depuis 2004 et dédiés à l'étude de l'Univers violent.
Le fonctionnement de HESS-II
La caméra électronique du nouveau télescope pourra détecter la lumière Cherenkov avec un « temps d'exposition » de quelques milliardièmes de secondes, une rapidité quasiment un million de fois supérieure à celle d'une caméra normale. D'une masse de trois tonnes, cette caméra est suspendue à 36 mètres au-dessus du miroir principal du télescope : pointée à la verticale, cette installation atteint alors la hauteur d'un immeuble de vingt étages. En dépit de sa taille et de ses 600 tonnes, HESS-II pourra pivoter deux fois plus rapidement que les autres télescopes de H.E.S.S., afin de répondre immédiatement aux alertes de sursauts gamma, ces signaux d'explosions qui arrivent soudainement de n'importe où dans le ciel.
La caméra et son système électronique intégré représentent l'essentiel de la contribution française dont le maître d'œuvre est l'IN2P3 du CNRS (3). Le CEA s'est investi dans le développement d'une puce dédiée, composante clé de l'électronique. Pour la réalisation de cette électronique, les laboratoires français se sont appuyés sur l'expertise acquise lors de la construction des caméras des quatre premiers télescopes, ainsi que sur un réseau de partenaires industriels.
Plus d'une centaine de sources cosmiques de rayons gamma de très haute énergie ont été recensées à ce jour, dont une majorité grâce à l'observatoire H.E.S.S. Le télescope HESS-II permettra d'étudier de façon plus détaillée les processus à l'œuvre dans ces objets du cosmos (trous noirs supermassifs, supernovae…), et de découvrir de nouvelles sources - voire des sources de nature encore inconnue - en détectant les rayons gamma dans une gamme d'énergie plus basse, jusque-là inexplorée.
HESS-II ouvre également la voie à la réalisation du CTA (Cherenkov Telescope Array), réseau de télescopes Cherenkov, défini comme une très haute priorité par les physiciens des astroparticules et les agences de financement en Europe. Le CTA permettra, grâce à la mise en réseau de plusieurs télescopes, d'élargir les gammes d'énergie détectables et d'affiner la résolution des résultats.
La collaboration internationale H.E.S.S.
Leader en Europe et dans le monde, la collaboration H.E.S.S. réunit actuellement 180 chercheurs issus de 28 laboratoires de 12 pays différents, principalement en Allemagne et en France. La collaboration a obtenu une riche moisson de résultats scientifiques largement reconnus au niveau international. Ces résultats ont également été possibles grâce aux moyens informatiques du Centre de calcul de l'IN2P3 du CNRS. La collaboration H.E.S.S. a notamment été récompensée en 2006 par le prix Descartes Recherche et en 2010 par le prix Bruno Rossi, décernés respectivement par la Commission européenne et par la Société américaine d'astronomie.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
MARS ET SES GLACIERS |
|
|
|
|
|
Paris, 19 janvier 2006
Simuler le climat martien pour comprendre l'origine de ses glaciers
Une équipe internationale, conduite par François Forget, chercheur au Laboratoire de météorologie dynamique (1) vient de développer une simulation numérique à haute résolution du climat martien il y a plus de 5 millions d'années. Se basant sur un changement d'obliquité (2) de la planète rouge, le modèle permet d'expliquer parfaitement la présence de glaciers rocheux sur les flancs des grands volcans martiens, dont Olympus Mons, et à l'est du bassin d'Hellas. Ce résultat est publié dans Science du 20 janvier 2006.
Alors que la glace est actuellement instable à la surface de Mars en dehors des régions polaires, les récentes missions spatiales, et en particulier la mission européenne Mars Express de l'ESA (European Space Agency), ont découvert de spectaculaires traces de glaciers dans certaines régions de Mars situées aux moyennes latitudes et même sous les tropiques. Ces traces de glaciers, et parfois même de véritables glaciers rocheux (formés de glace recouverte de roches et de sédiments) ont ainsi été repérées près des flancs ouest des grands volcans martiens de la région de Tharsis et sur le volcan géant Olympus Mons. De l'autre coté de la planète, une petite région grande comme la France et située à l'est du bassin d'Hellas regroupe les exemples les plus spectaculaires de glaciers rocheux, dont le spectaculaire « glacier sablier » découvert par Mars Express en 2005.
Comment expliquer la présence de tels glaciers à ces latitudes sur Mars ? Pourquoi sont-ils regroupés dans certaines régions spécifiques ?
De nouvelles simulations numériques à haute résolution du climat de Mars, effectuées par François Forget au Laboratoire de météorologie dynamique de l'Institut Pierre Simon Laplace en collaboration avec une équipe franco-américaine (3), ont pu reproduire la formation de ces glaciers, et expliquer leur origine.
En pratique, les chercheurs ont utilisé un modèle sophistiqué de l'atmosphère et du cycle de l'eau sur Mars, conçu pour simuler les détails de la météorologie martienne telle que l'observent les missions spatiales actuelles. En faisant tourner le même modèle, mais en supposant que l'obliquité de la planète était passée de 25,2° (valeur actuelle) à 45° (une valeur souvent atteinte dans le passé, le plus récemment il y a 5,5 millions d'années (4)), les planétologues ont découvert une planète Mars au climat relativement comparable à celui que nous observons aujourd'hui, mais sur laquelle le cycle de l'eau était intensifié par le chauffage de la calotte polaire nord en été, une saison relativement torride lorsque l'axe de rotation de Mars est très incliné. Dans ces conditions plus « humides », le modèle prédit la condensation et l'accumulation de glace sur les flancs « au vent » des grandes montagnes martiennes, selon un mécanisme de précipitation couramment observé dans les îles montagneuses sur Terre. Les zones d'accumulation de la glace prédites correspondent précisément aux régions où des traces de glacier ont été découvertes. Ceci indique que le phénomène simulé est probablement celui qui est à l'origine de ces formations (Figures 1A et 1B).
De nouvelles simulations ont ensuite été conduites en supposant cette fois que le réservoir originel de glace d'eau était la calotte polaire sud plutôt que la calotte nord comme de nos jours. Cela ne correspond pas aux conditions actuelles, mais la géologie du Pôle sud indique que cela a dû être le cas par le passé. Dans ces simulations, l'est du bassin d'Hellas s'est révélé être le lieu d'intenses précipitations, et à nouveau le modèle peut expliquer pourquoi cette petite région est à présent recouverte de formations glaciaires. Le modèle montre que la topographie du bassin d'Hellas perturbe l'écoulement atmosphérique et force l'essentiel de la vapeur d'eau issue de la calotte polaire sud en été à passer à l'est d'Hellas. Là, la rencontre avec des masses d'air plus froid se solde par la condensation d'une grande partie de la vapeur d'eau, et sa précipitation (Figures 2A et 2B).
Ces simulations montrent que le système climatique que nous observons aujourd'hui sur Mars, exposé aux fortes variations d'obliquité que connaît la planète rouge, est capable de déplacer de vastes quantités de glace et de former des glaciers sous les tropiques et aux moyennes latitudes. Ces glaciers ont dû être exposés à des températures très différentes de celles que connaissent les dépôts de glace présents sur Mars de nos jours. Ainsi, est-il envisageable que certains dépôts de glace aient pu fondre et être le siège d'écoulement d'eau liquide, ce qui expliquerait la présence de ravines et de trace de ruisseau géologiquement récent, en particulier à l'est d'Hellas.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
L'ENERGIE NOIRE |
|
|
|
|
|
Paris, 30 janvier 2008
Une nouvelle lumière sur l'énergie sombre
L'accélération de l'expansion de l'Univers est un phénomène pour l'instant inexpliqué. Ce mystère pourrait être levé grâce à une nouvelle méthode mise au point par une équipe internationale de chercheurs, dont plusieurs appartiennent à des laboratoires associés au CNRS(1). Pour cela, les scientifiques ont, pour la première fois, mesuré la position et la vitesse de plus de 10 000 galaxies dans l'Univers lointain(2). Cette campagne d'observation a été menée via l'instrument VIMOS(3), dont le responsable est Olivier Le Fèvre, directeur du Laboratoire d'astrophysique de Marseille (LAM, CNRS / Université de Provence / Observatoire astronomique Marseille Provence). Non seulement cette méthode inédite apporte des informations précieuses sur la nature de l'énergie noire, mais elle ouvre aussi de nouvelles perspectives sur l'identification de l'origine de l'accélération cosmique. Elle fait l'objet d'une publication dans Nature le 31 janvier.
L’expansion de l’Univers est actuellement plus rapide qu’elle ne l’était par le passé. Mais, cette accélération ne peut s’expliquer avec les lois fondamentales de la physique sans émettre de nouvelles hypothèses. Parmi les plus probables, deux sont aujourd’hui particulièrement étudiées, à savoir :
- soit l’Univers est rempli d’une mystérieuse énergie sombre produisant une force répulsive qui contrebalance le freinage gravitationnel produit par la matière contenue dans l’Univers ;
- soit la théorie de la gravitation n’est pas correcte et doit être modifiée, en ajoutant par exemple des dimensions supplémentaires à la description de l’espace.
Or, les observations actuelles du taux d’expansion de l’Univers ne permettent pas de trancher entre ces deux options.
Une collaboration internationale, composée de 51 scientifiques répartis dans 24 institutions, a découvert une nouvelle méthode qui pourrait aider à résoudre ce problème. « Nous avons montré que les sondages qui mesurent les positions et les vitesses des galaxies distantes offrent une nouvelle approche pour percer ce mystère. » déclare Luigi Guzzo, coordinateur de l’étude.
Sonder des galaxies il y a 7 milliards d’années, une première
La technique est basée sur un phénomène bien connu : le déplacement des galaxies résulte de la somme de l’expansion globale de l’Univers (qui éloigne les galaxies les unes des autres), et des effets dus à la matière présente dans l’environnement local. « À partir des vitesses d’un grand échantillon de galaxies, observées 7 milliards d’années dans le passé, nous avons reconstitué la structure en trois dimensions d’un volume important de l’Univers lointain et ainsi observé la distribution des galaxies dans l'espace 3D(4) » indique Olivier Le Fèvre, l’un des co-auteurs de l’article et responsable de l’instrument VIMOS(5), avant de préciser que « les vitesses contiennent également une information sur le déplacement relatif local des galaxies. Ce dernier introduit des distorsions, petites mais mesurables, par rapport à leur déplacement global. La mesure de ces distorsions est une façon de tester la nature de l’énergie sombre. » Ce sont donc ces différences qui dévoilent aux chercheurs des informations sur les composants de l’énergie noire.
Besoin de 70% d’énergie noire pour modéliser l’Univers
Les mesures obtenues soulignent la nécessité d’ajouter un ingrédient supplémentaire d’énergie dans la "soupe cosmique" à partir de laquelle l'ensemble de notre Univers a évolué au cours du temps. Cette conclusion renforce l’hypothèse émise ces dix dernières années, selon laquelle il serait nécessaire de prendre en compte, dans les modèles, une forme simple d’énergie sombre identifiée à la constante cosmologique, introduite par Albert Einstein. Avec cette nouvelle méthode, les scientifiques parviennent au même chiffre que les études précédentes, indiquant que l’énergie sombre compose 70% de l’Univers.
Ces mesures n’auraient pu être possibles sans le concours du spectrographe VIMOS installé sur Melipal(6), l’un des quatre télescopes du VLT de l’ESO. Elles s’inscrivent dans le cadre du sondage VIMOS VLT Deep Survey (VVDS). Le VVDS, dont Olivier Le Fèvre est le responsable scientifique, a permis d’observer le spectre de plus de 10 000 galaxies dans un champ de 4 degrés carrés (20 fois la taille de la pleine Lune), remontant à des époques allant jusqu’à plus de la moitié de l’âge de l’Univers (soit environ 7 milliards d’années dans le passé).
Enfin, les simulations effectuées à partir des données VVDS mettent en évidence que la technique que les chercheurs ont utilisée, appliquée à des sondages explorant des volumes dix fois supérieurs à celui couvert par le VVDS, pourra permettre de déterminer efficacement l’origine de l’accélération cosmique : provient-elle d’une forme d’énergie sombre d’origine exotique ? ou, une modification des lois de la gravitation est-elle nécessaire ?. Les résultats encouragent donc les chercheurs à poursuivre l'exploration de l'Univers par des sondages encore plus ambitieux.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
PLANCK ET SA NOUVELLE IMAGE DU BIG BANG |
|
|
|
|
|
Paris, 21 mars 2013
Planck dévoile une nouvelle image du Big Bang
Lancé en 2009, Planck, le satellite de l'Agence spatiale européenne (ESA) dédié à l'étude du rayonnement fossile, livre aujourd'hui les résultats de ses quinze premiers mois d'observations. Ils apportent une moisson de renseignements sur l'histoire et la composition de l'Univers : la carte la plus précise jamais obtenue du rayonnement fossile, la mise en évidence d'un effet prévu par les modèles d'Inflation, une révision à la baisse du rythme de l'expansion de l'Univers, ou encore une nouvelle évaluation de la composition de l'Univers. Bon nombre de ces données ont été obtenues grâce au principal instrument de Planck, HFI, conçu et assemblé sous la direction de l'Institut d'astrophysique spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS.
Depuis sa découverte en 1965, le rayonnement fossile constitue une source de connaissance précieuse pour les cosmologistes, véritable « Pierre de Rosette » permettant de décrypter l'histoire de l'Univers depuis le Big Bang. Ce flux de photons détectable sur l'ensemble du ciel, dans la gamme des ondes radio, témoigne de l'état de l'Univers lors de sa prime jeunesse et recèle les traces des grandes structures qui se développeront par la suite. Produit 380 000 ans après le Big Bang, au moment où se formèrent les premiers atomes, il nous arrive quasi inchangé et permet aux scientifiques d'accéder à l'image de ce que fut le cosmos à sa naissance, voici environ 13.8 milliards d'années. Confronter ces mesures aux modèles théoriques peut nous apporter de multiples informations : non seulement sur l'évolution de l'Univers depuis l'apparition du rayonnement fossile, mais également sur des événements antérieurs qui en sont la cause et pour lesquels les astrophysiciens disposent de peu d'observations.
Une nouvelle carte du rayonnement fossile
C'est l'une de ces fenêtres sur l'Univers primordial que vient d'ouvrir la mission Planck. Lancé en 2009, ce satellite de l'ESA a, durant un an et demi, dressé une carte de ce rayonnement fossile sur l'ensemble du ciel. Planck possède deux instruments dont l'un, l'Instrument haute fréquence HFI, a été conçu et assemblé sous la direction de l'Institut d'Astrophysique Spatiale (CNRS/Université Paris-Sud) avec un financement du CNES et du CNRS. Grâce à eux, il a pu mesurer avec une sensibilité sans précédent les variations d'intensité lumineuse de l'Univers primordial, venant affiner les observations des missions spatiales COBE (lancée en 1990) et WMAP (en 1998). Ces variations d'intensité lumineuse (qui se présentent sous la forme de taches plus ou moins brillantes) sont précisément l'empreinte des germes des grandes structures actuelles du cosmos et désignent les endroits où la matière s'est par la suite assemblée, puis effondrée sur elle-même, avant de donner naissance aux étoiles, galaxies et amas de galaxies.
Selon certaines théories, l'origine de ces « grumeaux » ou « fluctuations » du rayonnement fossile est à chercher du côté de l' « Inflation », un évènement survenu plus tôt dans l'histoire de l'Univers. Durant cet épisode, très violent, qui se serait déroulé environ 10-35 secondes après le « Big Bang », l'Univers aurait connu une brusque phase d'expansion et aurait grossi de manière considérable, au moins d'un facteur 1026. Planck a permis de démontrer la validité de l'une des prédictions essentielles des théories d'Inflation : l'intensité lumineuse des « fluctuations à grande échelle » doit être légèrement supérieure à celle des « fluctuations à petite échelle ». En revanche, pour les plus grandes échelles, l'intensité observée est inférieure de 10% aux prédictions de l'Inflation, un mystère qu'aucune théorie ne parvient à expliquer aujourd'hui. Planck confirme par ailleurs avec certitude l'existence d'autres anomalies observées par le passé comme une mystérieuse asymétrie des températures moyennes observées dans des directions opposées ou l'existence d'un point froid.
Les données de la mission nominale de Planck font l'objet d'une trentaine de publications simultanées disponibles le 21 mars 2013 sur http://sci.esa.int, puis le 22 mars 2013 sur www.arxiv.org.
Parmi ces autres résultats :
- La confirmation de la « platitude » de l'Univers
- La révision à la baisse de la constante de Hubble, et donc du rythme d'expansion de l'Univers
- Une nouvelle évaluation, à partir du seul rayonnement fossile, de la composition de l'Univers : 69.4 % d'énergie noire (contre 72.8 % auparavant), 25.8 % de matière noire (contre 23 %) et 4.8 % de matière ordinaire (contre 4.3 %).
- Des cartes inédites précieuses pour affiner le scénario de l'histoire de l'Univers et comprendre la physique qui régit son évolution : elles permettent de montrer comment se répartissent la matière noire et la matière ordinaire sur la voûte céleste ; le « fond diffus infrarouge » correspond quant à lui à la lumière émise par les poussières de toutes les galaxies au cours des dix derniers milliards d'années et permet donc d'identifier les zones où se sont concentrés les objets constitués de matière ordinaire.
- Une première analyse de la polarisation du signal cosmologique, qui montre que les données de Planck sont remarquablement cohérentes avec celles sur l'intensité du rayonnement fossile aux échelles correspondantes aux futurs amas de galaxies ; une analyse plus complète sera fournie en 2014, ainsi que d'autres résultats de la mission Planck.
La contribution de la recherche française dans la mission Planck
La France est leader de l'instrument haute fréquence Planck-HFI, essentiel pour les résultats cosmologiques : sa construction a coûté 140 millions d'euros et mobilisé 80 chercheurs de dix laboratoires du CNRS, du CEA et d'universités, ainsi que de nombreux ingénieurs et techniciens. La France a assuré plus de 50% du financement de cette construction ainsi que celui du traitement de ses données : ce financement provient pour moitié du CNES, pour moitié du CNRS et des universités. Elle participe également au financement de la mission elle-même via sa contribution financière au programme scientifique de l'ESA, soit 15% du coût de la mission.
Une contribution française essentielle au projet Planck a été la fourniture du système de refroidissement à 0.1 degrés au-dessus du zéro absolu de l'instrument HFI. Ce système, qui a fait l'objet d'un brevet CNES, a été inventé par Alain Benoît (CNRS), de l'Institut Néel (ce qui lui a valu la médaille de l'innovation 2012 du CNRS) et développé par la société Air Liquide. Grâce à cette innovation, la caméra HFI détient le record de froid pour un instrument spatial, avec un cryostat refroidi pendant près de mille jours à -273,05°C.
(http://www2.cnrs.fr/presse/communique/2679.htm).
L'exploitation des résultats scientifiques est assurée majoritairement par le CNRS, avec notamment Jean-Loup Puget (de l'IAS), « Principal Investigator » d'HFI, et François Bouchet (de l'IAP), « Co-Principal Investigator ».
DOCUMENT CNRS LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 ] Précédente - Suivante |
|
|
|
|
|
|