LES TROUS NOIRS ET LA FORME DE L'ESPACE
 

 

 

 

 

 

 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.

Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet

Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.

Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.
Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.

Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !
Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.

Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.
Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.

Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.

La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.
Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !

La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.
Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.

Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).
Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.
Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.

Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.
Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.

COMMENTAIRES

AJOUTER UN COMMENTAIRE LIRE LES COMMENTAIRES
Alain MOCCHETTI 14/02/2018 00H09
QU'EST-CE QU’UN VORTEX ESPACE - TEMPS ET UN TROU DE VER ?
Un Vortex Espace – Temps ou Porte Spatio-Temporelle est un 4ème type de VORTEX qui permet de voyager à la fois dans l’Espace et dans le Temps :
- Voyager dans l’Espace en reliant un Univers Multiple à un autre,
- Voyager dans l’Espace en reliant un Univers Parallèle à un autre,
- Voyager dans l’Espace en reliant 2 points au sein du même Univers Multiple ou du même Univers Parallèle.
Il permet de voyager également dans le Temps :
- Du Futur vers le Passé,
- Du Passé vers le Futur.
Certains Vortex qui permettent de voyager dans l’Espace Temps sont appelés TROU DE VER.
Définition d’un Trou de Ver :
Un trou de ver est, en physique, un objet hypothétique qui relierait deux feuillets distincts ou deux régions distinctes de l'espace-temps et se manifesterait, d'un côté, comme un trou noir et, de l'autre côté, comme un trou blanc. Un trou de ver formerait un raccourci à travers l'espace-temps. Pour le représenter plus simplement, on peut se représenter l'espace-temps non en quatre dimensions mais en deux dimensions, à la manière d'un tapis ou d'une feuille de papier. La surface de cette feuille serait pliée sur elle-même dans un espace à trois dimensions. L'utilisation du raccourci « trou de ver » permettrait un voyage du point A directement au point B en un temps considérablement réduit par rapport au temps qu'il faudrait pour parcourir la distance séparant ces deux points de manière linéaire, à la surface de la feuille.

Visuellement, il faut s'imaginer voyager non pas à la surface de la feuille de papier, mais à travers le trou de ver, la feuille étant repliée sur elle-même permet au point A de toucher directement le point B. La rencontre des deux points serait le trou de ver. L'utilisation d'un trou de ver permettrait le voyage d'un point de l'espace à un autre (déplacement dans l'espace), le voyage d'un point à l'autre du temps (déplacement dans le temps) et le voyage d'un point de l'espace-temps à un autre (déplacement à travers l'espace et en même temps à travers le temps). Les trous de ver sont des concepts purement théoriques : l'existence et la formation physique de tels objets dans l'Univers n'ont pas été vérifiées. Il ne faut pas les confondre avec les trous noirs, dont l'existence tend à être confirmée par de nombreuses observations, dont le champ gravitationnel est si intense qu’il empêche toute forme de matière de s'en échapper.
Alain Mocchetti
Ingénieur en Construction Mécanique & en Automatismes
Diplômé Bac + 5 Universitaire (1985)
UFR Sciences de Metz
alainmocchetti@sfr.fr
alainmocchetti@gmail.com
@AlainMocchetti

 

 VIDEO       CANAL  U         LIEN

 
 
 
  L'ANTIMATIÈRE EXISTE : JE L'AI RENCONTRÉE
 

 

 

 

 

 

 

L'ANTIMATIÈRE EXISTE : JE L'AI RENCONTRÉE

L' antimatière reste un mystère pour beaucoup d'entre nous. Elle fascine certains, elle fait éventuellement peur à d'autres. Mais, au fait, qu'est-ce que la matière ? Et qu'est-ce que l'antimatière ? Comment est venue l'idée que l'antimatière pouvait exister, et comment l'a-t-on découverte ? Et maintenant, où et comment la produit-on ? Comment l'observe-t-on ? Quelles sont ses propriétés ? Et notre Univers ? Est-il seulement fait de matière ? Et si oui pourquoi ?

Texte de la 219e conférence de l'Université de tous les savoirs donnée le 6 août 2000.
L’antimatière existe : je l’ai rencontrée par Catherine THIBAULT
« L’antimatière existe : je l’ai rencontrée », ce titre volontairement provocateur a pour but de souligner que l’antimatière n’est pas un mythe, mais une réalité. En effet, il est possible de détecter l’antimatière, d’en faire des faisceaux, ou de la confiner dans des pièges afin de l’observer tout à loisir.

La matière et ses constituants
« Antimatière », ce terme a été inventé par opposition à celui de matière Mais qu’est- ce au juste que la matière ? le Dictionnaire nous répond « ce dont une chose est faite » : notre corps est fait de matière, la terre sur laquelle nous vivons est faite de matière, le soleil et les planètes aussi.
En s’approchant du cœur de la matière grâce à des zooms de plus en plus puissants, dans le cas d’un cristal de silicium par exemple, on observe successivement (figure 1) que :
Figure 1 : Les constituants de la matière (d’après CERN)
- Le cristal est constitué d’« atomes » tous identiques disposés de façon très régulière.
- Chaque atome est constitué d’un noyau très dense doté d’une charge électrique positive (14+ pour le silicium) autour duquel gravite un nuage d’électrons. Les électrons e –
portent chacun une charge électrique négative, et l’atome est neutre. Le nombre d’électrons de l’atome détermine ses propriétés chimiques. L’atome de silicium est donc caractérisé par 14 électrons, tandis que, par exemple, l’hydrogène en a un seul, le carbone 6, et l’uranium 92.
- Le noyau lui-même est un agrégat de deux sortes de particules : des protons p
porteurs d’une charge électrique positive et des neutrons n sans charge, neutres comme leur nom l’indique. Le noyau de silicium a donc 14 protons. Mais la charge électrique des protons produit une force de répulsion entre eux, ce qui interdit l’existence de noyaux composés uniquement de protons, excepté l’hydrogène qui en a un seul. Les neutrons, grâce à leur interaction « forte » avec les protons assurent la cohésion du noyau. Mais, les noyaux composés uniquement de neutrons n’étant pas viables non plus, il faut un dosage convenable de chacun des partenaires n et p . Le noyau de silicium a 3 isotopes stables, le 28, le 29 et le
30 qui ont respectivement 14, 15 et 16 neutrons.
- Enfin, les protons et les neutrons sont eux-mêmes constitués de 3 « quarks » : 2
quarks « up » et 1 « down » pour le proton, 2 quarks down et 1 up pour le neutron. Actuellement, on pense que la matière stable, celle dont nous sommes faits, est formée
de ces 3 constituants ultimes : électrons, quarks up et quarks down, insécables. Mais il n’est pas absolument certain que les quarks soient insécables.

Les débuts de l’antimatière
À la fin du XIXe siècle, grâce en particulier à James Clerk Maxwell, les lois de l’électromagnétisme étaient fermement établies. Elles décrivaient le comportement d’un électron de faible vitesse, tel qu’il apparaît dans les phénomènes électriques. Mais, au début du 20ème siècle, deux problèmes apparurent qui remirent en question la validité universelle de ces lois. En 1906, Albert Einstein établit la théorie de la relativité restreinte et montra que les lois de Newton n’étaient plus valables lorsque la vitesse des particules s’approchait de celle de la lumière. Puis, en 1926, vint la Mécanique Quantique avec Wolfgang Pauli, Werner Heisenberg, et finalement Erwin Schrödinger qui montrèrent que l’électron a un spin +1/2
ou −1/2 . Ce spin peut être associé au sens du mouvement de rotation de l’électron. Les équations proposées par Schrödinger décrivaient le comportement de l’électron en tenant compte des aspects quantiques, mais seulement à faible vitesse.
C’est alors qu’un jeune physicien anglais, Paul Dirac, s’attaqua au problème de décrire un électron à la fois quantique et doté d’une vitesse très proche de celle de la lumière. Dès 1929, alors qu’il n’avait que 27 ans, il donna le résultat. Mais l’équation avait deux solutions ! la question, très débattue à l’époque fut alors de savoir si la deuxième solution correspondait ou non à une autre particule, et si oui, à laquelle ? Si la charge de la deuxième particule était négative comme celle de l’électron, son énergie était négative, ce qui n’avait pas de sens physique. Ce devait donc être une particule chargée positivement. La seule connue était le proton, mais sa masse était environ 2 000 fois supérieure à celle de l’électron. Cette hypothèse fut alors contestée par des physiciens tels que Heisenberg, Pauli ou Oppenheimer qui estimaient que la symétrie de l’équation impliquait l’égalité des masses des deux particules. Si la deuxième solution correspondait à une particule réelle, ce ne pourrait être qu’un
« antiélectron » e + de masse identique à celle de l’électron et de charge opposée.
Le débat en était là quand à l’autre bout du monde, un autre jeune physicien, Carl Anderson, fit une curieuse découverte. Il étudiait le rayonnement cosmique qui est composé de particules de très grande énergie provenant de tout l’univers. Pour visualiser le parcours des particules chargées, il utilisait une chambre de Wilson placée dans un champ magnétique qui courbe les trajectoires dans un sens ou dans l’autre selon le signe de la charge. Anderson détectait un grand nombre d’électrons, mais quelques uns d’entre eux, qu’il appela
« positons », tournaient en sens inverse comme s’ils avaient une charge positive. Lorsque Anderson publia cette observation, en 1932, le même phénomène avait aussi été observé à Cavendish par Blackett et Occhialini. Mais ces derniers n’osaient pas publier ce trop surprenant résultat sans le vérifier soigneusement. Ils le firent en 1933, avançant plusieurs explications dont celle de paires d’électrons négatifs et positifs. Il apparut alors que le positon découvert par Anderson n’était autre que l’antiélectron. Dirac eut le prix Nobel en 1933, et Anderson en 1936.

Après cette découverte sensationnelle, la question s’est immédiatement posée de savoir si les autres particules, comme le proton et le neutron avaient aussi leurs antipartenaires de mêmes masses et de charges opposées. La création et la disparition des antiparticules sont régies par la célèbre loi d’Einstein : E=mc 2 qui permet de transformer de l’énergie E en masse m , et vice-versa ( c est la vitesse de la lumière). Mais particule et antiparticule vont par paire : une paire se crée ou une paire « s’annihile ». Et si l’antiparticule est créée dans un environnement de matière, elle trouve très rapidement un partenaire d’annihilation. Le résultat final est de l’énergie sous forme de photons γ , c’est-à-dire de rayonnement.
Pour créer l’antiproton p (prononcé p-barre), ou l’antineutron n (n-barre), il faut créer une paire p− p ou n−n . C’est beaucoup plus difficile que pour la paire e –– e + car il faut 2000 fois plus d’énergie. Il faut donc disposer d’un accélérateur de particules
suffisamment puissant. Les Américains se lancèrent dans cette aventure, mais leur quête ne fut couronnée de succès que 23 ans plus tard grâce au Bevatron construit à Berkeley en Californie. p fut découvert en 1955 et n en 1956. (prix Nobel pour Chamberlain et Segré en
1959). Il était alors clair que, comme le proposaient les théoriciens, chaque particule a son antiparticule. Un cas très extraordinaire est celui du photon γ qui est sa propre antiparticule !
Par la suite, dans les années 70, des antinoyaux associant quelques p et quelques n
furent identifiés dans des chambres à bulles placées dans des faisceaux de protons de grande énergie à Brookhaven (USA), Serpukhov (URSS) ou au CERN, l’Organisation Européenne pour la Recherche Nucléaire. Enfin, en 1995, 9 antiatomes d’hydrogène (un antiproton autour duquel gravite un positon) ont été fabriqués au CERN. Fabriquer des antiatomes est beaucoup plus difficile que des antinoyaux car il faut mettre le positon en orbite. C’est comme si on voulait capturer une voiture de course pour l’obliger à tourner sur un manège de chevaux de bois. Mais, ces antiatomes n’ont survécu que quelques milliardièmes de secondes jusqu’à leur détection par annihilation.
L’antimatière et la médecine
Les positons ont été découverts dans le rayonnement cosmique, et pourtant, ils sont émis par certains noyaux radioactifs. Les isotopes stables de silicium ont 14, 15 ou 16 neutrons. La figure 2 indique les configurations stables pour les noyaux ayant 5 à 10 protons.

Figure 2 : Fragment de la charte des noyaux indiquant les noyaux stables ( fond gris clair), les émetteurs β − (fond gris foncé) et les émetteurs β + (fond noir)
Si un noyau a un excès de neutrons, comme par exemple le fluor 20, un de ses neutrons va se transformer en proton :
n→p+e− +νe soit 20F → 20Ne
C’est la radioactivité β − , la plus connue. ν e est l’antineutrino associé à e −. Il est très
difficile à détecter car il interagit très peu avec la matière.
Si par contre le noyau n’a pas assez de neutrons, comme le fluor 18, c’est un de ses
protons qui va se transformer en neutron :
p→n+e+ +νe soit 18F → 18O
et cette fois il y a production de positons. C’est la radioactivité β + . Le carbone 11, l’azote 13, l’oxygène 15, le fluor 18 sont de tels émetteurs β + dont les demi-vies (temps
nécessaire pour que la moitié des atomes se soient transformés) vont de quelques minutes à 2 heures. Ils peuvent être facilement produits par des petits cyclotrons et incorporés dans des molécules appropriées. Si ces molécules marquées sont injectées par voie intraveineuse dans
le corps humain, le positon émis va immédiatement rencontrer un électron du milieu ambiant qui en regorge, et s’annihiler :
e+ +e− →2γ
L’annihilation produit 2 photons γ qui ont une énergie de 511 keV 1 exactement égale
à la masse de l’électron et du positon. Ils partent dos à dos et émergent du corps humain. Leur détection simultanée par des détecteurs disposés en couronne permet de localiser dans l’espace la position des molécules émettrices. C’est le principe de la TEP (PET en anglais), la Tomographie par Émission de Positons.
La molécule la plus utilisée est le Fluoro-Desoxy-Glucose qui contient du fluor 18 (demi-vie 110 minutes). Le glucose se fixe préférentiellement sur les tumeurs malignes et sur certains organes. Il est aussi consommé par les parties du cerveau qui sont en activité.
Les nombreuses applications de la TEP sont liées à ses trois grandes qualités : sa sensibilité, son innocuité pour le patient, et sa réponse en temps réel. En médecine, elle est surtout utilisée pour le suivi des thérapies anticancéreuses. En recherche, elle permet d’étudier en temps réel le fonctionnement du cerveau (rôle des différentes zones, épilepsie, Parkinson,...), les microcirculations et les métabolismes du cœur, du poumon ou du rein, la caractérisation de récepteurs ou l’identification de l’expression d’un gène, par exemple.
En thérapie anticancéreuse, une nouvelle utilisation de la radioactivité β + a été

récemment mise en œuvre à Darmstadt en Allemagne. Les tumeurs sont détruites en les bombardant avec des ions de carbone, accélérés à des vitesses proches de celle de la lumière. Ces ions ont la propriété de détruire les cellules sélectivement en fin de parcours. À ce même point, ils peuvent interagir avec le milieu ambiant et perdre un neutron. Le carbone 12 stable
est alors transformé en carbone 11 radioactif β + dont la position peut être déterminée par un tomographe à positons. On peut ainsi contrôler en temps réel que la région détruite correspond
effectivement à la tumeur visée. Depuis 1997, 67 patients ont déjà été traités avec succès.
Un outil pour les physiciens
Seules les particules qui constituent la matière stable ont été évoquées jusqu’à présent. Mais beaucoup d’autres particules existent. Elles sont plus massives, et leurs durées de vie sont très éphémères. Certaines, découvertes par hasard, ont donné bien du souci aux théoriciens. D’autres, en revanche, sont prédites par les théoriciens, et il faut vérifier leur existence pour valider ou invalider les théories. Le problème pour les expérimentateurs est que plus la masse de la particule hypothétique est grande, et plus il faut d’énergie pour la créer. Et, comble de malheur, si on organise une collision entre une particule accélérée à une vitesse proche de celle de la lumière et une cible fixe, la relativité restreinte nous apprend qu’on ne dispose que d’une petite fraction de l’énergie cinétique. Pour un proton de 200 GeV on ne pourra transformer en masse que 20 GeV environ. Par contre, dans une collision frontale, toute l’énergie cinétique peut être transformée en masse : 2 particules de 200 GeV libéreront 400 GeV. Dans un accélérateur en forme d’anneau, les trajectoires sont courbées par des champs magnétiques. Il est donc possible de faire tourner en sens inverse, dans un seul et même anneau, une particule et son antiparticule, et d’organiser des points de rencontre entre elles. On a alors un collisionneur pour le prix d’un seul accélérateur.
Les premiers collisionneurs utilisant de l’antimatière ont été réalisés avec des positons qui sont faciles à obtenir à partir d’émetteurs β + , et des électrons. Ils ont fait découvrir

1 1 eV (électron-volt) est l’énergie acquise par un électron accéléré par une différence de potentiel de 1V. C’est une unité très petite. Ses multiples sont le keV (×1000), le MeV (×1 million), le GeV (×1 milliard). La masse de e - est 511 keV, celles de p et n sont proches de 1 GeV.
beaucoup de nouvelles particules. Par la suite, une source d’antiprotons a été réalisée au CERN en bombardant une cible fixe avec des protons de 25 GeV. Environ un proton sur 1000 donne naissance à une paire proton-antiproton. Les antiprotons créés sont alors sélectionnés et stockés dans un anneau (typiquement de quelques dizaines de mètres de diamètre). Malheureusement seul 1 antiproton sur 1000 va être ainsi stocké, car c’est un peu comme lorsque un enfant essaie de remplir une bouteille d’eau en s’approchant d’un arroseur à gazon. Une fois stockés, les antiprotons sont extraits à la demande et peuvent être injectés dans le collisionneur de la même façon que les protons, excepté le fait qu’ils vont tourner en sens inverse.

C’est ainsi que Carlo Rubbia a découvert en 1983 les particules porteuses de l’interaction « faible », nommées W +, W – et Z 0 de masse 90 GeV environ, qui avaient été prédites par les théoriciens. Cette découverte lui valut le prix Nobel dès 1984, ainsi qu’à Simon Van der Meer qui était le principal artisan du stockage des protons. Récemment, aux USA, à FermiLab, près de Chicago, un collisionneur de même type a permis la découverte du top, le 6ème quark très massif (175 GeV) qui manquait aux théoriciens. Enfin, au CERN, un très grand collisionneur électron-positon, le LEP, est installé dans un tunnel dont la circonférence équivaut à celle du périphérique de Paris. Il est utilisé pour la recherche d’une autre particule : le boson de Higgs, responsable de la masse des particules.
Les antiprotons, source d’énergie

Par annihilation proton-antiproton, toute la masse est transformée en énergie. C’est donc un carburant extrêmement efficace : 2 000 fois plus que la fission utilisée dans les réacteurs nucléaires, et 200 fois plus que les réactions de fusion dont le soleil tire son énergie. Mais il faut le fabriquer, ce qui nécessite un milliard de fois plus d’énergie qu’on en récupère. Les antiprotons accumulés au CERN pendant un an ne feraient fonctionner une ampoule électrique que pendant quelques secondes. Les applications ne peuvent donc être que pour des situations très particulières où le poids du carburant joue un rôle essentiel. L’application la plus intéressante serait pour les fusées ou les vaisseaux spatiaux, comme le propose la série de science fiction Star Trek pour son vaisseau Enterprise. L’utilisation de l’antimatière permettrait d’aller plus rapidement sur Mars par exemple, et surtout, permettrait de réaliser des missions actuellement impossibles car le poids de carburant est totalement prohibitif. Il suffirait de quelques millionièmes de grammes d’antimatière, mais leur production correspond à 100 000 ans de fonctionnement du CERN ou de FermiLab...Il faut aussi un stockage plus compact et plus durable que le stockage dans un anneau. Ceci est possible en décélérant les antiprotons et en les piégeant dans une « bouteille » électromagnétique. Des antiprotons ont pu être conservés plusieurs semaines ainsi confinés dans un espace de quelques centimètres. Mais le piège nécessite un excellent vide et des aimants supraconducteurs refroidis à quelques degrés Kelvin si bien que son encombrement est quand même de plusieurs mètres, et il ne peut contenir qu’une très petite quantité d’antimatière. Et là aussi seul un antiproton sur 1000 va se laisser piéger... Certains proposent aussi des armes, mais le problème du stockage sous un format compact est encore plus crucial, et les quantités nécessaires sont plutôt de l’ordre du milligramme. Ces applications futuristes ne sont donc pas pour demain !

Un sujet d’étude pour les physiciens
L’antimatière n’est pas seulement un outil, mais c’est un sujet d’étude passionnant pour les physiciens. La question essentielle est de savoir si toutes les propriétés sont exactement identiques au signe près, ou s’il existe certaines différences.
Une prédiction très forte est que les masses doivent être strictement identiques. Cette identité a pu être vérifiée avec une précision de 1 dix milliardième pour le proton et l’antiproton grâce au piège électromagnétique évoqué dans le paragraphe précédent. La comparaison a été effectuée au CERN par une équipe américaine, en mesurant leurs fréquences de rotation dans le piège, qui sont inversement proportionnelles à leurs masses. C’est comme si on avait pesé un camion de 10 tonnes à 1 milligramme près. Pour une autre particule, le kaon neutre, des mesures indirectes montrent une égalité des masses à 10-19 près, soit une précision encore 1 milliard de fois supérieure. Une nouvelle « usine d’antimatière » vient de démarrer au CERN. Son but principal est d’essayer de fabriquer des antiatomes d’hydrogène à partir des antiprotons et des positons stockés dans un piège. Leur très faible énergie permettra de les étudier pour chercher à déceler si d’infimes différences existent. Un autre type d’expérience consiste à remplacer un des électrons de l’atome par un antiproton qui a la même charge électrique afin d’étudier l’effondrement de ce système instable.

Cependant, une asymétrie matière-antimatière a quand même été observée dans un cas, mais seulement un, actuellement. Il s’agit du kaon neutre qui est une particule bien étrange puisque elle est formée d’un quark et d’un antiquark, l’un des deux étant le quark down et l’autre le quark nommé « étrange » justement, qui est instable. Depuis 1964, on sait qu’une asymétrie, appelée « violation de CP », existe entre le kaon neutre K 0 et son
antiparticule, le K0 . Mais l’expérience CP-LEAR, au CERN, a permis une observation directe de cette asymétrie. En effet, le kaon a l’étonnante propriété de pouvoir osciller entre matière
et antimatière. CP-LEAR a comparé les probabilités des 2 processus : K 0 → K0 et K0 →K 0 . Il faut réussir à « étiqueter » l’état matière ou antimatière du kaon à 2 instants différents : à l’instant de sa création, et à l’instant de sa disparition, qui ne sont séparés que par quelques milliardièmes de secondes. La création a été produite par annihilation d’un antiproton à l’arrêt dans une cible de protons, c’est-à-dire d’hydrogène. Le faisceau d’antiprotons était ralenti dans un décélérateur en anneau appelé LEAR (Low Energy Antiproton Ring) de telle sorte que les antiprotons terminaient leur parcours au centre de la cible.
La création du kaon est régie par les lois de l’interaction « forte » (π est une autre particule, appelée pion) :
p+p→K0 +K− +π+
p+p→K0 +K+ +π−
La disparition du kaon est régie par les lois de l’interaction « faible » :
K0 →e+ +π− +νe K0 →e− +π+ +νe
On voit donc que K 0 et K0 peuvent être étiquetés grâce au signe des charges électriques des particules associées aux 2 processus. Le détecteur construit par la Collaboration CP-LEAR à laquelle j’appartenais (une centaine de physiciens de 9 pays dont la France) a été optimisé pour identifier ces différentes particules et le signe de leur charge. L’asymétrie mesurée est de 0,7% en faveur de la matière.

Un univers d’antimatière ?
Matière et antimatière ne peuvent coexister sans s’annihiler, produisant alors du rayonnement. Le monde qui nous entoure : notre corps, la terre, les autres planètes, le soleil, notre galaxie, les autres galaxies aussi loin qu’on puisse les observer est seulement fait de matière, car sinon nous détecterions le rayonnement provenant des zones frontières d’annihilation. La théorie du Big Bang doit pouvoir rendre compte de ce fait extraordinaire.
Cette victoire de la matière sur l’antimatière est explicable en partie grâce à l’asymétrie décrite précédemment. Comme l’avait énoncé le physicien russe Andreï Sakharov dès 1967, il faut aussi que le proton soit instable, ce que les théories de grande unification prédisent, mais qui n’a pu être ni confirmé, ni infirmé par l’expérience. Le scénario du Big Bang prévoit qu’après quelques millisecondes, les protons et les neutrons vont s’annihiler avec leurs antiparticules, et, pour 1 000 000 000 d’annihilations, 1 seul proton ou neutron survivra, en bon accord avec les proportions photons/matière observées dans notre univers.

L’existence d’univers parallèles constitués d’antimatière ne peut être exclue expérimentalement, mais la séparation spatiale de la matière et de l’antimatière est difficile à imaginer dans le contexte du Big Bang.

Malgré tout, si jamais des extra-terrestres d’un univers très lointain nous contactaient dans le but de nous rencontrer, il serait prudent de s’assurer au préalable qu’ils vivent bien dans un univers de matière comme le nôtre. C’est possible grâce à l’asymétrie observée pour le kaon puisque les K 0 qui sont en surnombre doivent se désintégrer en donnant naissance à des positons qui ne sont pas les constituants des atomes dont nous sommes faits.

 

        VIDEO     canal U       LIEN
 

 
 
 
  EXOBIOLOGIE
 

 

 

 

 

 

 

exobiologie

Consulter aussi dans le dictionnaire : exobiologie
Science qui étudie les possibilités d'existence de la vie dans l'Univers, en dehors de la Terre. (Synonyme : bioastronomie.)


La vie existe-t-elle sur d'autres mondes que la Terre ?
L'idée que la vie puisse exister dans l'Univers ailleurs que sur la Terre est très ancienne. Exprimée dès le iiie s. avant notre ère par le philosophe grec Épicure, dans sa Lettre à Hérodote, elle a nourri, au cours des siècles, la réflexion de dizaines de penseurs et de savants parmi lesquels Bruno, Kepler, Huygens, Fontenelle, Kant, Goethe, Flammarion…

Une nouvelle science
Le développement de l'exploration spatiale, en particulier la décision américaine d'envoyer des hommes sur la Lune, a suscité un regain d'intérêt pour le problème de la vie extraterrestre. C'est au cours des années 1960 que l'Américain Joshua Lederberg, prix Nobel de physiologie ou médecine, forgea le mot exobiologie pour désigner l'étude scientifique de la vie extraterrestre. Depuis, le champ de recherche de l'exobiologie s'est étendu : il recouvre à présent l'étude de l'origine, de l'évolution et de la distribution de la vie dans l'Univers. Pluridisciplinaire, cette nouvelle science se situe au carrefour de la biologie, de la biochimie et de l'astronomie.

Comment la vie est-elle apparue sur la Terre ?
La vie terrestre, fondée sur la chimie du carbone, avec son apparente diversité à l'échelle macroscopique mais son indéniable unité à l'échelle de la cellule, constitue pour nous la seule référence connue, ce qui ne signifie pas pour autant que la vie ne puisse pas revêtir, le cas échéant, d'autres formes dans l'Univers. Pour les exobiologistes, il est donc fondamental de tenter de comprendre comment la vie est apparue sur la Terre.


À la fin du xixe s., avec la théorie de la panspermie, on pensait que la Terre avait été ensemencée par des germes extraterrestres. L'idée généralement acceptée aujourd'hui repose sur un concept introduit par le biochimiste soviétique A. I. Oparine dans les années 1920 : la vie est apparue sur la Terre il y a plus de 3 milliards d'années, à la suite d'une longue évolution chimique. C'est une alliance subtile entre la matière carbonée et l'eau à l'état liquide qui aurait permis cette évolution, grâce à une chimie organique complexe, dite « prébiotique ». L'expérience effectuée par le biochimiste américain Stanley Miller en 1953, démontrant la formation d'acides aminés à partir d'un mélange gazeux simple, fournit le premier support expérimental de cette théorie. De nouvelles pistes sont à présent explorées. Les sources hydrothermales sous-marines semblent des environnements où tous les ingrédients propices aux synthèses prébiotiques ont pu être réunis. Les matériaux carbonés apportés sur la Terre primitive lors de son bombardement par des corps d'origine extraterrestre (météorites, micrométéorites et comètes) ont pu aussi participer à la chimie prébiotique.
La vie sur Mars ?

Deux facteurs au moins semblent avoir joué un rôle décisif pour l'éclosion et le développement de la vie sur la Terre : la présence à sa surface d'eau à l'état liquide, et celle d'une atmosphère apte à arrêter les rayonnements nocifs provenant du Soleil ou de l'espace. On rêve depuis longtemps de découvrir dans le système solaire d'autres sites favorables à la vie. Parmi les deux planètes les plus voisines de la Terre, Vénus et Mars, on sait aujourd'hui que Vénus est un enfer. En revanche, Mars est la planète sur laquelle les chances de repérer des indices de vie sont les plus grandes, même si l'espoir caressé naguère par certains d'y trouver une civilisation techniquement avancée n'est plus de mise à l'ère spatiale.
Pendant le premier milliard d'années qui a suivi leur formation, la Terre et Mars semblent avoir subi une évolution assez semblable. Aujourd'hui, Mars conserve une atmosphère, bien que celle-ci soit fort ténue (environ 130 fois moins dense que l'atmosphère terrestre) et constituée principalement de gaz carbonique, toxique. Les températures à sa surface ne sont pas incompatibles avec la vie, bien qu'elles varient, selon la latitude et la saison, dans une très large gamme allant d'environ − 140 °C à + 20 °C. Enfin, les images spatiales et certaines données recueillies in situ ont révélé tout un faisceau d'indices qui semblent témoigner d'un ruissellement d'eau abondant dans le passé à sa surface. Certaines données recueillies en orbite depuis par la sonde américaine Mars Global Surveyor accréditent même l'hypothèse selon laquelle la planète aurait abrité dans son hémisphère Nord un vaste océan, et d'autres observations in situ donnent à penser qu'elle a dû être dans le passé plus chaude et plus humide qu'aujourd'hui, avec une atmosphère plus épaisse.

En fait, si l'absence d'eau à l'état liquide (liée à la faible pression atmosphérique) et les propriétés oxydantes de la surface rendent très improbable la présence actuelle de vie sur Mars, sauf peut-être en profondeur dans des « niches » écologiques, on peut toujours espérer découvrir des traces d'une vie passée. Ces recherches contribuent à stimuler l'exploration de Mars par des engins automatiques, en attendant le retour sur la Terre d'échantillons du sol martien et, ultérieurement, le débarquement de l'homme sur la planète.


Titan et Europe

Dans le système solaire, Titan, le plus gros satellite de Saturne, offre également un grand intérêt pour l'exobiologie. Unique satellite connu à être enveloppé d'une atmosphère dense, ce corps de 5 150 km de diamètre présente beaucoup d'analogies avec la Terre. Son atmosphère, comme celle de notre planète, est composée majoritairement d'azote. Depuis les observations effectuées par la sonde américaine Voyager 1 en 1980, on sait que sont fabriqués dans cette atmosphère des composés organiques provenant de la dissociation par le rayonnement solaire de ses deux composants principaux, l'azote et le méthane. Ces molécules à base d'azote, de carbone et d'hydrogène, appelées nitriles, ont abouti sur la Terre à la formation des acides aminés, « briques » fondamentales de la matière vivante. Une étape supplémentaire dans la connaissance de Titan a été franchie avec la mission américano-européenne Cassini-Huygens. En 2004, l'astre a été survolé et étudié par le vaisseau américain Cassini, porteur de la sonde européenne Huygens. Cette dernière a fourni elle-même une moisson d'informations et d'images lors de sa descente dans l'atmosphère de Titan, à la surface duquel elle s'est posée, le 14 janvier 2005.
Avec une température à la surface de − 179 °C, Titan serait une sorte de modèle glacé de la Terre primitive, où le rôle de l'eau est joué par des hydrocarbures : Cassini-Huygens a révélé que ceux-ci ne sont pas très abondants à l'état liquide à la surface (contrairement à ce que pensaient les spécialistes), mais certaines images prises par Huygens montrent cependant au sol des structures qui ressemblent à des réseaux fluviaux et des lacs asséchés. Au site d'atterrissage, la surface avait la consistance du sable mouillé, suggérant une humidification récente (peut-être due à du méthane remonté du sous-sol par des fissures) ; constituée, semble-t-il, pour une large part de glace d'eau « sale » (c'est-à-dire mélangée à des composés organiques déposés par l'atmosphère), elle est apparue aussi parsemée de blocs de glace, de quelques dizaines de centimètres.
L'attention des spécialistes se porte aussi sur Europe, l'un des quatre principaux satellites de Jupiter (3 138 km de diamètre). Son survol, en 1979, d'une distance de 200 000 km par la sonde américaine Voyager 2, avait révélé que cet astre est couvert de glace et avait permis de déceler à sa surface tout un réseau de fractures. De nouvelles images plus détaillées, obtenues en 1997 par la sonde américaine Galileo, d'une distance de moins de 600 km, montrent que sa surface, géologiquement très jeune, s'apparente à de la banquise ; on y voit des plaques de quelques kilomètres ressemblant à des icebergs, qui flottent peut-être sur un océan d'eau liquide ou se déplacent sur de la glace molle. Il n'est pas exclu que des formes de vie primitives aient pu éclore et se développer sous la glace.

La vie sur des exoplanètes ?
Les immenses nuages de gaz présents dans l'espace interstellaire renferment de très nombreuses molécules contenant du carbone, parfois complexes. On peut supposer que, là où les conditions sont favorables, une succession de processus physico-chimiques conduit à une complexification croissante et, finalement, à l'émergence de la vie. Les sites les plus favorables à l'émergence d'une vie du type terrestre doivent être des planètes tournant autour d'étoiles du même type que le Soleil (c'est-à-dire dont l'évolution comporte une très longue période de stabilité). Plusieurs conditions semblent nécessaires (mais non suffisantes) : il faut que ces planètes ne soient ni trop chaudes ni trop froides, autrement dit qu'elles ne tournent ni trop près ni trop loin de leur étoile ; que l'eau puisse exister à l'état liquide à leur surface ; enfin qu'elles soient enveloppées d'une atmosphère protectrice. La théorie actuelle de la formation des systèmes planétaires (à partir d'une nébuleuse de gaz et de poussières en rotation) donne à penser que de très nombreuses étoiles sont susceptibles d'être entourées de planètes. Cette hypothèse est confortée par la détection, depuis 1995 , de plus de 300  planètes autour d'étoiles comparables au Soleil et situées dans un rayon qui n'excède pas la centaine d'années-lumière. Cependant, la détection d'exoplanètes (ou planètes extrasolaires) est une opération très délicate et, pour des raisons liées à l'instrumentation utilisée, la plupart de celles identifiées jusqu'à présent sont des planètes très massives, vraisemblablement gazeuses et impropres à abriter la vie. Mais l'application de nouvelles techniques, telles que l'interférométrie optique et l'optique adaptative, à de grands télescopes implantés au sol, et la mise en œuvre de missions spatiales devraient autoriser dans les prochaines années la détection de planètes du type de la Terre, première étape vers la recherche de la vie hors du Système solaire. Puis, on tentera de savoir si la vie est présente sur ces exoplanètes, en recherchant dans leur spectre les signatures d'éléments chimiques caractéristiques de la présence de vie, comme l'ozone (beaucoup plus facile à détecter que l'oxygène moléculaire).

La recherche de civilisations extraterrestres
On est en droit de penser que si la vie est apparue ailleurs, elle a pu évoluer, comme sur la Terre, vers une vie intelligente technologiquement avancée. Cela justifie que l'on cherche à capter avec des radiotélescopes d'éventuels messages extraterrestres : c'est la méthode mise en œuvre dans le cadre du programme SETI (Search for Extra Terrestrial Intelligence). Depuis la première écoute SETI par le radioastronome américain Francis Drake au début des années 1960, de très nombreuses expériences similaires ont été effectuées. Elles n'ont permis de détecter, à ce jour, aucun signal d'intelligence extraterrestre. Cette recherche est toutefois extrêmement aléatoire compte tenu de la diversité des directions et des fréquences des sources potentielles d'émission.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
  ASTRONOMIE
 

 

 

 

 

 

 

astronomie

Consulter aussi dans le dictionnaire : astronomie
Science qui étudie les positions relatives, les mouvements, la structure et l'évolution des astres.

Principales branches

La branche la plus ancienne de l'astronomie est l'astronomie de position, ou astrométrie, dont l'objet est la détermination des positions et des mouvements des astres, l'établissement de catalogues d'étoiles, la mesure des distances stellaires et l'établissement de l'échelle astronomique de temps. La mécanique céleste, qui lui est intimement liée, traite des lois régissant les mouvements des astres ; elle permet les calculs d'orbites et l'établissement des éphémérides astronomiques. Astrométrie et mécanique céleste constituent ensemble l'astronomie fondamentale.
Beaucoup plus récente, puisqu'elle n'a pris son essor que dans la seconde moitié du xixe s., mais devenue aujourd'hui la branche principale de l'astronomie, l'astrophysique étudie la physique et l'évolution des diverses composantes de l'Univers.
À l'astrophysique se rattache la cosmologie, qui a pour objet l'étude de la structure, de l'origine et de l'évolution de l'Univers à l'échelle globale. Enfin, l'étude des possibilités d'existence de vie dans l'Univers fait l'objet d'une discipline particulière, la bioastronomie, ou exobiologie, au confluent de l'astronomie, de la biologie, de la biochimie, etc.
Quelques grandes étapes historiques
L'homme a sans doute été frappé très tôt par les phénomènes célestes, mais les Égyptiens, les Babyloniens et les Chinois sont les premiers peuples à avoir accumulé des observations astronomiques, à partir du IIIe millénaire avant J.-C., généralement à des fins pratiques (établissement du calendrier, agriculture, prévisions astrologiques) ou religieuses.

   

Ce sont les Grecs, à partir du vie s. avant J.-C., qui ont été à l'origine de l'astronomie scientifique. Cependant, l'autorité d'Aristote (ive s. avant J.-C.) imposa longtemps la croyance dans l'immobilité de la Terre. Le plus grand astronome observateur de l'Antiquité fut Hipparque (fin du iie s. avant J.-C.) ; son œuvre ne nous est connue que par celle de Ptolémée (fin du iie s. avant J.-C.), dont la version arabe, ou Almageste, nous est parvenue et représente une vaste compilation des connaissances astronomiques de l'Antiquité.
L'astronomie classique a pris naissance au xvie s. grâce à Copernic, qui proposa en 1543 une conception héliocentrique du monde ; puis Kepler établit de 1609 à 1619, à l'aide des observations de Tycho Brahe, les lois du mouvement des planètes ; à la même époque, Galilée effectua les premières observations du ciel à la lunette et fit de nombreuses découvertes (taches solaires, relief lunaire, phases de Vénus, satellites de Jupiter, etc.) ; enfin, Isaac Newton établit en 1687 les lois fondamentales de la mécanique céleste en déduisant des lois de Kepler et de la mécanique de Galilée le principe de la gravitation universelle.

On put, dès lors, calculer avec précision les mouvements de la Lune, des planètes et des comètes. Aux xviiie et xixe s., la mécanique céleste est devenue de plus en plus précise, ce qui permit, en 1846, de découvrir la planète Neptune à la position que lui assignaient les calculs d'Urbain Le Verrier. La fin du xviiie s. vit aussi les débuts de l'astronomie stellaire, dont William Herschel peut être regardé comme le fondateur. Dans la seconde moitié du xixe s., l'application de la photographie et de la spectroscopie à l'étude des corps célestes a permis l'essor de l'astrophysique. Au xxe s., la théorie de la relativité généralisée d'Einstein (1916) et la mise en évidence des galaxies ont renouvelé la cosmologie avant que la radioastronomie puis les techniques spatiales ne viennent ouvrir de nouvelles fenêtres pour l'étude de l'Univers.

Une science d'observation

       
L'astronomie est depuis les origines une science d'observation. Les grandes découvertes dans son domaine sont presque toutes liées au progrès des moyens d'observation, même si cette discipline fait désormais un usage intensif de théories et de calculs par ordinateur.
Après l'apparition de la lunette astronomique et l'invention du télescope au xviie s., c'est au xxe s. que les progrès instrumentaux ont été le plus spectaculaire. Les astronomes disposent à présent de toute une panoplie d'instruments pour étudier le ciel à toutes les longueurs d'onde, non seulement celles de la lumière visible, mais aussi celles des divers rayonnements auxquels l'œil humain n'est pas sensible : ondes radio, infrarouge, ultraviolet, rayons X, rayons γ. Des sondes spatiales visitent les planètes du système solaire et leurs satellites. Sous les montagnes ou dans la mer, d'étranges détecteurs guettent de fantomatiques particules élémentaires venues du ciel, les neutrinos. Bientôt, des dispositifs complexes permettront de détecter les ondes gravitationnelles, ces déformations de l'espace-temps émises par des astres en effondrement. Néanmoins, bien des questions concernant l'Univers restent encore sans réponse : comment se sont formées les galaxies ? Comment naissent les étoiles ? Y a-t-il des planètes analogues à la Terre autour d'autres étoiles ? Quelles sont les conditions nécessaires à l'apparition de la vie sur une planète ?

La planétologie et l'étude du système solaire


Depuis les années 1960, l'exploration spatiale a révélé l'extrême diversité des planètes et des satellites du système solaire, qu'il s'agisse des planètes telluriques, disposant d'un sol rocheux (Mercure, Vénus, la Terre, Mars) ou des planètes géantes enveloppées d'une épaisse atmosphère d'hydrogène et d'hélium, entourées d'anneaux et accompagnées d'un cortège imposant de satellites (Jupiter, Saturne, Uranus, Neptune). Parmi les neuf planètes principales du système solaire, seule la plus éloignée du Soleil, Pluton, n'a pas encore été visitée par une sonde spatiale ; il s'avère aujourd'hui qu'elle constitue, en fait, le plus volumineux représentant connu d'une famille de petites planètes transneptuniennes.
Des vestiges d'une vie passée sur Mars ?

Concernant les planètes telluriques, la grande question est de savoir pourquoi seule l'une d'entre elles, la Terre, a vu le développement de la vie. Car, si Mercure, trop petite et trop proche du Soleil, n'était vraiment pas idéale, Vénus et Mars, aux premiers temps du système solaire, n'étaient pas fondamentalement différentes de la Terre. Pour Vénus, l'emballement de l'effet de serre explique sans doute que son atmosphère, composée en majorité de gaz carbonique, soit devenue extrêmement dense et étouffante.

       


Quant à Mars, il semble que de l'eau ait coulé en abondance à sa surface il y a deux ou trois milliards d'années ; il n'est donc pas exclu qu'une vie primitive y soit apparue et s'y soit un moment développée dans un passé lointain : c'est ce que nous apprendra peut-être la flottille de sondes qui doit poursuivre l'exploration de la planète dans les années à venir. Que s'est-il donc passé pour que la « planète rouge » devienne un désert froid et sec ? Nous ne le savons pas encore avec certitude ; certains théoriciens pensent que l'axe de rotation de Mars a connu des variations d'inclinaison telles qu'elles ont provoqué des glaciations catastrophiques. L'axe de rotation de la Terre aurait, au contraire, été stabilisé par la présence de la Lune.

Des lunes singulières

Notre connaissance des planètes géantes a connu une véritable révolution grâce aux deux sondes américaines Voyager. Ce sont elles qui ont révélé au grand public et aux chercheurs l'étonnante variété des planètes géantes, les secrets de l'atmosphère de Jupiter, la multiplicité des anneaux de Saturne et les tempêtes de Neptune. Autour de ces planètes gravitent des lunes singulières : ainsi, Io, l'un des satellites de Jupiter, est le siège d'un volcanisme actif qui renouvelle sa surface très rapidement (à l'échelle cosmique) ; Europe, autre satellite de Jupiter, apparaît entièrement recouvert d'une banquise qui cache probablement un océan liquide sous-jacent ; Titan, principal satellite de Saturne, est enveloppé d'une épaisse atmosphère à base d'azote où les planétologues espèrent déceler les traces de processus analogues à ceux qui ont conduit à l'apparition de la vie sur la Terre.

Petits corps et origine du système solaire
       
L'inventaire du système solaire ne s'arrête pas au Soleil et à ses planètes. L'espace interplanétaire contient des myriades de petits corps, des poussières de quelques micromètres seulement aux astéroïdes de quelques dizaines ou centaines de kilomètres de diamètre, en passant par les noyaux glacés de comètes de quelques kilomètres. Tous ces corps ont peu évolué depuis la formation des planètes, il y a quatre milliards et demi d'années environ, et leur étude est donc très importante pour comprendre l'origine du système solaire. La composition chimique des noyaux cométaires est l'une des clefs de l'énigme, mais il est très difficile de la déterminer à partir d'observations effectuées au sol.

Là encore, les sondes spatiales s'avèrent indispensables. C'est ainsi qu'en 1986 plusieurs sondes, notamment l'européenne Giotto, se sont approchées de la comète de Halley, et qu'en 2004 l'Agence spatiale européenne a lancé Rosetta, destinée à rencontrer en 2014 la comète Tchourioumov-Gerasimenko (ou, selon la graphie anglo-saxonne, Churyumov-Gerasimenko) et à la suivre sur son orbite pendant dix-huit mois.

La recherche des planètes extrasolaires
Une grande découverte des années 1990 a été celle de planètes autour d'autres étoiles que le Soleil. Au début de 2004, on en dénombrait déjà plus de 100. Toutefois, les limitations des méthodes de détection actuelles, qui reposent sur l'observation à partir du sol de petites perturbations dans le mouvement de l'étoile, interdisent de détecter des planètes de type terrestre. Les planètes déjà recensées sont pour la plupart des géantes plus massives que Jupiter et qui gravitent à faible distance de leur étoile. On a donc du mal à imaginer qu'elles puissent abriter une forme quelconque de vie. L'étape suivante viendra d'observations spatiales, comme celles du satellite français COROT (lancement prévu en 2006) ou, plus tard, du satellite européen GAIA (lancement envisagé en 2009) qui pourra faire l'inventaire de toutes les étoiles possédant des planètes dans un rayon de 1 000 années-lumière autour de la Terre. Une fois détectées des planètes du type terrestre, on pourra tenter de déterminer si elles sont entourées d'une atmosphère et si celle-ci contient de l'oxygène ou de l'ozone, indice quasi certain de la présence de vie.

L'étude du Soleil

L'étoile autour de laquelle tourne notre planète, le Soleil, commence à nous être mieux connue, depuis son cœur jusqu'à sa région la plus externe, la couronne. C'est heureux, car notre connaissance du Soleil est à la base de celle de toutes les autres étoiles. Certains problèmes subsistent cependant, comme celui de comprendre pourquoi la couronne solaire est si chaude (plusieurs millions de degrés). L'étude des vibrations solaires, ou héliosismologie, est une science nouvelle qui permet de mieux comprendre la structure interne du Soleil, connaissance indispensable puisque c'est là que se trouve le « moteur » thermonucléaire de l'astre. Ce que nous savons du Soleil provient d'observations au sol, en lumière visible et dans le domaine radio, mais aussi d'observations effectuées dans l'espace par divers satellites, notamment l'européen SOHO (lancé en 1995). L'enjeu majeur de ces observations est de comprendre l'origine du cycle d'activité solaire de onze ans. À terme, on espère parvenir à prédire les « sautes d'humeur » du Soleil, ses orages et ses éruptions. Cela serait fort utile car ces phénomènes ne sont pas sans effet sur les activités humaines : brouillage des radiocommunications, courts-circuits sur les lignes à haute tension à l'origine d'importantes pannes d'électricité, dommages apportés aux équipements électroniques des satellites… L'enjeu économique de la « météorologie solaire », même balbutiante, est considérable. Certains chercheurs pensent même que les humeurs du Soleil pourraient avoir une influence sur le climat terrestre.

L'astrophysique stellaire

Le Soleil est l'étoile de référence des astronomes. Par son âge, sa masse et sa composition, c'est une étoile moyenne, comme il en existe des milliards dans notre galaxie. Mais on trouve aussi une multitude d'étoiles plus petites, et d'autres plus massives et plus rares. La masse des étoiles varie dans une large palette, depuis les minuscules naines brunes qui ne sont pas assez massives pour que des réactions thermonucléaires s'allument en leur centre, jusqu'aux énormes étoiles bleues qui ne vivent que quelques millions d'années avant d'exploser sous les traits de supernovae.
Le Soleil, quant à lui, se trouve à peu près à la moitié de sa vie, dont la durée estimée est de l'ordre de 10 milliards d'années. En effet, les étoiles ne sont pas éternelles ! Les grandes lignes de leur évolution, qui dépend principalement de leur masse et accessoirement de leur composition chimique, sont assez bien connues. Les phases qui restent les plus mystérieuses sont leur naissance et, dans une moindre mesure, leur mort. On sait que, selon sa masse initiale, une étoile finit en naine blanche (cas du Soleil), en étoile à neutrons ou en trou noir. Un astre compact comme une étoile à neutrons ou un trou noir peut happer la matière d'une étoile compagne et s'entourer d'un disque de matière extrêmement chaud où vont se produire toutes sortes de phénomènes d'une violence inouïe. Ces derniers se traduisent par des sursauts d'émission de rayonnements X ou γ. Les phases terminales de la vie des étoiles constituent donc l'un des domaines de prédilection de l'astronomie des hautes énergies.

Les secrets de la naissance des étoiles
Quant à la naissance des étoiles, elle reste l'une des questions ouvertes de l'astronomie. Pourquoi se forme-t-il de petites étoiles et des grosses, dans des proportions qui semblent peu varier d'une extrémité à l'autre de notre galaxie ? Pourquoi les étoiles naissent-elles le plus souvent en couples, voire en « multiplets » ? Ces processus sont restés longtemps mal connus, en grande partie parce que les « maternités » d'étoiles se situent au cœur des nuages interstellaires et restent cachées à l'observation aux longueurs d'onde de la lumière visible à cause de la présence de grandes quantités de poussières dans ces nuages. Les observations dans les domaines infrarouge et radio commencent à lever une partie du voile. On s'est ainsi aperçu que la naissance des étoiles s'accompagne de phénomènes d'éjection de matière jusqu'à des distances qui atteignent l'année-lumière. Il semble aussi acquis que la plupart des étoiles naissent au sein d'un disque de gaz et de poussières qui disparaît au bout de quelques millions d'années. Peut-on pour autant en déduire que dans ce disque se sont formées des planètes ? Le débat reste ouvert.
Les nuages de gaz interstellaire dans lesquels naissent les étoiles font également partie des objets de l'astrophysique qui demeurent mal compris, en partie à cause des limitations des observations, mais aussi à cause de leur complexité qui rend difficile leur description complète. Ce sont pourtant de fabuleux laboratoires de physique et de chimie, mariant les températures les plus extrêmes comme les densités les plus faibles ; là s'élaborent petit à petit les poussières qui donneront un jour naissance à des planètes, les pellicules de glace qui donneront un jour naissance à des océans. Certains astronomes pensent même que les molécules nécessaires à l'apparition de la vie, les molécules prébiotiques, auraient été élaborées au sein de ces nuages interstellaires.

L'étude de la Galaxie
Étoiles, gaz et poussières sont les ingrédients qui composent une galaxie, et notamment la nôtre, que les études accumulées depuis la fin du xixe s. ont permis de mieux connaître. Notre galaxie comporte un disque avec un renflement central, le bulbe, une structure allongée émanant de ce renflement, la barre, et plusieurs bras spiraux qui s'enroulent dans le disque. Le Soleil n'est pas situé au centre, mais plutôt à la périphérie. Le disque est noyé dans un halo qui contient des étoiles, du gaz, mais aussi de grandes quantités de matière qui n'émet aucune lumière et reste donc parfaitement mystérieuse. La présence de cette matière sombre (ou matière noire) se trahit par les forces de gravité qu'elle exerce sur les étoiles et le gaz environnants, mais on ignore toujours sa nature réelle. S'agit-il de gaz, par exemple d'hydrogène, trop froid pour émettre du rayonnement ? de naines brunes ? de grosses planètes du type de Jupiter ? ou de particules élémentaires ? Le problème n'est pas mince car ce sont au moins 90 % de la masse de l'Univers qui échappent ainsi aux observations : cela donne la mesure de l'ignorance des astronomes !
Les dimensions de notre galaxie ont plusieurs fois été révisées. Les résultats des mesures effectuées au début des années 1990 par le satellite européen Hipparcos ont conduit à une révision de l'ordre de 15 % de toute l'échelle des distances. Il faut dire que si l'on se limite aux observations en lumière visible, la profondeur que l'on peut sonder dans le disque de notre galaxie se limite à quelques dizaines d'années-lumière. En particulier, il est impossible d'avoir une vue directe du centre de la Galaxie, région pourtant fort intéressante. Cependant, par des observations dans d'autres domaines du spectre (rayonnement gamma, ondes radio) on a de fortes présomptions de la présence d'un volumineux trou noir au centre de la Galaxie. L'activité violente que l'on observe au centre de certains objets extérieurs à notre galaxie, les galaxies à noyau actif et les quasars, est attribuée à la présence en leur cœur d'un trou noir géant dont la masse atteint plusieurs dizaines de millions de fois celle du Soleil. Selon certains astrophysiciens, toutes les galaxies contiendraient un trou noir central, mais la plupart du temps celui-ci ne se manifesterait pas car il serait sous-alimenté en gaz. Confirmer la présence d'un trou noir au centre de notre galaxie viendrait donc conforter cette théorie.

L'astrophysique extragalactique

Le monde des galaxies est fort varié, mais on peut distinguer principalement deux grandes classes de galaxies : celles en forme de spirales, comme la nôtre, et les elliptiques, en forme de ballon de rugby. La grande question, toujours non tranchée, est celle de l'inné et de l'acquis. Les galaxies naissent-elles spirales, ou bien le deviennent-elles ? Restent-elles semblables à elles-mêmes pendant des milliards d'années, ou bien se construisent-elles progressivement, par accrétion d'entités plus petites ? Les collisions de galaxies jouent-elles un rôle dans leur évolution ? Il n'y a plus de doute aujourd'hui que les galaxies ont beaucoup changé depuis leur formation. La proportion exacte d'inné et d'acquis semble dépendre des régions de l'Univers et les galaxies situées dans des amas (grandes structures regroupant des centaines ou des milliers de galaxies) semblent différentes des autres. Il est clair également que certaines galaxies elliptiques sont nées de la fusion de deux galaxies spirales, mais est-ce vrai pour toutes les elliptiques ?

La cosmologie

Avec la question de la naissance des galaxies, on entre de plain-pied dans le domaine de la cosmologie. Les observations du satellite américain COBE (COsmic Background Explorer) au début des années 1990 ont conforté les idées des spécialistes sur les premiers instants de l'Univers et le modèle du big bang « chaud ». D'après celui-ci, l'Univers, primitivement très dense et très chaud, serait brutalement entré en expansion il y a quelque 15 milliards d'années et ne cesserait de se dilater depuis. Cette expansion de l'Univers, reconnue par l'astronome américain Edwin Hubble à la fin des années 1920, est l'une des données de base de la cosmologie moderne. Paradoxalement, les tout premiers instants de l'Univers sont mieux connus que la période qui s'étend d'environ 300 000 ans après le big bang à la formation des premières galaxies. Grâce aux grands télescopes modernes, véritables machines à remonter le temps (du fait de la vitesse finie de propagation de la lumière, plus l'on observe loin dans l'espace, plus l'on observe loin dans le passé), on sait maintenant que moins d'un milliard d'années après le big bang il y avait déjà des galaxies ; mais les simulations sur ordinateur ont encore un peu de mal à reproduire toutes les observations. Pour cette question, on attend beaucoup du successeur du télescope spatial Hubble, le JWST (James Webb Space Telescope), un télescope spatial de 6 m de diamètre qui observera dans l'infrarouge, ainsi que d'un vaste réseau de radiotélescopes fonctionnant aux longueurs d'onde millimétriques et submillimétriques, ALMA (Atacama Large Millimeter Array), qui devraient tous deux entrer en service vers 2010.
Qu'en est-il de notre avenir lointain ? On sait que le futur de l'expansion de l'Univers dépend de la quantité de matière qu'il contient : la gravité créée par la matière est la seule force capable de contrecarrer l'expansion. On sait aussi que la matière lumineuse de l'Univers, celle que l'on recense quand on compte les étoiles et le gaz, représente moins de 10 % de la matière présente dans une galaxie ; à plus grande échelle, c'est pire encore et la quantité de matière sombre est encore plus importante. La mesure exacte est difficile, mais si la majeure partie de la matière qui constitue l'Univers reste effectivement invisible aux astronomes, ils sont néanmoins quasiment certains que l'Univers est appelé à devenir de plus en plus dilué et de plus en plus froid. D'autant plus que des observations récentes de supernovae lointaines semblent indiquer que son expansion, bien loin de ralentir, s'accélère.

 

DOCUMENT   larousse.fr    LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google