ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA COULEUR

 



 

 

 

 

 

couleur
(latin color, -oris)

Cet article fait partie du dossier consacré à l'art et du dossier consacré à la lumière.

Sensation résultant de l'impression produite sur l'œil par une lumière émise par une source ; effet obtenu par la combinaison des teintes utilisées dans un tableau.

OPTIQUE
La vision des couleurs
Au sens physiologique du terme, la couleur n'existe qu'en fonction de trois éléments : le système visuel, la lumière émise par une source et le milieu qui les sépare. La rétine humaine comprend trois familles de cellules (cônes), spécialisées chacune dans la détection du vert, du rouge et du bleu (couleurs principales). À partir des signaux issus de ces récepteurs, le cerveau synthétise la perception de couleur. Des anomalies de la perception (contraste successif, temps d'« adaptation chromatique ») témoignent de la complexité du phénomène.

Lumière et couleurs
Comme le montre l'expérience, réalisée par Newton, de la dispersion de la lumière solaire (lumière blanche) par un prisme, le domaine des longueurs d'onde lumineuses visibles s'étend de 390 nanomètres (violet) à 770 nanomètres (rouge). En deçà et au-delà de ces limites se trouvent les rayonnements ultraviolets et infrarouges.


Lorsqu'un corps est éclairé par la lumière solaire, il peut diffuser de la même manière toutes les radiations (sa surface apparaît « blanche »), en absorber certaines et diffuser les autres (sa surface est « colorée ») ou les absorber toutes (sa surface est « noire »). La couleur dépend donc de la manière dont la substance éclairée réagit sous la lumière. Elle naît pratiquement toujours de l'interaction des ondes lumineuses avec les électrons de la substance.
Outre la diffusion et l'absorption, on connaît d'autres mécanismes créateurs de couleurs : la fluorescence, les interférences, la diffraction, les décharges dans les gaz, l'effet du champ cristallin, etc. Grâce aux travaux de Chevreul, de Lacouture et de Munsell, le caractère tridimensionnel des couleurs a été mis en évidence. Il est utilisé dans les classifications des couleurs qui prennent en compte trois éléments : la clarté, la tonalité et la saturation. (→ colorimétrie).
Les synthèses des couleurs
La synthèse additive des couleurs

On peut montrer qu'un écran « blanc » diffuse une lumière de la même couleur que celle qu'il reçoit. Il suffit donc de le regarder pour connaître la couleur de la lumière qui l'éclaire : sous un projecteur rouge, il est rouge ; sous un projecteur vert, il est vert. Et si on allume les deux projecteurs à la fois ? On constate alors que l'écran est jaune, d'un jaune plus ou moins verdâtre ou rougeâtre suivant la puissance respective de chaque projecteur, et qui peut être assez vif si on règle convenablement ces puissances.
Ainsi, en mélangeant des lumières rouge et verte convenablement dosées, on obtient du jaune. Pour obtenir du blanc, il faut ajouter à ce jaune un peu de bleu, au moyen d'un troisième projecteur. Et, suivant la couleur exacte du bleu, on devra modifier légèrement le rapport du rouge et du vert. Mais un réglage convenable des trois projecteurs permettra d'obtenir du blanc. On pourrait d'ailleurs en obtenir avec deux projecteurs seulement, un jaune et un bleu, à condition de pouvoir choisir la couleur exacte de l'un des deux. Pour un jaune donné, il existera une nuance de bleu permettant, par un dosage convenable, d'obtenir du blanc : ce bleu-là est dit complémentaire du jaune en question. Cette notion de couleurs complémentaires joue un grand rôle dans l'imprimerie en couleurs.

En modifiant les proportions du mélange issu des trois projecteurs, on pourra obtenir une lumière de n'importe quelle couleur, ou presque : c’est la synthèse additive des couleurs (principe utilisé dans les téléviseurs). En effet, on peut, dans un graphique, représenter ces mélanges par les puissances respectives de chaque projecteur, c'est-à-dire par différents points dans un espace à trois dimensions. Mais, en fixant arbitrairement la puissance totale, on ramène à deux le nombre des variables, et on peut ainsi représenter n'importe quel mélange par un point dans un plan. De plus, en mélangeant les couleurs représentées par deux points A et B, on obtiendra forcément une couleur représentée par un point du segment AB, plus ou moins proche de A ou de B suivant les proportions du mélange.

Quelle que soit sa source (Soleil, bougie, néon), une lumière polychromatique peut toujours être analysée par le prisme comme un mélange de lumières monochromatiques, qui seront représentées par des points situés sur une courbe englobant tous les points du plan représentant des mélanges. Ce principe permet de montrer sur un diagramme chromatique pratiquement toutes les couleurs, ainsi que leur composition de base.


Il faut souligner que ce choix des couleurs de base n'est commandé – en dehors de la facilité plus ou moins grande de leur production – que par l'avantage de disposer d'un triangle RVB (rouge, vert, bleu) le plus grand possible sur le diagramme. Trois autres couleurs différentes, R', V' et B', permettraient également d'obtenir la plupart des couleurs souhaitées, et en particulier du blanc. Avec une sorte de pourpre violacé, de l'orange et du bleu-vert, par exemple, les résultats seraient aussi bons qu'avec les trois couleurs traditionnelles : s'il est usuel d'appeler ces dernières les couleurs « primaires », il n'y a pas – pour le physicien sinon pour le photographe ou l'éclairagiste – de couleurs plus « primaires » que les autres.
La synthèse soustractive des couleurs

Si le principe de la synthèse additive des couleurs, c'est-à-dire l'utilisation du rouge, du vert et du bleu, était appliqué dans l'imprimerie, le mélange du rouge et du vert ne donnerait qu'un jaune moutarde peu lumineux. En effet, les imprimeurs (ou les peintres) n’utilisent pas des faisceaux de lumière pour composer leurs couleurs, mais des pigments colorés qui diffusent certaines couleurs. C'est pourquoi, contrairement à la télévision, la synthèse des couleurs est, ici, dite soustractive, car fondée sur l'absorption de la lumière. Les trois couleurs utilisées en imprimerie sont le jaune, le cyan et le magenta, dites « couleurs primaires » car elles ne dérivent d'aucune autre couleur tout en permettant d'obtenir toutes les autres par mélange. La superposition de ces trois couleurs ne donne qu'un brun noirâtre, aussi est-il nécessaire d'utiliser à part une encre noire.
La reproduction en quadrichromie peut se diviser en deux étapes : la décomposition et la recomposition des couleurs.
Le sujet à reproduire est tout d'abord photographié trois fois, en noir et blanc, avec différents filtres : bleu-violet, vert-jaune et rouge-orangé. On obtient ainsi trois négatifs en noir et blanc exprimant par leur degré de noirceur (densité optique) les proportions respectives de magenta, cyan et jaune qu'il faut combiner en chaque point du sujet pour contretyper sa couleur (obtenir son positif). Un quatrième film, le noir, est nécessaire pour les couleurs, mais aussi pour le texte, les filets.
Quatre plaques sont alors fabriquées, chez le photograveur, pour permettre la recomposition du sujet sur papier à partir des encres magenta, cyan, jaune et noire.
Si deux encres se recouvrent sur le papier, leurs absorptions s'ajoutent. En un point où, par exemple, du magenta et du jaune se superposent, le vert et le bleu sont absorbés : cet endroit-là du papier est rouge. De même, le mélange du jaune et du cyan produit du vert, celui du cyan et du magenta un bleu-violet assez foncé. Il reste à faire varier les proportions du mélange de lumières diffusées pour reproduire n'importe quelle couleur. Or l'imprimerie est une opération en « tout ou rien » : soit on met de l'encre, soit on n'en met pas. Aussi est-il nécessaire d'imprimer, avec chacune des encres, non pas des surfaces uniformes, mais des points régulièrement espacés, plus ou moins gros suivant que la couleur qu'ils absorbent doit être plus ou moins retranchée du mélange diffusé. Ces images en pointillé sont obtenues, pour chacune des encres, en tirant la photo à travers un filtre coloré approprié et une trame, c'est-à-dire un tissu à mailles très fines.

BEAUX-ARTS
Tributaire des moyens techniques et de la conception de l'image propres à l'artiste et à son temps, la couleur a connu au cours de l’histoire des mutations considérables.

Évolution technique
Diversité des matières
Les différentes époques voient leurs artistes faire usage de produits variés pour réaliser leurs œuvres : substances des peintures pariétales préhistoriques (ocres, charbon de bois, …), pigments minéraux et végétaux incorporés à divers liants pour l’élaboration des peintures murales du Moyen Âge et de la Renaissance, pratique de la peinture à l'huile à partir du xve s., emploi dematériaux industriels divers à partir du xixe s.

La main du peintre
L’emploi de la couleur diffère selon les artistes. Qu’elle soit appliquée sur de grandes surfaces, disposée en aplats ou en touches juxtaposées, en cernes ou en contours, elle sert par sa matérialité l’expression propre à chaque créateur qui en fait usage. Sa qualité expressive et son pouvoir de suggestion donnent également un sens à la réalisation plastique de l’œuvre.
Le travail de composition chromatique de l'artiste repose sur des notions de base : les couleurs primaires ou fondamentales (bleu, rouge, jaune), mélangées deux à deux, donnent les couleurs secondaires ou binaires (violet, vert, orangé, chacune étant la complémentaire de la couleur primaire qui n'entre pas dans sa composition), et toutes les combinaisons possibles définissent les teintes et les tons.

Un sujet de controverses
Fondement des jeux de valeur, de coloris, de lumière et des rapports spatiaux, la couleur se retrouve au cours des siècles au cœur de multiples débats où elle se voit opposée au dessin et à la forme. Les plus célèbres d’entre eux voient s’affronter durant la Renaissance les partisans des Vénitiens à ceux de Raphaël, les admirateurs de Rubens et de Rembrandt à l'Académie au xviie s. puis les défenseurs de Delacroix à ceux de Ingres dans le courant du xixe s.

Le tournant du xixe s.
Au cours du xixe s., contre l'académisme, l'étude (qui prolonge les travaux de théoriciens comme Chevreul) et l'exaltation de la couleur-lumière triomphent avec les impressionnistes (Claude Monet). Dès lors, la couleur, construction, expression ou sujet autonome, assume une fonction picturale primordiale, de Cézanne ou Van Gogh à Matisse, au fauvisme ou à l'abstraction (Rothko).

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

ASTROPHYSIQUE, PHYSIQUE DES PARTICULES ET ASTROPARTICULES

 

 

 

 

 

 

 

Texte de la 185e conférence de l’Univerisité de tous les savoirs donnée le 3 juillet 2000.

Astrophysique, physique des particules et astroparticules par François Vannucci

Introduction
L’astrophysique est la science qui étudie la nature à l’échelle de l’infiniment grand, jusqu’aux dimensions de l’univers entier, c’est-à-dire quelques 1026 m. À l’opposé, la physique des particules explore la matière à l’échelle de l’infiniment petit et permet actuellement de sonder des distances jusqu’à 10-18 m. Astrophysique et physique des particules représentent donc les deux frontières de la connaissance humaine.
La physique des astroparticules est une interface entre ces deux extrêmes. Alors que les objets de l’astrophysique sont de tailles macroscopiques, planètes, étoiles, galaxies..., la physique astroparticulaire étudie des objets microscopiques, les particules élémentaires elles- mêmes, mais au lieu de se limiter aux particules produites auprès des accélérateurs, les sources en sont maintenant astrophysiques. En pratique, cette discipline s’est récemment développée grâce aux physiciens des particules qui, pour certains, se sentaient à l’étroit près des accélérateurs, et qui ont transposé leurs techniques de détection pour l’observation des phénomènes violents qui apparaissent dans le ciel.
L’astrophysique utilise comme intermédiaire de l’information, la lumière, c’est-à-dire des photons appartenant à la gamme visible ou proche du visible, détectés grâce à des instruments optiques, plaques photographiques, CCD. La physique astroparticulaire bénéficie d’une panoplie plus large de messagers : photons d’énergies élevées, mais aussi protons ou noyaux atomiques, électrons et neutrinos. Le but de cette physique est double, elle permet à la fois de mieux comprendre les sources de ces rayonnements, c’est-à-dire les phénomènes à l’origine d’accélérations gigantesques, mais aussi d’affiner la connaissance des propriétés des particules elles-mêmes produites dans des conditions impossibles à égaler sur terre.
Deux exemples
Les gammas de hautes énergies
Seuls les photons visibles peuvent traverser l’atmosphère sans être absorbés. Pour d’autres longueurs d’onde, l’étude se fait en satellite où les conditions d’observation sont idéales. Mais les satellites ont des dimensions limitées, et les flux de photons de très hautes énergies sont si faibles qu’il faut pouvoir disposer de surfaces de détection importantes pour compter un nombre suffisant d’événements. Dans l’atmosphère, les photons énergiques se multiplient en donnant une gerbe dite électromagnétique qui, à son maximum, peut atteindre des millions de particules, essentiellement des électrons et des positrons. Ceux-ci disposent encore d’une énergie suffisante pour donner le long de leur trajectoire de la lumière qu’on peut détecter grâce à des capteurs couvrant de grande surface. Un dispositif de ce type, appelé Cat, est en opération au pied des Pyrénées. Alors qu’en lumière visible on répertorie des milliards de sources, et qu’en rayonnement X, il en reste quelques milliers, on n’a détecté à ce jour que quatre sources certaines aux énergies allant jusqu’à 1014 eV, en particulier un pulsar, le Crabe, et deux noyaux actifs de galaxies Mk 421 et 501 qui ont surpris par la très grande variabilité de leur émission. Le spectre des photons arrivant sur terre renseigne d’autre part sur le milieu traversé.
Les rayons cosmiques chargés
Les rayons cosmiques chargés ont été étudiés depuis le début du 20ième siècle, et si beaucoup de physiciens se sont tournés vers les accélérateurs au milieu du siècle, certains observent à nouveau le ciel qui permet des énergies qu’aucun accélérateur ne peut atteindre. On détecte aujourd’hui des particules, probablement des protons atteignant des énergies de 50 J, l’énergie d’une balle de tennis lors d’un service ! La figure 1 montre le spectre de ce rayonnement mesuré jusqu’à ces énergies macroscopiques. Quelques rayons cosmiques de plus de 1020 eV ont été observés, et ils posent un problème, car ils ne peuvent provenir de sources très lointaines du fait de l’absorption inhérente à la présence du fond cosmologique, mais d’autre part on ne connaît pas de phénomènes d’accélération suffisamment puissants dans les régions proches de nous. Certaines théories les expliquent comme témoins de phénomènes liés au Big-Bang.
Figure 1 : Spectre des rayons cosmiques mesuré jusqu’aux énergies ultimes.
Pour espérer résoudre l’énigme présente, il faut accumuler des statistiques suffisantes, or ces rayons sont très rares, puisqu’ils bombardent la terre à raison de 1 par km2 et par siècle. Il faut donc disposer de très grandes surfaces de collection. L’observatoire Auger se donne pour but d’instrumenter 3 000 km2 d’un plateau en Argentine. Un rayon cosmique ayant l’énergie considérée ici, produit au total des milliards de particules secondaires, et arrose au sol une surface de quelques 10 km2. Le détecteur consiste en un réseau de capteurs distants les uns des autres de 1.5 km.
Le mystère des neutrinos
Les neutrinos peuvent être considérés comme les astroparticules « par excellence », car ils sont présents à toutes les échelles de l’univers, ce qui fait du neutrino la particule, hors le photon, la plus abondante. Des sources très puissantes contribuent à cette présence incontournable.
En premier lieu, le soleil. Il nous envoie chaque seconde 60 milliards d’«hélioneutrinos ». sur chaque cm2 de notre terre. Ils proviennent de réactions de fusion à l’origine de l’énergie qui fait briller notre astre, et les prédictions de flux reposent sur des calculs très élaborés que les théoriciens affirment fiables à quelques pour cent près. Ce flux nous traverse autant le jour que la nuit, car la terre est transparente aux neutrinos.
Une supernova de type IIa éjecte presque toute son énergie en libérant 1058 « galactoneutrinos » en quelques secondes. En février 1987 une telle explosion eut lieu à 150000 années-lumière de notre terre, dans le grand nuage de Magellan, et une vingtaine des neutrinos ainsi produits fut interceptée dans de vastes détecteurs souterrains.
Les neutrinos atmosphériques, « géoneutrinos » proviennent du bombardement des rayons cosmiques primaires dont il a été déjà question, sur les couches les plus hautes de l’atmosphère. Les protons interagissent en donnant des pions qui se désintègrent rapidement,
ce qui résulte en un flux d’environ 1 neutrino par minute et par cm2.
Les neutrinos peuvent aussi provenir de sources extragalactiques encore mystérieuses,
telles que noyaux actifs de galaxie, trous noirs..., et ici l’expérimentation en est encore à ses balbutiements.
N’oublions pas l’homme et ses « anthroponeutrinos ». Un réacteur nucléaire EdF produit quelques 1020 (anti)-neutrinos par seconde, sans aucun danger pour l’environnement, et les accélérateurs permettent de construire des faisceaux bien maîtrisés qui s’avèrent les mieux adaptés pour les recherches les plus fines concernant les propriétés de ces particules.
Au-delà de toutes ces sources variées, le producteur le plus prolifique fut le Big Bang, il y a 14 milliards d’années. Les astrophysiciens nous enseignent que la grande explosion originelle a laissé 300 « cosmoneutrinos » dans chaque cm3 de l’Univers. Cette densité semble faible, rapportée aux densités de particules dans la matière ordinaire, mais intégrée sur tout le volume de l’univers, elle donne une population de neutrinos plusieurs milliards de fois plus abondante que celle des protons, neutrons et électrons qui forment les atomes.
Comment s’y retrouver dans toutes ces catégories de neutrinos ? Par chance, les différentes populations s’échelonnent en classes d’énergies bien distinctes. Ainsi, les neutrinos cosmologiques possèdent les énergies les plus faibles, le milli-eV, tandis qu’on attend des énergies atteignant l’Exa-eV pour les neutrinos extragalactiques. Entre ces extrêmes, les neutrinos solaires se concentrent autour de 1 MeV et les atmosphériques autour de 1 GeV. La figure 2 montre cette hiérarchie d’énergies.
Figure 2 : Distribution en énergies des sources variées de neutrinos.
C’est le paradoxe des neutrinos : ils nous entourent en bataillons innombrables, et pourtant ils ne nous affectent aucunement. Car ils ne subissent que l’interaction dite faible et un seul neutrino de 1 GeV sur 100000 est arrêté dans la traversée de la terre, d’où le qualificatif de fantôme souvent attribué à cette évanescente particule. La probabilité d’interaction est faible mais pas nulle, sinon, on ne saurait rien d’eux. Or, grâce à des flux très intenses obtenus auprès d’accélérateurs puissants, et grâce à des détecteurs très massifs, on dispose aujourd’hui de millions d’interactions de neutrinos enregistrées au cours de plusieurs générations d’expériences qui ont analysé en détail les propriétés de leur couplage avec la matière.
Parfois un neutrino produit, lors de son interaction, un électron identifié : c’est un neutrino électronique νe. Parfois l’interaction donne un muon, c’est le neutrino muonique νμ qui est ici responsable.
νe νμ, l’histoire s’arrête-t-elle là ? Le nombre de types de neutrinos existant dans la nature a été mesuré précisément grâce à un accélérateur du CERN : le LEP. Le résultat est sans appel: 2.990 ± 0.016. Cette mesure provient de l’étude du Z0, le boson intermédiaire des interactions faibles neutres, produit lors de collisions e+ e- et qui se désintègre quasi-
instantanément. La figure 3 montre la courbe dite d’excitation du boson Z0. La largeur de cette courbe en cloche dépend du nombre de neutrinos. Plus il en existe de types différents, plus la courbe est aplatie, et son ajustement permet d’extraire le nombre total de neutrinos
cité plus haut. Ainsi, la nature se contente de 3 neutrinos différents et 3 seulement qu’on appelle νe νμ et ντ.
Figure 3 : La courbe « d’excitation » de la résonance Z0 mesurée au LEP, qui prouve l’existence de seulement trois neutrinos légers différents.
L’expérience SuperKamiokande et les oscillations
Puisqu’il est nécessaire de disposer de détecteurs énormes pour obtenir un nombre suffisant d’interactions, décrivons l’ambitieuse expérience qui a donné les résultats les plus probants dans le domaine des neutrinos solaires et atmosphériques : SuperKamiokande. Construite dans une mine de zinc sous une montagne japonaise près de la petite ville de Kamioka, elle a commencé à prendre des données en avril 1997. Le dispositif consiste en un volume gigantesque, d'environ 35m*35m*40m rempli d'eau purifiée, constamment observé par plus de 11000 tubes photomultiplicateurs, capteurs pouvant détecter la présence de quelques photons visibles. C’est une véritable cathédrale souterraine que montre la figure 4 pendant la phase de remplissage. On y voit des techniciens sur un canoë effectuant les derniers ajustements des photomultiplicateurs avant que l’eau ne les recouvre.
Figure 4 : Photographie du détecteur SuperKamiokande pendant la phase de remplissage (cliché ICRR-Tokyo).
Un neutrino interagissant dans l'eau produit des particules chargées de différents types qui, si elles ont suffisamment d'énergie, donnent dans la traversée de l'eau des photons visibles produits par l'effet appelé Cerenkov. Cet effet s’apparente à l’émission d’une onde de choc électromagnétique, et naît chaque fois qu’une particule se propage dans un milieu à une vitesse supérieure à celle de la lumière. Or, dans l’eau, la lumière se propage à 220000 km/s, et un électron d’énergie 1 MeV dépasse cette vitesse. Un cône lumineux est produit le long de la trajectoire, ce qui résulte en un anneau de photons au niveau des photomultiplicateurs.
Ainsi on mesure le flux des neutrinos solaires au-dessus d’une énergie de 5 MeV, or on ne compte que la moitié du flux prédit par les théoriciens.
Dans la gamme d’énergie entre 100 MeV et quelques GeV, on détecte un signal venant des neutrinos atmosphériques. Dans ce dernier cas, les interactions des neutrinos νμ
produisent des muons, les interactions des neutrinos νe produisent des électrons. Or muons et électrons donnent des anneaux suffisamment distincts pour qu'on puisse compter séparément les νμ et les νe incidents. La direction de la particule détectée informe d’autre part sur la direction du neutrino qui a donné lieu à l’interaction, du moins aux énergies suffisamment élevées. À nouveau le résultat n’est pas conforme aux prédictions. SuperKamiokande détecte bien les neutrinos électroniques au niveau attendu, mais semble mettre en évidence un manque de neutrinos du type muonique. Et l’expérience avance un argument supplémentaire décisif. Les neutrinos atmosphériques proviennent de toutes les directions, puisqu’ils sont
produits tout autour de la terre. Ceux reconstruits comme venant « d’en haut » naissent dans l’atmosphère directement située au-dessus du site expérimental. Ils ont parcouru environ 10 km avant d’être détectés. Ceux provenant « d’en bas » sont produits aux antipodes et ont donc parcouru de l’ordre de 10000 km avant d’atteindre le dispositif expérimental. Or le déficit se manifeste pour les νμ « d’en bas », qui ont traversé toute la terre, c’est-à-dire les neutrinos
ayant parcouru de longues distances avant leur détection. La figure 5 explicite quantitativement le résultat en montrant la distribution en angle zénithal. Le déficit est apparent à cosθ = -1.
Figure 5 : Distribution en angle zénithal des interactions de neutrinos atmosphériques montrant le déficit des νμ montant.
Neutrinos solaires et atmosphériques ont donc bien été mis en évidence, mais dans les deux cas, le flux mesuré présente une anomalie en regard du flux attendu. Le fait de trouver un accord à un facteur 2 près entre des mesures délicates et des prédictions difficiles est déjà une grande réussite. Pourtant les physiciens ne s’en contentent pas et cherchent à comprendre ce désaccord.
On mesure moins de neutrinos que prévu, une partie semble avoir disparu entre la source de production et le point de détection. À moins que certains, au cours de leur voyage, n’aient changé de type. En effet les détecteurs actuels de neutrinos solaires ne sont sensibles qu’aux νe et il se pourrait que les νe produits à l’intérieur du soleil se soient convertis en νμ
avant d’atteindre la terre. De même, les indications de SuperKamiokande peuvent s’interpréter comme une conversion de νμ en ντ qui échappe à la détection, sur des distances de l’ordre du diamètre terrestre.
Ce phénomène dans lequel un type de neutrino se transforme spontanément en un type différent est appelé oscillation. C’est un processus permis en mécanique quantique dès lors que les neutrinos ont une masse. La probabilité du phénomène dépend de la différence des masses carrées entre les neutrinos oscillants. Ce mécanisme revêt beaucoup d’importance, car il permet de sonder des différences de masses très petites, inaccessibles par tout autre moyen. Or la question qui se pose actuellement sur les neutrinos concerne précisément leur masse, et on sait seulement que si masse il y a, elle doit être minuscule.
L’interprétation communément admise du déficit des νe solaires par le phénomène d’oscillations amène à une relation entre les masses m1 et m2 des états propres correspondant
aux νe et νμ : m22 - m12 = 5.10-5 eV2. Pour les neutrinos atmosphériques, le déficit des νμ observé suggère une seconde relation entre les masses des neutrinos oscillants: m’22 - m’12 = 3.10-3 eV2. Elle s’applique a priori aux états propres correspondant au couple νμ et ντ.
La recherche d'oscillations est un domaine très actif, et plusieurs générations d’expériences en ont cherché les effets, soit auprès de réacteurs, soit auprès d’accélérateurs sans les mettre en évidence. La situation actuelle n’est pas entièrement claire et une confirmation du signal revendiqué par SuperKamiokande est attendue. Elle devrait venir de programmes en cours de réalisation, au Japon d’abord, puis au CERN et aux Etats-Unis, et qui nécessitent de grandes distances de vol pour être sensibles à de très petites masses. Ainsi, en 2005, on enverra un faisceau produit à Genève vers le tunnel du Gran Sasso près de Rome, laissant aux neutrinos 730 km pour osciller. Les détecteurs imaginés sont à la mesure du problème.
La fin de la physique ?
Au cours des cent dernières années, les progrès de la connaissance scientifique ont été spectaculaires. Tant aux confins de l’infiniment grand qu’à ceux de l’infiniment petit, environ huit ordres de grandeur ont été gagnés. On discerne aujourd’hui des détails cent millions de fois plus fins qu’il y a cent ans, et on se rapproche de l’instant même du Big-Bang. Les frontières du connu semblent d’ores et déjà avoir atteint leurs limites. En effet, on ne peut penser aller au-delà du Big Bang, et la quête de l’infiniment petit bute de plus en plus contre le mur du gigantisme.
Indéniablement, le 20ième siècle aura été le siècle de la physique. Le 21ième siècle débute avec le déchiffrage du génome humain, et certains annoncent le siècle de la biologie. D’autant que la biologie est riche de promesse, certains esprits téméraires allant jusqu’à envisager l’immortalité, alors que les retombées de la physique des astroparticules semblent illusoires, et que le domaine apparaît comme un simple passe-temps de physiciens.
Pourtant la physique n’a pas révélé tous ses secrets. Nous sommes peut-être à l’aube d’une nouvelle révolution copernicienne. En effet, l’univers est, semble-t-il, rempli à 95% d’une matière sombre, détectée par les vitesses anormales de rotation d’objets célestes (figure 6), et d’une énergie sombre résultant d’études de supernovae lointaines et qui indiquent que l’expansion de l’univers est en accélération. Or matière et énergie sombres n’ont, semble-t-il, rien à voir avec notre matière ordinaire. L’essence même de notre monde étudié au cours des derniers siècles semble ne représenter qu’une toute petite partie de l’univers.
Figure 6 : Évidence de matière sombre révélée par les vitesses de rotation d’objets célestes en fonction de leur distance au centre galactique.
Pendant un temps on espérait que les neutrinos puissent expliquer la matière sombre. En effet, le scénario du Big Bang prédisant une population de neutrinos plusieurs milliards de fois plus abondante que celle des autres particules, une masse avoisinant quelques 10 eV, suffisait pour que la masse totale des neutrinos dépasse celle de la matière visible et donc influence le devenir de l’univers. Un tel scénario était privilégié avant le résultat de SuperKamiokande. Aujourd’hui, l’expérience japonaise semble indiquer une contribution marginale des neutrinos à la masse de l’Univers, quoique avoisinant la masse visible, celle constituée par l'ensemble des étoiles.
La masse sombre est donc recherchée dans d’autres directions: particules hypothétiques telles que axions ou particules supersymétriques. Quant à l’énergie sombre c’est aujourd’hui un mystère complet.
Il reste donc de grandes énigmes que la physique peut et doit résoudre, mais pour certains cette recherche apparaît comme trop ésotérique et coupée des préoccupations jugées importantes. Pourtant, dévoiler les secrets de l’univers est pour l’homme aussi exaltant que composer un poème ou une sonate. La justification d’une telle recherche est à trouver dans l’enrichissement de l’aventure humaine. Il ne faut pas brider la curiosité intellectuelle. La connaissance est un bien précieux, et on peut espérer qu’un jour, quand la science aura répondu à tous les comment de la nature, le pourquoi en deviendra un peu plus clair, or c’est bien là la question essentielle posée à l’homme.
Références :
Winter (K.) éditeur, Neutrino Physics. Cambridge University Press 1991.
Crozon (M.) et Vannucci (F.), Les particules élémentaires. « Que sais-je? » PUF 94 Vannucci (F.), Les neutrinos sur la balance, Images de la Physique/CNRS 1999.

 

VIDEO     canal U       LIEN
 

 
 
 
 

TOUT L'UNIVERS DANS UN ATOME

 

 

 

 

 

 

 

TOUT L'UNIVERS DANS UN ATOME

(Exposé en langue Anglaise.)
Dans cet exposé, je vais expliquer que l'univers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens d'exercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que l'on trouve à l'intérieur des atomes mais il est intimement relié à l'univers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.

Tout lunivers dans un atome
Gerardus t Hooft

Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens dexercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.
Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.
La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.
Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.
Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.
La structure de latome
Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.
Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de latome.
Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.
Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.
Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.
Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.
Les outils pour étudier la structure de latome
Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.
La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.

       
figure 1

Les forces dinteractions et les particules de Yang-Mills
Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?
Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.
Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.


 VIDEO     canal U       LIEN

 
 
 
 

LES LANCEURS SPATIAUX

 

 

 

 

 

 

 

1
Texte de la 266e conférence de l'Université de tous les savoirs donnée le 22 septembre
2000.


LES LANCEURS SPATIAUX

par Hubert CURIEN


La conquête de l’Espace par l’Homme est, sans conteste, l’un des plus grands, peutêtre
le plus grand événement du siècle que nos venons de vivre. Il y a cinq cents ans,
Christophe Colomb accostait en Amérique. Il marquait ainsi une étape essentielle dans la
connaissance de la surface de la planète. Depuis un demi-millénaire, les hardis navigateurs et
explorateurs nous ont apporté la maîtrise géographique de la terre. C’est le « bip-bip » du
Spoutnik qui a ouvert l’ère spatiale, l’ère de la maîtrise de la troisième dimension de notre
espace circumterrestre.
Maintenant que l’on sait aller dans l’Espace, on doit s’interroger : pour quoi faire ?
Avant de parler technique et économie prenons le temps de rappeler les jours de gloire de la
conquête.
Les jours de gloire
Le lancement de Spoutnik 1, le 4 octobre 1957 fut un remarquable succès technique, et
un événement politique de premier plan. Américains et Soviétiques entretenaient un climat de
guerre froide. Le fait que les Soviétiques aient été les premiers à mettre en orbite un satellite
artificiel de la Terre fut ressenti par les Américains comme une secousse politique de grande
ampleur. Certes, ils n’étaient, eux-mêmes, pas loin du but, puisque le 31 janvier 1958 ils
lançaient avec succès leurs premier satellite Explorer 1. Mais, aux yeux du Monde, les
Soviétiques avaient marqué un point essentiel dans une technologie dont les applications
militaires potentielles étaient claires.
Après la question de savoir qui lancerait le premier satellite, se posait celle de la mise
en orbite du premier homme. Ici encore, ce sont les Soviétiques qui gagnent. Gagarine est
satellisé le 12 avril 1961. Il faudra attendre le 20 février 1962 pour que John Glenn fasse son
petit tour dans l’Espace. Pour la deuxième fois, les Soviétiques donnaient la preuve de leur
capacité technique : dans un domaine très difficile, ils étaient capables d’être les meilleurs.
L’Amérique voulait sa revanche. Elle y mit les moyens. C’est une équipe américaine
qui a marché sur la Lune le 21 juillet 1969. Sur la Lune, il fallait y aller et il fallait aussi en
revenir. C’est la difficulté des opérations de retour qui a empêché les Soviétiques de se lancer
dans l’aventure avant les Américains. Un aller sans retour eut été, à tous points de vue,
catastrophique.
J’aimerais insérer dans cette liste des « jours de gloire » une date importante pour
l’Europe et pour la France, celle du lancement par la fusée française Diamant du satellite
Astérix, à partir de la base d’Hammaguir au Sahara. Certes, le satellite était modeste, mais
huit ans après Spoutnik et sept ans après Explorer, Astérix lancé par Diamant faisait de la
France la troisième puissance spatiale. Nous étions dans le peloton et tous les espoirs nous
étaient permis.
De l’homme solitaire dans l’Espace à la station spatiale habitée, un pas important
restait à franchir. Les Soviétiques mirent en place Saliout 1 en avril 1971 et les Américains
suivirent en satellisant le laboratoire Skylab mais en 1973.
2
La compétition était rude, mais, entre champions, on peut aussi, à l’occasion, échanger
des bonnes pensées et faire de beaux gestes. C’est ainsi que le 17 juillet 1975 un cosmonaute
de Soyouz serra, dans l’Espace, la main d’un astronaute américain.
Pour terminer cette liste des jours de gloire du passé, pourquoi ne retiendrions-nous
pas le 24 décembre 1979, date du premier lancement de la fusée Ariane ?
La préhistoire des fusées
Rendons hommage à quelques pionniers.
Robert Esnault-Pelterie, né en 1881, est l’inventeur du manche à balai des avions. Il fut aussi
le promoteur de la propulsion par réaction. Il démontra la possibilité de réaliser des fusées en
vue de missions interplanétaires. Robert Goddard (1882-1945) lance, aux États-Unis en 1926,
la première fusée à ergols liquides. Elle n’atteignit que l’altitude de 12,5 mètres, mais c’était
la première !
Les ingénieurs allemands ont joué un rôle considérable dans le développement de la
technologique des fusées. Hermann Oberth (1894-1989), qui avait publié en 1929 un
remarquable traité d’astronautique, a terminé sa carrière aux États-Unis, où il a rejoint von
Braun.
C’est un Ukrainien, Serguei Korolev (1906-1966), qui va fabriquer en 1933, la première fusée
soviétique à ergols liquides. Il est aussi le père de la fusée Zemiorka qui lancera Spoutnik en
1957.
Dans cette liste de quelques pionniers, Wernher von Braun mérite une mention toute spéciale.
Directeur, pendant la dernière guerre, de la base de Peenemünde en Allemagne, il fut, hélas,
l’homme des V2. Il poursuivit, immédiatement après la guerre, sa carrière aux États-Unis.
W. von Braun n’avait qu’une patrie : les fusées…
La France et l’Europe entrent en jeu
Les militaires français ont développé eux aussi, bien sûr, des fusées, auxquelles il
donnèrent, élégamment, des noms de pierres précieuses : Topaze, Emeraude, Saphir… Une
série qui nous mène à Diamant. C’est le lanceur Diamant qui, en mettant en orbite, en 1965, le
petit satellite Astérix, nous a fait entrer dans le club des nations spatiales. Diamant nous a
permis de mettre en orbites d’altitude voisine de 500 km une douzaine de satellites d’une
masse de l’ordre de 100 kg. C’est aussi à cette époque que nous avons aménagé le site de
lancement de Kourou, en Guyane. Hammaguir était devenu algérien.
Diamant fut un bon lanceur, mais il fallait lui donner un successeur plus puissant. Les
Français entraînèrent alors leurs voisins européens dans une entreprise commune. Un
organisme fut créé, l’ELDO (European Launcher Development Organization), dont l’objectif
était de concevoir et construire un lanceur nommé, tout naturellement, « Europa ». En
schématisant, on peut dire qu’Europa était formé par la superposition de trois étages : l’un
britannique, le deuxième français, le troisième allemand. Cette fusée devait initialement
lancer, depuis un champ de tir en Australie, une charge utile d’une tonne sur une orbite
circulaire à 500 km. L’objectif fut ensuite modifié : lancer un satellite de 200 kg, mais à
36 000 km (orbite géostationnaire, voir ci-dessous).
Dix essais d’Europa : dix échecs. Puis, explosion de la fusée lorsqu’elle fut tirée pour
la première fois de Kourou en 1971. Il fallait se ressaisir. La conception et la gestion du
programme Europa avait quelques analogies avec celles qui avaient conduit nos lointains
ancêtres à l’échec de la construction de la tour de Babel. Les Français proposent donc un
nouveau programme, avec un maître d’oeuvre unique et un architecte industriel responsable.
Ainsi naquit le programme Ariane, qui fut mené par la nouvelle agence spatiale européenne
3
l'ESA (European Space Agency), qui elle-même délégua la maîtrise d’oeuvre à l’agence
spatiale française, le CNES (Centre National d’Études Spatiales), créé dès 1961. Le CNES
désigna la compagnie Aérospatiale comme architecte industriel.
Le nom d’Ariane fut le choix du Ministre français de l’Industrie, Jean Charbonnel,
agrégé d’histoire. Il pensait au fil qui allait redonner forme et vigueur à l’Espace européen.
Les programmes menés par l’Agence Spatiale Européenne, l’ESA, sont de deux types. Les
uns sont dits « obligatoires ». C’est le cas des programmes scientifiques. Ils sont financés au
prorata du PIB (produit intérieur brut) des quatorze États-membres. Les autres sont
optionnels : chaque État-membre y participe au niveau qui lui convient. Tel est le cas des
programmes de développement de lanceurs. La France participe pour 20 % aux programmes
obligatoires, l’Allemagne pour 25 %. Dans le programme Ariane, la France a pris au départ
une part voisine des deux tiers du total. Nous voulions réussir, nous prenions nos
responsabilités.
Les tâches des lanceurs spatiaux
Un lanceur doit accomplir trois tâches : la première est de vaincre le champ de gravité
pour amener la « charge utile » (le ou les satellites) sur une orbite stable. Il faut,
deuxièmement, traverser au départ, à grande vitesse, une atmosphère dense dont le frottement
échauffe le lanceur. Il faut, enfin, donner à la charge utile une vitesse horizontale élevée,
plusieurs kilomètres par seconde, pour la placer sur une orbite circumterrestre.
Les orbites les plus usuelles peuvent être classées sous quatre rubriques.
- L’orbite géostationnaire : le but est de placer le satellite sur une trajectoire telle que, pour un
observateur terrestre, il apparaisse fixe. Il faut donc qu’il tourne avec une vitesse angulaire
égale à celle de la rotation naturelle de la Terre. Cette orbite circulaire équatoriale est à une
altitude de 36 000 km. Par définition sa période est de 24 heures, égale à la période de
rotation terrestre. Cette orbite dite GEO (Geostationary Earth Orbit) est d’un usage courant
pour les télécommunications : il est commode d’envoyer et de recevoir des messages en
visant un point, le satellite, qui est géométriquement fixe dans le repère des bases terrestres.
De nombreux satellites étant placés sur cette orbite, on peut se poser la question d’un
encombrement possible à terme. Aussi a-t-on mis en place des autorités internationales pour
la régulation de l’occupation de ce cercle privilégié.
- Les orbites héliosynchrones : ce sont des orbites quasi-polaires, d’une altitude de 900 à
1000 km. Elles sont calculées pour que le couplage avec le champ de gravité terrestre fasse
que le satellite passe et repasse au-dessus du même point de la Terre à la même heure. D’où la
dénomination d’héliosynchrone (SSO : Sun Synchronons Orbit). Cette orbite est très prisée
pour l’observation de la Terre (revoir le même paysage dans les mêmes conditions
d’éclairement).
- Les orbites basses : il s’agit d’orbites situées à des altitudes de 1000 à 2000 km, plus ou
moins fortement inclinées par rapport à l’équateur. Leur période de révolution est de l’ordre
de 1h 30. Elles sont intéressantes pour les télécommunications car elles permettent une large
couverture du globe terrestre. Des systèmes d’essaims de satellites peuvent être imaginés, tels
que, quelle que soit votre position sur Terre, vous ayez toujours un satellite en vue, pour
capter votre message.
- N’oublions pas enfin, les missions interplanétaires. Nous savons envoyer des sondes sur
Mars, sur Vénus, au voisinage des comètes… Pour l’instant, ces sondes ne sont pas habitées.
C’est que de tels voyages sont longs !
Comment fonctionne un lanceur spatial ?
4
Le principe à appliquer pour construire une bonne fusée est d’éjecter à la plus grande
vitesse possible le plus grand débit de gaz. Les meilleures fusées sont celles qui débitent à la
fois beaucoup et vite.
Que débitent-elles ? Les gaz provenant de la combustion de ce qu’on appelle les ergols,
c’est-à-dire un combustible et un comburant, en termes chimiques un réducteur et un oxydant.
Ces couples sont variés. Le plus classique est hydrogène/oxygène, deux gaz qu’on liquéfie
pour les stocker dans les réservoirs de la fusée au départ. Citons aussi le couple
diméthylhydrazine/tétra-oxyde d’azote que la fusée emporte sous forme liquide. Le couple
d’ergols peut aussi être solide : les deux gros pousseurs latéraux d’Ariane V sont remplis d’un
mélange de poudre d’aluminium et de perchlorate d’ammonium qui est un puissant oxydant.
Ariane V, outre ces deux pousseurs, comporte un moteur central (Vulcain) à hydrogène et
oxygène liquides.
La conception d’un lanceur est orientée par la nécessité de réduire la plus possible la
« masse sèche », c’est-à-dire la masse de ce qui n’est pas les ergols. On sait maintenant
réduire cette masse à 15 % du total.
On pose souvent la question : pourquoi les lanceurs comportent-ils en général
plusieurs étages. La réponse est simple : c’est pour se délester le plus vite possible des masses
de structures devenues inutiles.
Ariane
La masse totale d’Ariane V au lancement est de 740 tonnes, sa hauteur est de 51
mètres. Elle met actuellement en orbite des charges utiles de 6 tonnes, mais des modifications
prévues lui permettront d’emporter, dans l’avenir, plus de dix tonnes. La France qui, au début
du programme Ariane, dans les années 1970, avait pris une participation supérieure à 60 %,
est toujours en tête avec 46 %. Nous avons créé, en 1980, la société Arianespace qui est en
charge de la gestion et de la commercialisation du lanceur. Plus de 130 fusées de la famille
Ariane ont déjà été lancées. Huit échecs seulement ont été déplorés. Personne, à ma
connaissance, n’a fait aussi bien. La qualité du champ de tir de Kourou est aussi à souligner.
Ariane ne manque pas de concurrents sur le marché mondial. Il y a une trentaine
d’années, les responsable de la NASA aux États-Unis, ont promu un nouveau mode d’accès à
l’Espace : la Navette Spatiale (Schuttle), lanceur réutilisable. Le Schuttle est un engin habité
qui part comme une fusée et revient comme un avion. Le Schuttle serait, disaient ses
promoteurs, l’engin à tout faire : taxi et camion pour l’Espace, laboratoire spatial… Il devait
être plus économique que les lanceurs consommables puisqu’il est réutilisable. Le miracle ne
s’est pas produit. L’entretien des navettes s’est révélé coûteux : un engin qui emporte un
équipage ne doit pas risquer de pannes ! Les lanceurs dits classiques sont donc restés le
fondement des activités de type commercial. Le « briquet » indéfiniment réutilisable n’a pas
détrôné l’ « allumette » consommable. Les producteurs américains continuent à proposer sur
le marché des lanceurs de type classique : Delta, Atlas-Centaur, Titan. Les Russes, dont
l’activité spatiale a faibli depuis l’effondrement du régime soviétique, sont toujours très
présents. Ils ont aussi passé des accords internationaux, notamment avec les Français (société
Starsem). La Chine et le Japon proposent également leurs services sur le marché des
lancements.
Better, faster, cheaper
L’administrateur de la NASA, Daniel Goldin, a adopté une ligne de conduite pour la
définition et la gestion des programmes spatiaux américains : « meilleur, plus vite, moins
cher ». Qui pourrait lui reprocher, si toutefois il ajoutait « safer », plus sûr. Lancer un gros
5
satellite coûte actuellement plus cher qu’acheter un gros avion. Les usages sont, évidemment,
totalement différents, mais les compagnies industrielles productrices sont, pour l’essentiel, les
mêmes ; d’où l’intérêt de la comparaison. Chacun s’accorde sur la nécessité de réduire le prix
de revient des lanceurs. Une économie, notamment grâce à des restructurations de gestion, de
25 à 25 % paraît possible. Elle serait bienvenue, à condition qu’elle ne se traduise pas par une
baisse de qualité et de sûreté.
Le marché des satellites évolue, lui aussi. Il y a dix ans, la masse des satellites plafonnait
à 2,4 tonnes. Aujourd’hui, la moyenne se situe plutôt entre 2,5 et 4 tonnes. Le lanceur Ariane
V pourra bientôt emporter 7 à 8 tonnes, puis 10 tonnes et même plus. Avec une telle fusée on
pourra donc satelliser, en un seul vol, deux gros satellites. Le marché des petits satellites n’est
pas non plus à négliger. L’Agence Spatiale Européenne soutient un programme de
développement d’un lanceur adapté à l’emport de ces charges.
Des révolutions techniques prévues pour l’avenir ?
On peut s’étonner du fait que la propulsion des lanceurs spatiaux soit restée jusqu’ici
invariablement fondée sur l’éjection de gaz de combustion. Si une évolution spectaculaire
peut-être constatée dans la mise en oeuvre des principes, le choix de ceux-ci n’a pas varié.
Mais n’en est-il pas de même des automobiles qui, depuis cent ans, utilisent des moteurs à
explosion ?
Les idées ne manquent pas : l’utilisation, par exemple, de la propulsion électrique qui
consiste à éjecter un gaz ionisé qu’on accélère dans un champ électrique.
En fait, les technologies spatiales font appel aux progrès de la science dans tous les
domaines : la physico-chimie des matériaux, la mécanique, l’électronique, l’informatique.
L’Espace est une « locomotive » de l’innovation. Les applications civiles pour une meilleure
gestion de notre planète, pour l’exploration du système solaire et l’observation de l’Univers
lointain, viennent très heureusement compléter les programmes militaires qui furent à
l’origine du développement des fusées.
La maîtrise de l’Espace est un enjeu politique, économique et humanitaire. L’Europe,
dont l’effort financier dans ce secteur est très inférieur à celui des États-Unis d’Amérique, est
cependant très présente. La France a joué un rôle essentiel dans l’affirmation et la solidarité
de cette présence.

 

 VIDEO     canal U       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google