|
|
|
|
|
|
TOUT L'UNIVERS DANS UN ATOME |
|
|
|
|
|
TOUT L'UNIVERS DANS UN ATOME
(Exposé en langue Anglaise.)
Dans cet exposé, je vais expliquer que l'univers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens d'exercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que l'on trouve à l'intérieur des atomes mais il est intimement relié à l'univers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.
Tout lunivers dans un atome
Gerardus t Hooft
Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens dexercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.
Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.
La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.
Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.
Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.
La structure de latome
Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.
Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de latome.
Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.
Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.
Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.
Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.
Les outils pour étudier la structure de latome
Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.
La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.
figure 1
Les forces dinteractions et les particules de Yang-Mills
Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?
Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.
Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.
VIDEO canal U LIEN |
|
|
|
|
|
|
LES LANCEURS SPATIAUX |
|
|
|
|
|
1
Texte de la 266e conférence de l'Université de tous les savoirs donnée le 22 septembre
2000.
LES LANCEURS SPATIAUX
par Hubert CURIEN
La conquête de l’Espace par l’Homme est, sans conteste, l’un des plus grands, peutêtre
le plus grand événement du siècle que nos venons de vivre. Il y a cinq cents ans,
Christophe Colomb accostait en Amérique. Il marquait ainsi une étape essentielle dans la
connaissance de la surface de la planète. Depuis un demi-millénaire, les hardis navigateurs et
explorateurs nous ont apporté la maîtrise géographique de la terre. C’est le « bip-bip » du
Spoutnik qui a ouvert l’ère spatiale, l’ère de la maîtrise de la troisième dimension de notre
espace circumterrestre.
Maintenant que l’on sait aller dans l’Espace, on doit s’interroger : pour quoi faire ?
Avant de parler technique et économie prenons le temps de rappeler les jours de gloire de la
conquête.
Les jours de gloire
Le lancement de Spoutnik 1, le 4 octobre 1957 fut un remarquable succès technique, et
un événement politique de premier plan. Américains et Soviétiques entretenaient un climat de
guerre froide. Le fait que les Soviétiques aient été les premiers à mettre en orbite un satellite
artificiel de la Terre fut ressenti par les Américains comme une secousse politique de grande
ampleur. Certes, ils n’étaient, eux-mêmes, pas loin du but, puisque le 31 janvier 1958 ils
lançaient avec succès leurs premier satellite Explorer 1. Mais, aux yeux du Monde, les
Soviétiques avaient marqué un point essentiel dans une technologie dont les applications
militaires potentielles étaient claires.
Après la question de savoir qui lancerait le premier satellite, se posait celle de la mise
en orbite du premier homme. Ici encore, ce sont les Soviétiques qui gagnent. Gagarine est
satellisé le 12 avril 1961. Il faudra attendre le 20 février 1962 pour que John Glenn fasse son
petit tour dans l’Espace. Pour la deuxième fois, les Soviétiques donnaient la preuve de leur
capacité technique : dans un domaine très difficile, ils étaient capables d’être les meilleurs.
L’Amérique voulait sa revanche. Elle y mit les moyens. C’est une équipe américaine
qui a marché sur la Lune le 21 juillet 1969. Sur la Lune, il fallait y aller et il fallait aussi en
revenir. C’est la difficulté des opérations de retour qui a empêché les Soviétiques de se lancer
dans l’aventure avant les Américains. Un aller sans retour eut été, à tous points de vue,
catastrophique.
J’aimerais insérer dans cette liste des « jours de gloire » une date importante pour
l’Europe et pour la France, celle du lancement par la fusée française Diamant du satellite
Astérix, à partir de la base d’Hammaguir au Sahara. Certes, le satellite était modeste, mais
huit ans après Spoutnik et sept ans après Explorer, Astérix lancé par Diamant faisait de la
France la troisième puissance spatiale. Nous étions dans le peloton et tous les espoirs nous
étaient permis.
De l’homme solitaire dans l’Espace à la station spatiale habitée, un pas important
restait à franchir. Les Soviétiques mirent en place Saliout 1 en avril 1971 et les Américains
suivirent en satellisant le laboratoire Skylab mais en 1973.
2
La compétition était rude, mais, entre champions, on peut aussi, à l’occasion, échanger
des bonnes pensées et faire de beaux gestes. C’est ainsi que le 17 juillet 1975 un cosmonaute
de Soyouz serra, dans l’Espace, la main d’un astronaute américain.
Pour terminer cette liste des jours de gloire du passé, pourquoi ne retiendrions-nous
pas le 24 décembre 1979, date du premier lancement de la fusée Ariane ?
La préhistoire des fusées
Rendons hommage à quelques pionniers.
Robert Esnault-Pelterie, né en 1881, est l’inventeur du manche à balai des avions. Il fut aussi
le promoteur de la propulsion par réaction. Il démontra la possibilité de réaliser des fusées en
vue de missions interplanétaires. Robert Goddard (1882-1945) lance, aux États-Unis en 1926,
la première fusée à ergols liquides. Elle n’atteignit que l’altitude de 12,5 mètres, mais c’était
la première !
Les ingénieurs allemands ont joué un rôle considérable dans le développement de la
technologique des fusées. Hermann Oberth (1894-1989), qui avait publié en 1929 un
remarquable traité d’astronautique, a terminé sa carrière aux États-Unis, où il a rejoint von
Braun.
C’est un Ukrainien, Serguei Korolev (1906-1966), qui va fabriquer en 1933, la première fusée
soviétique à ergols liquides. Il est aussi le père de la fusée Zemiorka qui lancera Spoutnik en
1957.
Dans cette liste de quelques pionniers, Wernher von Braun mérite une mention toute spéciale.
Directeur, pendant la dernière guerre, de la base de Peenemünde en Allemagne, il fut, hélas,
l’homme des V2. Il poursuivit, immédiatement après la guerre, sa carrière aux États-Unis.
W. von Braun n’avait qu’une patrie : les fusées…
La France et l’Europe entrent en jeu
Les militaires français ont développé eux aussi, bien sûr, des fusées, auxquelles il
donnèrent, élégamment, des noms de pierres précieuses : Topaze, Emeraude, Saphir… Une
série qui nous mène à Diamant. C’est le lanceur Diamant qui, en mettant en orbite, en 1965, le
petit satellite Astérix, nous a fait entrer dans le club des nations spatiales. Diamant nous a
permis de mettre en orbites d’altitude voisine de 500 km une douzaine de satellites d’une
masse de l’ordre de 100 kg. C’est aussi à cette époque que nous avons aménagé le site de
lancement de Kourou, en Guyane. Hammaguir était devenu algérien.
Diamant fut un bon lanceur, mais il fallait lui donner un successeur plus puissant. Les
Français entraînèrent alors leurs voisins européens dans une entreprise commune. Un
organisme fut créé, l’ELDO (European Launcher Development Organization), dont l’objectif
était de concevoir et construire un lanceur nommé, tout naturellement, « Europa ». En
schématisant, on peut dire qu’Europa était formé par la superposition de trois étages : l’un
britannique, le deuxième français, le troisième allemand. Cette fusée devait initialement
lancer, depuis un champ de tir en Australie, une charge utile d’une tonne sur une orbite
circulaire à 500 km. L’objectif fut ensuite modifié : lancer un satellite de 200 kg, mais à
36 000 km (orbite géostationnaire, voir ci-dessous).
Dix essais d’Europa : dix échecs. Puis, explosion de la fusée lorsqu’elle fut tirée pour
la première fois de Kourou en 1971. Il fallait se ressaisir. La conception et la gestion du
programme Europa avait quelques analogies avec celles qui avaient conduit nos lointains
ancêtres à l’échec de la construction de la tour de Babel. Les Français proposent donc un
nouveau programme, avec un maître d’oeuvre unique et un architecte industriel responsable.
Ainsi naquit le programme Ariane, qui fut mené par la nouvelle agence spatiale européenne
3
l'ESA (European Space Agency), qui elle-même délégua la maîtrise d’oeuvre à l’agence
spatiale française, le CNES (Centre National d’Études Spatiales), créé dès 1961. Le CNES
désigna la compagnie Aérospatiale comme architecte industriel.
Le nom d’Ariane fut le choix du Ministre français de l’Industrie, Jean Charbonnel,
agrégé d’histoire. Il pensait au fil qui allait redonner forme et vigueur à l’Espace européen.
Les programmes menés par l’Agence Spatiale Européenne, l’ESA, sont de deux types. Les
uns sont dits « obligatoires ». C’est le cas des programmes scientifiques. Ils sont financés au
prorata du PIB (produit intérieur brut) des quatorze États-membres. Les autres sont
optionnels : chaque État-membre y participe au niveau qui lui convient. Tel est le cas des
programmes de développement de lanceurs. La France participe pour 20 % aux programmes
obligatoires, l’Allemagne pour 25 %. Dans le programme Ariane, la France a pris au départ
une part voisine des deux tiers du total. Nous voulions réussir, nous prenions nos
responsabilités.
Les tâches des lanceurs spatiaux
Un lanceur doit accomplir trois tâches : la première est de vaincre le champ de gravité
pour amener la « charge utile » (le ou les satellites) sur une orbite stable. Il faut,
deuxièmement, traverser au départ, à grande vitesse, une atmosphère dense dont le frottement
échauffe le lanceur. Il faut, enfin, donner à la charge utile une vitesse horizontale élevée,
plusieurs kilomètres par seconde, pour la placer sur une orbite circumterrestre.
Les orbites les plus usuelles peuvent être classées sous quatre rubriques.
- L’orbite géostationnaire : le but est de placer le satellite sur une trajectoire telle que, pour un
observateur terrestre, il apparaisse fixe. Il faut donc qu’il tourne avec une vitesse angulaire
égale à celle de la rotation naturelle de la Terre. Cette orbite circulaire équatoriale est à une
altitude de 36 000 km. Par définition sa période est de 24 heures, égale à la période de
rotation terrestre. Cette orbite dite GEO (Geostationary Earth Orbit) est d’un usage courant
pour les télécommunications : il est commode d’envoyer et de recevoir des messages en
visant un point, le satellite, qui est géométriquement fixe dans le repère des bases terrestres.
De nombreux satellites étant placés sur cette orbite, on peut se poser la question d’un
encombrement possible à terme. Aussi a-t-on mis en place des autorités internationales pour
la régulation de l’occupation de ce cercle privilégié.
- Les orbites héliosynchrones : ce sont des orbites quasi-polaires, d’une altitude de 900 à
1000 km. Elles sont calculées pour que le couplage avec le champ de gravité terrestre fasse
que le satellite passe et repasse au-dessus du même point de la Terre à la même heure. D’où la
dénomination d’héliosynchrone (SSO : Sun Synchronons Orbit). Cette orbite est très prisée
pour l’observation de la Terre (revoir le même paysage dans les mêmes conditions
d’éclairement).
- Les orbites basses : il s’agit d’orbites situées à des altitudes de 1000 à 2000 km, plus ou
moins fortement inclinées par rapport à l’équateur. Leur période de révolution est de l’ordre
de 1h 30. Elles sont intéressantes pour les télécommunications car elles permettent une large
couverture du globe terrestre. Des systèmes d’essaims de satellites peuvent être imaginés, tels
que, quelle que soit votre position sur Terre, vous ayez toujours un satellite en vue, pour
capter votre message.
- N’oublions pas enfin, les missions interplanétaires. Nous savons envoyer des sondes sur
Mars, sur Vénus, au voisinage des comètes… Pour l’instant, ces sondes ne sont pas habitées.
C’est que de tels voyages sont longs !
Comment fonctionne un lanceur spatial ?
4
Le principe à appliquer pour construire une bonne fusée est d’éjecter à la plus grande
vitesse possible le plus grand débit de gaz. Les meilleures fusées sont celles qui débitent à la
fois beaucoup et vite.
Que débitent-elles ? Les gaz provenant de la combustion de ce qu’on appelle les ergols,
c’est-à-dire un combustible et un comburant, en termes chimiques un réducteur et un oxydant.
Ces couples sont variés. Le plus classique est hydrogène/oxygène, deux gaz qu’on liquéfie
pour les stocker dans les réservoirs de la fusée au départ. Citons aussi le couple
diméthylhydrazine/tétra-oxyde d’azote que la fusée emporte sous forme liquide. Le couple
d’ergols peut aussi être solide : les deux gros pousseurs latéraux d’Ariane V sont remplis d’un
mélange de poudre d’aluminium et de perchlorate d’ammonium qui est un puissant oxydant.
Ariane V, outre ces deux pousseurs, comporte un moteur central (Vulcain) à hydrogène et
oxygène liquides.
La conception d’un lanceur est orientée par la nécessité de réduire la plus possible la
« masse sèche », c’est-à-dire la masse de ce qui n’est pas les ergols. On sait maintenant
réduire cette masse à 15 % du total.
On pose souvent la question : pourquoi les lanceurs comportent-ils en général
plusieurs étages. La réponse est simple : c’est pour se délester le plus vite possible des masses
de structures devenues inutiles.
Ariane
La masse totale d’Ariane V au lancement est de 740 tonnes, sa hauteur est de 51
mètres. Elle met actuellement en orbite des charges utiles de 6 tonnes, mais des modifications
prévues lui permettront d’emporter, dans l’avenir, plus de dix tonnes. La France qui, au début
du programme Ariane, dans les années 1970, avait pris une participation supérieure à 60 %,
est toujours en tête avec 46 %. Nous avons créé, en 1980, la société Arianespace qui est en
charge de la gestion et de la commercialisation du lanceur. Plus de 130 fusées de la famille
Ariane ont déjà été lancées. Huit échecs seulement ont été déplorés. Personne, à ma
connaissance, n’a fait aussi bien. La qualité du champ de tir de Kourou est aussi à souligner.
Ariane ne manque pas de concurrents sur le marché mondial. Il y a une trentaine
d’années, les responsable de la NASA aux États-Unis, ont promu un nouveau mode d’accès à
l’Espace : la Navette Spatiale (Schuttle), lanceur réutilisable. Le Schuttle est un engin habité
qui part comme une fusée et revient comme un avion. Le Schuttle serait, disaient ses
promoteurs, l’engin à tout faire : taxi et camion pour l’Espace, laboratoire spatial… Il devait
être plus économique que les lanceurs consommables puisqu’il est réutilisable. Le miracle ne
s’est pas produit. L’entretien des navettes s’est révélé coûteux : un engin qui emporte un
équipage ne doit pas risquer de pannes ! Les lanceurs dits classiques sont donc restés le
fondement des activités de type commercial. Le « briquet » indéfiniment réutilisable n’a pas
détrôné l’ « allumette » consommable. Les producteurs américains continuent à proposer sur
le marché des lanceurs de type classique : Delta, Atlas-Centaur, Titan. Les Russes, dont
l’activité spatiale a faibli depuis l’effondrement du régime soviétique, sont toujours très
présents. Ils ont aussi passé des accords internationaux, notamment avec les Français (société
Starsem). La Chine et le Japon proposent également leurs services sur le marché des
lancements.
Better, faster, cheaper
L’administrateur de la NASA, Daniel Goldin, a adopté une ligne de conduite pour la
définition et la gestion des programmes spatiaux américains : « meilleur, plus vite, moins
cher ». Qui pourrait lui reprocher, si toutefois il ajoutait « safer », plus sûr. Lancer un gros
5
satellite coûte actuellement plus cher qu’acheter un gros avion. Les usages sont, évidemment,
totalement différents, mais les compagnies industrielles productrices sont, pour l’essentiel, les
mêmes ; d’où l’intérêt de la comparaison. Chacun s’accorde sur la nécessité de réduire le prix
de revient des lanceurs. Une économie, notamment grâce à des restructurations de gestion, de
25 à 25 % paraît possible. Elle serait bienvenue, à condition qu’elle ne se traduise pas par une
baisse de qualité et de sûreté.
Le marché des satellites évolue, lui aussi. Il y a dix ans, la masse des satellites plafonnait
à 2,4 tonnes. Aujourd’hui, la moyenne se situe plutôt entre 2,5 et 4 tonnes. Le lanceur Ariane
V pourra bientôt emporter 7 à 8 tonnes, puis 10 tonnes et même plus. Avec une telle fusée on
pourra donc satelliser, en un seul vol, deux gros satellites. Le marché des petits satellites n’est
pas non plus à négliger. L’Agence Spatiale Européenne soutient un programme de
développement d’un lanceur adapté à l’emport de ces charges.
Des révolutions techniques prévues pour l’avenir ?
On peut s’étonner du fait que la propulsion des lanceurs spatiaux soit restée jusqu’ici
invariablement fondée sur l’éjection de gaz de combustion. Si une évolution spectaculaire
peut-être constatée dans la mise en oeuvre des principes, le choix de ceux-ci n’a pas varié.
Mais n’en est-il pas de même des automobiles qui, depuis cent ans, utilisent des moteurs à
explosion ?
Les idées ne manquent pas : l’utilisation, par exemple, de la propulsion électrique qui
consiste à éjecter un gaz ionisé qu’on accélère dans un champ électrique.
En fait, les technologies spatiales font appel aux progrès de la science dans tous les
domaines : la physico-chimie des matériaux, la mécanique, l’électronique, l’informatique.
L’Espace est une « locomotive » de l’innovation. Les applications civiles pour une meilleure
gestion de notre planète, pour l’exploration du système solaire et l’observation de l’Univers
lointain, viennent très heureusement compléter les programmes militaires qui furent à
l’origine du développement des fusées.
La maîtrise de l’Espace est un enjeu politique, économique et humanitaire. L’Europe,
dont l’effort financier dans ce secteur est très inférieur à celui des États-Unis d’Amérique, est
cependant très présente. La France a joué un rôle essentiel dans l’affirmation et la solidarité
de cette présence.
VIDEO canal U LIEN |
|
|
|
|
|
|
MARCHER COMME NOUS |
|
|
|
|
|
Marcher comme nous : un rêve de robot
Gautier Cariou dans mensuel 497
daté mars 2015 -
Grâce aux progrès de la mécanique et des algorithmes, les robots bipèdes ont acquis un meilleur équilibre et une plus grande agilité. La clé de leur succès ? Imiter la façon de marcher de l'homme.
Le 11 mars 2011, un tsunami dévaste la centrale nucléaire de Fukushima, au Japon. Des volontaires s'activent pour éteindre l'incendie, au mépris des radiations. L'idéal aurait été qu'ils soient remplacés par des robots. Dont acte.
Pour stimuler la recherche dans le domaine de la robotique humanoïde, un an après la catastrophe, l'Agence américaine pour les projets de recherche avancée de défense (Darpa) lance une compétition internationale, la Darpa Robotics Challenge (DRC). L'objectif ? Concevoir des robots capables de se déplacer dans des zones dangereuses afin qu'ils réalisent des manoeuvres d'urgence. La finale est prévue les 5 et 6 juin 2015, en Californie. Les robots, jugés sur leur agilité, leur puissance, leur adaptabilité et leur autonomie, devront traverser des décombres, monter des escaliers, ouvrir des vannes, et même conduire une voiture. Sur onze robots en lice, neuf sont bipèdes.
Pour les roboticiens, la cause est entendue : la marche bipède permet de donner une mobilité sans précédent à leurs machines, à l'image de Petman et d'Atlas, deux robots aux proportions humaines conçus par Boston Dynamics, une entreprise américaine rachetée par Google en 2013. Loin des clichés de l'humanoïde maladroit aux mouvements lents et saccadés, ces deux robots marchent sur des terrains plats ou accidentés. Ils retrouvent leur équilibre lorsqu'on les pousse violemment. Le tout avec une agilité déconcertante et une gestuelle très proche de celle de l'homme.
Ce n'est pas un hasard si les roboticiens s'inspirent de l'anatomie humaine pour construire leurs machines : la présence d'un tronc, d'un bassin, de bras, de pieds et de jambes articulés leur assure une gamme de mouvements bien adaptés à des environnements humains. Chaque articulation est dotée de moteurs analogues aux muscles et de capteurs pour contrôler en permanence la position des membres. Un peu comme le ferait l'oreille interne, un instrument intégré dans le bassin, appelé « centrale inertielle », mesure le mouvement du centre de gravité à l'aide de gyroscopes et d'accéléromètres.
Gérer l'instabilité
Au niveau des pieds, des capteurs de pression rendent compte des forces de contact avec le sol. Selon les informations qu'il reçoit de ces capteurs, un ordinateur embarqué dans le robot calcule en temps réel les mouvements à produire au niveau de chaque articulation pour générer une marche efficace. Ces calculs sont exécutés par des algorithmes de commande, suites d'instructions en langage informatique, eux-mêmes fondés sur des modèles physiques simplifiés de la marche.
Avant de mettre au point de tels algorithmes, roboticiens et biomécaniciens ont d'abord étudié les mécanismes généraux de la marche bipède chez l'homme. « Cette marche est assez paradoxale, explique Thomas Robert, du laboratoire de biomécanique et mécanique des chocs, à l'université Claude-Bernard, à Lyon. Elle est stable sur un ensemble de pas, mais instable ponctuellement. Ainsi, un marcheur qui se figerait sur un pied tomberait à coup sûr. Cette instabilité de chaque instant s'explique par un décalage entre le point de contact avec le sol, situé sous le pied d'appui, et un second point dont la position dépend de la vitesse et de la position du centre de gravité*. Pour maintenir un équilibre permanent, il faut que ces deux points restent toujours alignés sur un même axe vertical. Or, ce n'est pas le cas pendant la marche. À chaque pas, nous chutons du côté opposé à notre pied d'appui avant de nous rattraper avec l'autre pied. En définitive, la marche bipède est une succession de chutes libres contrôlées. »
La stabilité dépend donc de la position des pieds sur le sol. En 1968, Miomir Vukobratovic, un ingénieur serbe pionnier de la robotique humanoïde, définit pour la première fois les conditions de stabilité de la marche bipède [1]. Un des éléments importants, connu depuis longtemps des biomécaniciens, est le « centre de pression », un point particulier du sol dont la position dépend de la répartition des forces de contact entre le pied d'appui et le sol. Pendant la marche, ce point reste en permanence dans les limites de la surface délimitée par le pied d'appui. Or, Miomir Vukobratovic établit que plus le centre de pression se rapproche des limites de cette surface plus la probabilité de déséquilibre augmente, pour les hommes comme pour les robots. Aujourd'hui encore, c'est un concept fondamental pour obtenir des marches bipèdes stables de la part des robots.
Calculer chaque mouvement
Au début des années 1980, tous les robots marchent de façon « statique », c'est-à-dire avec le centre de gravité et le centre de pression alignés en permanence sur le même axe vertical. Cela donne une démarche extrêmement lente et saccadée. En 1984, Ichiro Kato, roboticien à l'université de Waseda, au Japon, rompt avec ce modèle de marche archaïque. Il présente WL-10RD, le premier robot capable de se déplacer sur un sol plat en adoptant une marche dynamiquement stable [2]. Cette démarche est, à l'époque, la plus humaine jamais reproduite par une machine. WL-10RD avance à raison d'un pas toutes les 1,3 seconde, en plaçant ses pieds de façon à maintenir le centre de pression dans la surface critique.
Pour calculer le mouvement des jambes, Ichiro Kato raisonne sur un modèle complet du robot, qui prend en compte les masses de chaque membre et pas seulement la position du centre de gravité. Il en découle des équations non linaires, trop complexes pour être traitées en temps réel par un algorithme, ni même résolues de façon exacte. Si bien que chaque mouvement des jambes doit être calculé à l'avance avant d'être rejoué dans la réalité par le robot. Pour WL-10RD, l'imprévu n'a pas sa place : la moindre irrégularité du sol mène à une perte d'équilibre.
En 2003, Shuuji Kajita, roboticien à l'Institut national des sciences et technologies industrielles avancées (AIST), au Japon, résout le problème [3]. Il propose un algorithme de commande fondé sur un modèle du robot dans lequel seule la masse totale, ramenée au centre de gravité est prise en compte [Fig. 1]. Cette simplification permet à l'algorithme de résoudre les équations liées aux mouvements des membres en temps réel et avec exactitude, tout en respectant le critère de stabilité du centre de pression [Fig. 2].
Cet algorithme a été mis au point à partir du modèle physique du « pendule inversé », déjà utilisé par les biomécaniciens pour décrire la marche humaine. Dans ce modèle, le robot est équivalent à un pendule retourné dont toute la masse est concentrée à son extrémité haute (correspondant au bassin), tandis que son extrémité basse (correspondant au pied d'appui), sans masse et de longueur variable, est en contact avec le sol. Pour prouver l'efficacité de son algorithme, Shuuji Kajita l'implante sur l'humanoïde HRP-2, né dans les laboratoires de l'AIST dans les années 2000 : il parvient à marcher de façon dynamique et stable. Aujourd'hui encore, de nombreux roboticiens l'utilisent ou s'en inspirent pour faire marcher leur robot.
En 2006, Jerry Pratt, chercheur en robotique à l'Institute for Human and Machine Cognition, en Floride, propose un autre algorithme de commande baptisé « capture point ». Ce dernier est fondé sur une version revisitée du modèle du pendule inversé dans lequel le roboticien intègre l'inertie liée aux mouvements de rotation du bassin [4]. L'inertie est la résistance naturelle qu'oppose un corps à un changement de vitesse. En prenant en compte cet effet, l'algorithme détermine les zones dans lesquelles un robot doit poser son pied pour s'arrêter en un seul pas. Le robot est donc contrôlé de manière à rester en permanence dans les limites de ette zone de stabilité. Il en résulte une marche dynamique et stable à chaque instant.
Anticiper d'un ou deux pas
« Toutefois, l'algorithme de capture point n'est valable que sur des sols plats et non glissants, souligne Pierre-Brice Wieber, roboticien à Inria, à Grenoble. Dans des travaux récents, Jerry Pratt essaie de le généraliser pour des environnements plus complexes mais ce problème n'est pas encore résolu. »
Pour augmenter la stabilité des robots, une approche dans la lignée des travaux de Shuuji Kajita, inspirée de la locomotion humaine, est d'anticiper le mouvement d'un ou deux pas. En robotique, ce contrôle particulier du mouvement a été baptisé « commande prédictive ». Elle consiste à prédire une séquence de pas dans une simulation numérique et de la confronter à la réalité. En pratique, le robot exécute les mouvements prédits par la simulation puis il compare sa position et sa posture réelles, mesurées par ses capteurs internes, au résultat de la simulation. S'il constate un écart, il génère une nouvelle prédiction. Et cela toutes les millisecondes ! De cette façon, un robot, réajuste en permanence ses mouvements et s'adapte aux irrégularités du sol ou même à une poussée violente, à condition que ses moteurs soient suffisamment puissants (lire « Des moteurs puissants pour une démarche naturelle », ci-dessous). Cette méthode, testée avec succès sur le robot HRP-2, permet également d'intégrer des obstacles dans la simulation numérique.
Plier les genoux
Tous ces algorithmes de commande, aussi différents soient-ils, ont un point commun : ils imposent aux robots de marcher les genoux pliés. « Lorsque les jambes ou les bras d'un robot sont complètement tendus, il apparaît des aberrations mathématiques pendant que l'algorithme exécute ses calculs, explique Pierre-Brice Wieber. En effet, pour déterminer les mouvements articulaires que doit générer le robot, on utilise une matrice, un outil mathématique, qui, lorsque les jambes sont complètement tendues, devient non inversible. » Mathématiquement, cela revient à réaliser une division par zéro.
Ce problème identifié sous le terme de « singularité » est un vrai cauchemar pour les roboticiens. « Pour l'éviter, nous imposons donc aux robots d'avoir toujours les genoux pliés, en exagérant parfois le trait. Toutefois, on n'est pas si éloigné de la réalité : des études biomécaniques sur l'homme ont montré que nous tendons rarement les jambes pendant la marche, ce qui garantit une certaine souplesse et nous aide à mieux contrôler nos forces. »
Depuis environ cinq ans, les roboticiens cherchent également à améliorer l'interaction des robots avec leur environnement en utilisant une commande dite « en couple ». La plupart des robots bipèdes actuels sont contrôlés par une commande en « position ». Concrètement, cela signifie que les algorithmes qui pilotent la marche utilisent des informations sur la position des membres à chaque instant, fournies par des capteurs placés au niveau de chaque articulation. Toutefois, ces capteurs ne mesurent pas les effets des perturbations externes (obstacle, poussée...) sur l'ensemble des articulations du robot. Si bien que, si le pied d'un robot rencontre une marche sur son chemin, il ne s'adaptera pas du tout à cet imprévu. Au contraire, il augmentera la puissance de ses moteurs dans l'objectif d'atteindre la position théorique prévue par son algorithme. Cette obstination peut l'endommager.
Franchir les obstacles
La commande « en couple » consiste à calculer les mouvements du robot à partir des forces qui s'appliquent sur ses articulations, mesurées à l'aide de capteurs. Un roboticien peut alors mettre au point un algorithme de commande qui oblige la machine à ne plus solliciter ses articulations au-delà d'une certaine force. Résultat : lorsque le pied d'un robot rencontre un obstacle, il ne forcera pas au-delà de la limite imposée par l'algorithme. En jouant sur les nombreux degrés de liberté de ses articulations, il générera un nouveau mouvement stable et poursuivra sa marche sans casse.
« Avec une commande en couple, il est également possible d'adapter la raideur des articulations en intervenant directement dans l'algorithme de commande, précise Auke Ispeert, de l'École polytechnique fédérale de Lausanne, en Suisse. L'algorithme en question peut en effet contrôler la force des moteurs de façon à ce qu'ils simulent le comportement d'un ressort. Cela donne des démarches plus souples, plus humaines et mieux adaptées à des terrains accidentés. »
Les robots qui utilisent cette technologie sont encore peu nombreux car l'intégration des capteurs de force dans les articulations est difficile à mettre en oeuvre. En outre, la commande en couple nécessite la mise au point d'un modèle virtuel du robot réunissant toutes ses caractéristiques dynamiques intrinsèques : la masse de chaque membre, les forces de frictions, l'élasticité des articulations, etc. L'optimisation de ces simulations constitue l'un des grands axes de recherche de la robotique bipède. Aujourd'hui, les robots les plus prometteurs qui utilisent la commande en couple sont Coman, le robot électrique de l'Institut de technologie italien ou encore Toro, présenté en 2013 par l'Agence spatiale allemande. Mais le plus emblématique reste sans aucun doute Atlas, grand favori de la finale du Darpa Robotics Challenge.
*LE CENTRE DE GRAVITÉ est un point qui se déplace comme si toute la masse du marcheur y était concentrée. Sa position dépend de la répartition des masses dans le corps.
L'ESSENTIEL
- EN 1968, un critère de stabilité établit que l'équilibre d'un marcheur bipède dépend de la position d'un point particulier du sol appelé « centre de pression ».
- EN 1984, WL-10RD est le premier robot bipède capable de marcher de façon dynamique et stable en respectant ce critère.
- EN 2006, un algorithme parvient pour la première fois à calculer les mouvements d'un robot en temps réel pour le faire marcher.
UN MAXIMUM DE KILOMÈTRES AVEC UN MINIMUM D'ÉNERGIE
Après 186 000 enjambées et 65 kilomètres parcourus sur une piste d'athlétisme, Cornell Ranger a finalement épuisé sa batterie. Ce robot marathonien, conçu en 2011 par les chercheurs du laboratoire de biorobotique et de locomotion, à l'université de Cornell, aux États-Unis, utilise le principe de marche semi-passive pour se déplacer. Introduite par le roboticien américain Tad McGeer, dans les années 1990, cette démarche particulière est à ce jour la moins gourmande en énergie. Et pour cause, les bipèdes semi-passifs ne possèdent pas de haut du corps et n'utilisent que deux moteurs pour actionner leurs jambes, contre plus d'une vingtaine chez les humanoïdes ! D'un point de vue physique, le pied posé sur le sol évolue selon la dynamique d'un pendule inversé, tandis que l'autre jambe suit la dynamique d'un pendule simple. Mais cette marche, aussi économique soit-elle, n'est valable que sur des surfaces planes et se dérègle dès que l'on dote le robot d'un bassin, d'un tronc et de bras.
DES MOTEURS PUISSANTS POUR UNE ALLURE NATURELLE
Les progrès des algorithmes n'expliquent pas à eux seuls l'agilité croissante des robots. La souplesse impressionnante des bipèdes de Boston Dynamics tels que Atlas (ci-dessus) provient aussi en grande partie de leurs moteurs hydrauliques. Alimentés par une réserve d'eau sous-pression, ils confèrent aux robots une puissance telle que ceux-ci peuvent réaliser des pas de côté et des sauts, mouvements inaccessibles à la plupart des robots électriques, dont les moteurs sont trop faibles. À une exception près. En 2010, les roboticiens Junichi Urata et Yuto Nakanishi, de l'université de Tokyo, au Japon, mettent au point des moteurs électriques cent fois plus puissants que leurs prédécesseurs, s'approchant un peu plus des performances des systèmes hydrauliques [1]. Leur technologie consiste à refroidir les moteurs à l'aide de circuits de refroidissement pour les exploiter au-delà de leur puissance nominale. Cette technologie a été utilisée avec succès sur le robot électrique Schaft, grand vainqueur des épreuves qualificatives de la Darpa Robotics Challenge, une compétition internationale de robotique organisée par l'Agence américaine pour les projets de recherche avancée de défense.
[1] J. Urata et al., IEEE/RSJ, Conf. on Intelligent Robots and Systems, 4497-4502,2010.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
Première pierre du Centre de nanosciences et de nanotechnologies |
|
|
|
|
|
Paris, 28 juin 2016
Première pierre du Centre de nanosciences et de nanotechnologies
Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.
L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France.
Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016).
Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.
Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia.
Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).
DOCUMENT cnrs LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante |
|
|
|
|
|
|