|
|
|
|
|
|
SOLEIL ET CLIMAT ... |
|
|
|
|
|
Les humeurs du Soleil changent notre climat
terre - par Édouard Bard dans mensuel n°352 daté avril 2002 à la page 16 (1096 mots) | Gratuit
Si personne ne pouvait l'affirmer avec certitude il y a vingt ans, il ne fait plus guère de doute aujourd'hui que les variations de l'activité du Soleil influent sur notre climat. L'ampleur de cette influence reste cependant l'objet de vives controverses.
Le Soleil a-t-il une influence sur le climat ? Cette question peut sembler saugrenue car notre étoile est à l'origine de pratiquement tous les phénomènes affectant l'atmosphère et l'océan. Pourtant, la relation entre Soleil et climat est restée un « sujet tabou » jusqu'au début des années 1980. La raison ? Un manque cruel de connaissances sur le lien entre l'activité du Soleil et son éclairement l'irradiance .
Controverses. Pendant de nombreuses années, l'énergie rayonnée par le Soleil était supposée invariable. D'où l'utilisation du terme de « constante solaire* ». Néanmoins, certains doutaient de cette stabilité. Leurs arguments : des corrélations troublantes entre des fluctuations de l'activité solaire et des phénomènes atmosphériques mal expliqués.
Les recherches sur les mécanismes de l'influence solaire sur le climat bénéficient d'un formidable regain d'attention1-5, non sans controverses. On en trouve l'illustration dans deux articles parus dans le même numéro du journal Science. Selon Gerard Bond, de l'université Columbia à New York, des baisses d'activité solaire durant les derniers dix mille ans seraient responsables d'augmentations périodiques de l'abondance d'icebergs en Atlantique Nord2. A contrario, une équipe de la NASA, grâce à une modélisation du climat lors d'une baisse d'activité solaire, suggère que l'atmosphère se refroidit partout à la surface du Globe... sauf là où se forment ces icebergs3.
Echelles de temps. Une certitude : l'activité solaire varie selon différentes échelles de temps. Un témoin de ces fluctuations est la variation du nombre de taches solaires* selon des cycles de onze ans.
Grâce aux mesures réalisées par les sondes spatiales, il est maintenant clair que la « constante solaire » fluctue elle aussi à court terme et que le cycle de onze ans se caractérise par une variation de l'éclairement total d'environ 0,1 % figure du haut. Paradoxalement, l'éclairement augmente avec le nombre de taches solaires : les taches assombrissent le Soleil, mais leur effet est masqué par celui des taches brillantes qui leur sont associées.
Plusieurs équipes d'astrophysiciens ont développé des modèles pour traduire les observations de l'activité solaire en termes d'éclairement. Leurs travaux ont permis d'estimer que l'éclairement solaire varie également à long terme, avec des périodes de faible éclairement qui correspondent à des baisses d'activité du Soleil.
Hélas, nous ne disposons de données que pour les quatre derniers siècles, et aucune observation astronomique fiable ne permet de quantifier l'éclairement solaire avant l'invention de la lunette astronomique. Il est cependant possible de reconstituer l'activité magnétique solaire liée à l'éclairement en étudiant l'abondance sur Terre de certains isotopes*, les cosmonucléides. Ils se forment par interaction du rayonnement cosmique surtout des protons avec les molécules de l'atmosphère, et leur production est modulée par l'intensité du champ magnétique solaire. Les géochimistes mesurent l'abondance des cosmonucléides dans des « archives naturelles » : les glaces polaires pour le béryllium 10 et le chlore 36, les anneaux d'arbre ou les coraux pour le carbone 14. Les fluctuations de l'éclairement ainsi reconstituées sont en bon accord avec celles établies en observant des taches solaires figure centrale.
Changements climatiques. Le principal enseignement de ces études est que les minima d'éclairement sont nombreux et que le Soleil a passé une partie importante des derniers millénaires en phase calme, avec probablement un éclairement plus faible.
Pour le dernier millénaire, il semble que les fluctuations solaires soient à l'origine de changements climatiques importants, tels l'optimum médiéval* ou le petit âge glaciaire* qui lui a succédé. Gerard Bond émet même l'hypothèse que ces variations d'activité solaire sont responsables de fluctuations climatiques et océanographiques quasi périodiques, avec un cycle d'environ mille cinq cents ans. La succession optimum médiéval-petit âge glaciaire constituerait le dernier cycle.
Selon cette hypothèse, notre climat serait actuellement en phase ascendante, en passe d'atteindre un nouvel optimum chaud dans quelques siècles. Les climatologues restent prudents car ces hypothèses sont uniquement fondées sur des correspondances approximatives entre des enregistrements paléoclimatiques et les variations de l'activité solaire.
Les modèles mathématiques de la circulation globale de l'atmosphère et de l'océan suggèrent qu'un minimum solaire entraîne un refroidissement du climat de l'ordre de 0,5 à 1 °C. Par ailleurs, ce refroidissement ne serait pas réparti de façon homogène, mais les baisses de température se concentreraient sur l'Europe et l'Amérique du Nord3.
A long terme, les fluctuations solaires pourraient être aussi la cause de changements hydrologiques qui affecteraient la circulation océanique en Atlantique Nord5. Le système océan-atmosphère serait donc susceptible de puissamment amplifier ces petites variations solaires.
Quelle est l'importance de la variabilité solaire dans le réchauffement global ? Plusieurs scientifiques pensent qu'une partie du réchauffement d'environ 0,7 °C depuis le milieu du XIXe siècle est lié à la lente augmentation de l'éclairement solaire à partir de 1750. Le consensus actuel reste que l'augmentation rapide de 0,4 °C pendant les trente dernières années est essentiellement due aux gaz à effet de serre rejetés par l'industrie. La contribution solaire n'excéderait pas le quart, voire le tiers de ce réchauffement.
Cependant, des climatologues danois pensent que l'effet du Soleil a été considérablement sous-estimé et que le réchauffement global serait une conséquence indirecte des fluctuations solaires. Ces chercheurs ont en fait « ressuscité » une théorie ancienne sur une possible influence du rayonnement cosmique sur le climat.
L'équipe danoise propose qu'un minimum solaire, qui va de pair avec une augmentation du rayonnement cosmique sur Terre, provoque une augmentation de la nébulosité globale. Mais cette corrélation, observée pour la période 1984-1991 n'a pas été confirmée par la suite. Des données régionales pour les Etats-Unis suggèrent même une corrélation opposée6.
Hypothèse paradoxale. Les chercheurs danois ont depuis affiné leurs analyses et supposent désormais que l'influence solaire se limite aux nuages de basse altitude4. Cette nouvelle hypothèse semble paradoxale car la plupart des spécialistes s'attendent à un effet solaire maximal dans la partie haute de l'atmosphère, et non dans sa partie la plus basse. Seules les données sur le prochain cycle solaire nous diront si l'équipe danoise est sur une piste sérieuse, car, pour l'instant, les mécanismes physico-chimiques d'un éventuel effet du rayonnement cosmique sur la formation des nuages sont très mal compris.
Les opinions divergentes sur le réchauffement global pourraient être départagées dans un futur proche car nous entrons actuellement dans la phase descendante du cycle solaire. D'ici à 2006, l'influence des gaz à effet de serre dominera, si l'on en croit la plupart des spécialistes1,7. Si l'équipe danoise a raison, alors la baisse d'activité solaire pourrait ralentir un peu le réchauffement.
Par Édouard Bard
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
NEURONE FORMEL |
|
|
|
|
|
neurone formel
Un réseau de neurones formels est un dispositif constitué d'un grand nombre de processeurs simples, fonctionnant en parallèle selon des architectures diverses et fortement interconnectés, à l'instar des neurones du cerveau.
DU SYSTÈME NERVEUX HUMAIN AUX RÉSEAUX DE NEURONES ARTIFICIELS
Comment concevoir qu'un être vivant soit capable de lire ? Calcule-t-il plus vite qu'un ordinateur ? A-t-il une plus grande mémoire ? Est-il mieux « programmé » ? Et, finalement, est-il comparable à une machine ? Ces questions sont au cœur d'une nouvelle technique du traitement de l'information dénommée « réseaux de neurones artificiels », ou « réseaux neuronaux ». Elle cherche à comprendre le fonctionnement intime du système clé des êtres vivants : le système nerveux.
Les mots que vous lisez s'adressent à un être vivant, fruit de plusieurs millions d'années d'évolution, et capable de les comprendre. Il est doté de la vision et peut ainsi recevoir l'image des mots. Dans le noir, malgré toute son intelligence, il ne recevrait pas ce message. De cette image projetée sur sa rétine, il conçoit un sens : quelqu'un s'adresse à lui. Le texte que moi, l'auteur, j'ai écrit s'adresse à vous, le lecteur.
Tout cela n'a pris que quelques secondes. Quelques secondes pour voir, pour analyser, pour prendre conscience de l'existence de deux personnes qui ne se connaissent pas mais qui, sans doute possible, existent ou ont existé. Quelques secondes durant lesquelles, dans votre cerveau, des milliards de cellules nerveuses ont émis des signaux en cadence.
Ce petit événement, si banal pour un être vivant, est parfaitement inaccessible au plus performant des instruments contemporains de traitement de l'information : l'ordinateur. Cet objet, pourtant capable d'assurer des millions de réservations d'avion, de contrôler la trajectoire d'une navette spatiale ou de construire des mondes virtuels, reste muet devant ce simple exercice de lecture. Il est incapable de dégager un sens de ce qui est écrit ; il n'a pas conscience de lui-même, pas d'identité, pas de connaissance d'autrui. En somme, c'est un assemblage inerte très compliqué, qui est et qui reste une machine.
Les fonctions du système nerveux
Le traitement de l'information
En général, un être vivant traite des informations de nature variable. Un virus, par exemple, lorsqu'il attaque un organisme, déclenche la réponse du système immunitaire. La chasse au virus qui s'engage alors fait appel à la mémoire du système immunitaire pour produire les anticorps les plus adaptés à la destruction du virus : c'est un traitement d'informations. Le cerveau n'a pas grand-chose à faire dans cette lutte vitale, en tout état de cause rien qui fasse intervenir la volonté. En revanche, pour voir un fruit dans un arbre, pour entendre le bruit d'un moteur de voiture ou ressentir la douceur de la soie, il faut à la fois des organes sensoriels qui captent les signaux émis par les objets et un dispositif capable de les interpréter. C'est le rôle du cerveau et du système nerveux.
Deux axes de recherche : observation ou reproduction
Le cerveau reçoit en permanence, par le biais des cinq sens, une prodigieuse quantité d'informations. La difficulté est de parvenir à comprendre comment il extrait de cette masse d'informations celles qui vont lui sembler pertinentes. Deux points de vue de spécialistes s'affrontent : certains estiment qu'il faut observer longtemps les réactions du cerveau dans des situations variables, et s'appuient sur des groupes de règles et sur une logique pour les combiner, afin de reproduire les comportements observés. Par exemple, une mouche qui veut se poser tend ses pattes lorsqu'elle arrive près du sol afin que le choc soit absorbé. On peut donc établir des règles logiques qui régissent le comportement de la mouche dans cette situation : si elle voit le sol qui se rapproche vite, alors elle envoie aux muscles les informations nécessaires pour qu'ils se mettent en extension. D'autres spécialistes pensent que c'est en comprenant la structure du système nerveux que l'on comprendra son fonctionnement. En reprenant l'exemple précédent, il s'agit de savoir comment la vitesse et le rapprochement apparent du sol sont perçus par le système visuel de la mouche et quelles sont les structures du système nerveux qui analysent ces informations et qui élaborent l'ordre donné aux muscles des pattes.
La seconde approche est ici préférée : en imitant des parties du système nerveux et en analysant leur fonctionnement, on devrait comprendre comment notre propre image du monde s'élabore à partir des signaux reçus par les yeux, par les oreilles ou par tout autre organe sensoriel.
L'idée de base consiste d'abord à reproduire la forme du système nerveux. On dit alors qu'on procède par mimétisme de la structure. Et c'est à l'échelle de la cellule nerveuse, ou neurone, que les chercheurs en neuro-mimétisme ont décidé de se placer pour réaliser la copie. Ils auraient tout aussi bien pu choisir l'échelle moléculaire ou l'échelle du cerveau tout entier, chaque échelle ayant un intérêt : elles donnent un accès différent à une même question et permettent d'y répondre de manière différente.
L'ordinateur, outil de modélisation
Imiter le système nerveux n'est pas une idée nouvelle, mais ce projet connaît aujourd'hui un fort développement grâce à l'ordinateur lui-même qui permet de tester, de simuler les hypothèses émises par les chercheurs. En particulier, l'ordinateur sert à faire fonctionner les modèles construits par les mathématiciens à partir des observations et des réflexions fournies par les physiologistes. Par exemple, une cellule nerveuse est analysée en détail, et son fonctionnement est transcrit en équations. Celles-ci rendent compte de la forme de la cellule, de la circulation des signaux électriques, de l'échange des signaux avec d'autres cellules nerveuses. Ces dizaines d'équations sont simulées par un ordinateur. Ce modèle mathématique du neurone, que l'on appelle le « neurone formel », est dupliqué pour constituer un réseau. À cet effet, les multiples neurones formels ainsi créés sont reliés entre eux selon un schéma choisi, qui pourrait ressembler à un réseau téléphonique. C'est ce que l'on appelle un « réseau de neurones formels », ou un « réseau neuronal ». Le réseau dans son ensemble est simulé, encore grâce à la puissance de l'ordinateur. Son comportement global est analysé afin d'en étudier les propriétés. À cette étape de la recherche, des milliers d'équations et des centaines de milliers d'opérations ont été prises en compte pour simuler un réseau de quelques dizaines de neurones formels.
Un paramètre fondamental : la faculté d'apprentissage
Mais mimer uniquement la structure et le comportement de la cellule nerveuse restreint considérablement l'intérêt de ces recherches. Si l'on s'en tient là, ce n'est qu'un simple modèle du système nerveux qui a été ajouté au catalogue des connaissances scientifiques. Tout au plus aurons-nous un dispositif qui ne remplit qu'une tâche répétitive, qui ne se modifie jamais et qui ne manifeste donc aucune capacité d'adaptation au changement. Il lui manque l'essentiel : la possibilité d'apprendre, c'est-à-dire de produire un comportement qui réponde aux situations rencontrées.
La dernière étape de la recherche consistera à doter le réseau neuronal de cette capacité d'apprentissage. Cette fonction sera effectuée à partir d'une règle d'apprentissage qui pourra agir sur les différentes parties du neurone formel et du réseau. Avant d'en arriver là, il faut tout d'abord présenter les phases de construction d'un modèle de neurone formel, et de sa mise en réseau ; ensuite, il s'agira de rentrer dans le détail de la constitution d'une règle d'apprentissage afin de voir comment celle-ci agit sur le réseau ; enfin, nous illustrerons le fonctionnement de tels réseaux à travers deux exemples concrets tirés du domaine médical et du traitement du son.
Le modèle du neurone
Description du neurone
Le neurone biologique est une cellule nerveuse. On ne connaît pas tous les détails de son fonctionnement. Comme l'indique très clairement J. M. Robert : « le neurone est une cellule […], un ensemble de molécules […], qui vit, meurt dans un environnement […]. Il est, de ce fait, indissociable du monde qui l'entoure ». Étudier sa nature et son fonctionnement est l'affaire des biologistes, des neuropharmacologistes et des neurochimistes. L'étudier dans son contexte requiert des outils de traitement de l'information, car le neurone reçoit et émet des signaux, et prend des décisions : c'est sa fonction principale.
Schématiquement, un neurone est une entité composée d'un corps cellulaire, d'un axone et d'une arborisation dendritique qui peut entrer en contact avec des milliers d'autres neurones. Le neurone peut émettre un influx nerveux, un signal électrique qui parcourt l'axone et qui se diffuse par le canal d'un réseau dont la forme rappelle les ramures d'un arbre. C'est ce qu'on appelle l'« arbre dendritique ».
Fonctionnement du neurone
Lorsque le signal atteint l'extrémité d'un neurone, les synapses qui assurent le contact entre les neurones diffusent une substance chimique, le neuromédiateur, qui est captée par les neurones proches. Un simple signal nerveux peut donc être transmis par ce mécanisme à un grand ensemble de neurones, mais cette transmission dépendra de la quantité de neuromédiateur déversée par les synapses. La nature nous pose là une première question : il serait si simple de connecter les neurones directement, comme on branche une prise téléphonique pour être relié au central. Mais pour un neurone biologique, ce n'est pas le cas : c'est comme si le signal téléphonique pouvait ouvrir un robinet d'eau, que l'eau s'écoulait dans un récipient et que la transmission du signal téléphonique reprenait en fonction de la quantité d'eau recueillie.
Malgré son apparente bizarrerie, ce mécanisme est très astucieux : il permet de garder des traces de ce que le système nerveux a vécu. En un mot, c'est probablement dans ce mécanisme de transmission de l'information que réside le secret de l'apprentissage. C'est ce qu'ont compris des spécialistes en neurophysiologie depuis cinquante ans, et en particulier Donald Hebb qui, le premier, a fourni une explication de l'intérêt de cette transmission.
Sans entrer dans les détails de la chimie ou de la structure du neurone, il est toutefois possible de se pencher sur sa fonction, telle qu'elle est comprise par les physiologistes et par les mathématiciens. Le concept de « neurone formel » encore utilisé date de 1943. Il a été proposé par deux chercheurs américains, Warren McCulloch et Walter Pitts. Le neurone reçoit des entrées, en provenance du monde extérieur, ou en provenance d'autres neurones, il les additionne, et prend une décision. Comme les liaisons ne sont pas directes, on dit que la transmission est modulée, ou « pondérée », par les liaisons. Plus précisément, si le signal transmis d'un neurone à un autre est renforcé, gonflé par la liaison synaptique, on dira que la synapse est excitatrice. À l'opposé, si le signal est affaibli, on parlera de synapse inhibitrice. C'est d'ailleurs ce type de synapse que l'on rencontre en plus grand nombre dans le système nerveux. Un neurone formel reçoit donc des entrées qui sont pondérées par des liaisons synaptiques, et la valeur de ces pondérations dépend de ce que le réseau a vécu. En résumé, un réseau neuronal est un assemblage de multiples neurones qui essaye de garder une trace de ses états successifs, en transformant les liaisons entre ses éléments.
C'est un processus assez naturel, si on se rappelle qu'un système vivant passe son temps à établir des relations : si un parfum me rappelle de doux souvenirs, c'est que j'ai établi une relation entre le parfum qui flottait dans l'air et l'état de bien-être dans lequel je me trouvais à cet instant. Cette situation a changé des liaisons entre mes neurones, qui ont gravé cette relation dans mon système nerveux.
Apprendre, ou comment modifier son réseau
Imaginons un sculpteur qui, éclat par éclat, fait émerger du marbre une forme. Si celle-ci nous émeut, c'est que l'expression de cette forme nous « parle », qu'elle nous plaît, qu'elle suscite en nous une émotion. C'est ce que produit en nous notre propre système nerveux. Il se forme au gré de nos expériences. Chaque perception est un éclat, mais chaque éclat transforme notre perception. Il n'existe pas de spectateur de notre « sculpture » cérébrale. Nous sommes simultanément la sculpture et le spectateur, mais c'est notre propre sensation du monde que nous sculptons. Il est assez difficile d'imaginer comment cela se passe, mais nous disposons de quelques hypothèses, dont une a été formulée par Hebb en 1942. Ce chercheur s'est intéressé à l'apprentissage sous l'angle de la modification des connexions synaptiques. Il existe bien évidemment de multiples façons de voir l'apprentissage, mais, à l'échelle du neurone, c'est la manière dont cette modification s'opère qui importe. Hebb considère deux neurones seulement, reliés par une seule liaison.
La modification de la liaison entre neurones en fonction de leur état
Lorsqu'il reçoit des signaux en provenance de l'extérieur, le réseau de deux neurones artificiels peut se trouver dans quatre états différents. Le premier neurone (neurone 1) peut être actif, et le second neurone (neurone 2) également. Il se peut aussi que le neurone 1 soit actif, et le neurone 2 inactif. Réciproquement, le neurone 1 peut être inactif, et le neurone 2 actif. Enfin, les deux neurones peuvent être simultanément inactifs. Si l'on ne considère pas d'autre état pour ces neurones, nous avons passé en revue l'ensemble des états possibles pour le réseau. Pour chacun de ces quatre états, Hebb a imaginé comment la liaison entre les deux neurones pouvait être modifiée. Il a considéré que celle-ci était en relation avec l'activité conjointe des deux neurones. On dit aussi que la liaison évolue en fonction de la corrélation observée des activités des neurones. En d'autres termes, la liaison augmentera si les deux neurones sont actifs ou inactifs simultanément, et elle diminuera dans les autres cas.
Le réseau de Hérault-Jutten : la parole est aux indépendants
Comme il est agréable d'écouter de la musique pendant que l'on « refait le monde » avec ses amis. Mais quel exercice pour le cerveau! À tout moment, les oreilles reçoivent les sons de la pièce bruyante, et le cerveau doit faire le tri. Il ne nous est d'ailleurs pas difficile de fixer notre attention sur la musique, ou sur le discours de notre voisin de table. Pourtant, les sons sont mélangés, se répercutent sur les murs, sont absorbés par le tapis, et c'est une abominable mixture de fréquences qui parvient à nos oreilles. Comment imaginer que le cerveau puisse distinguer, faire la différence, entre tous ces signaux?
Des recherches récentes apportent une ébauche de réponse à cette question. D'abord, comme pour la vision, le cerveau reçoit de chaque oreille des images sonores différentes d'un même environnement. Il possède donc un moyen de comparer et de mettre en relief ce qu'il reçoit. Mais ce n'est pas tout. Les fibres nerveuses véhiculent un mélange de signaux, et de petites structures neuronales semblent capables de faire la différence. Elles peuvent, sous certaines conditions, séparer les sons sans les connaître.
Revenons à notre réunion amicale. Le cerveau reçoit deux images sonores de cette cacophonie : le signal capté par l'oreille gauche et celui capté par l'oreille droite. Dans ces conditions, un petit réseau de deux neurones artificiels pourrait séparer cet affreux mélange, permettant de discerner les propos et la musique de fond.
Un modèle de séparation des signaux a été proposé par deux chercheurs français, Christian Jutten et Jeanny Hérault. Pour que ce réseau fonctionne, il faut néanmoins satisfaire à une contrainte : que les signaux d'origine soient indépendants, c'est-à-dire que la valeur d'un signal ne dépende en aucune façon de la valeur de l'autre signal. Cela est certainement vrai dans le cas de notre ami et de la musique d'ambiance, mais dans la nature l'indépendance n'est parfois qu'apparente. Observons, par exemple, un pont qui enjambe une rivière : avec un peu d'attention, on peut voir qu'il présente des ruptures destinées à lui permettre de « bouger », de se dilater ou de se contracter. Cela vient de ce que la longueur du pont dépend de la température : en hiver le pont sera plus court, et en été, il sera plus long!
Le modèle de réseau neuronal proposé ici sert, en général, à tester cette indépendance, et il peut ainsi s'appliquer à de nombreux domaines : le traitement d'images, l'analyse de signaux radars ou subaquatiques. En s'inspirant d'un mécanisme biologique, ces chercheurs ont ainsi imaginé un système utile dans le domaine technique.
Apprendre à voir : les bases de l'auto-organisation
Les images tridimensionnelles fleurissent au détour de tous les magazines : dragons effrayants, tour Eiffel ou voitures de rêve. Toutes donnent une illusion saisissante de profondeur. Elles semblent vraiment sortir de la feuille. Mais, pour accéder à cette vision, il faut un petit temps d'apprentissage, tout juste guidé par quelques explications bien souvent imprécises. Apprendre à voir ? Cela semble bien curieux. Mais c'est pourtant ce qui se déroule dans le cerveau. Depuis la naissance, le système visuel s'affine en permanence. Chaque sensation visuelle venant donner forme à la perception. En un mot, le système visuel s'organise par lui-même à partir des informations qu'il reçoit.
Un tel principe ne pouvait pas laisser les scientifiques indifférents. C'est pourquoi un Finlandais, Teuvo Kohonen, inspiré par les travaux de physiologistes, en particulier les prix Nobel de physiologie David Hubel, Torsten Wiesel et Roger Sperry, propose en 1982 un modèle dit d'auto-organisation. Dans ce modèle, des centaines de neurones formels adaptent leurs connexions en vue de faire apparaître des caractéristiques contenues dans les signaux perçus. Ils détectent des régularités, ils regroupent les signaux similaires. En termes plus techniques, ils font une analyse des données locales, mais dans un sens global. Comme un peintre, par petites touches, ils font apparaître une image globale qui a un sens pour celui qui l'observe.
Cette propriété est également très riche, et peut être appliquée à de nombreux problèmes pour lesquels les relations entre les parties révèlent une forme cachée. Par exemple, analyser l'état d'un moteur, étudier le comportement d'un réseau de distribution électrique ou encore révéler des similarités économiques entre pays sont des tâches qui relèvent de ce moyen d'analyse.
Perspectives
Cet immense champ d'investigation est encore à explorer. Il est excessivement difficile d'avancer, car la connaissance physiologique du système nerveux, qui progresse pourtant à pas de géant, est encore balbutiante. D'autre part, les outils mathématiques utilisés pour analyser les modèles formels sont également complexes. Enfin, les ordinateurs actuels, malgré leur puissance de calcul colossale, sont très loin d'être assez puissants pour simuler des réseaux de neurones de grandeur respectable. N'oublions pas cependant que le but de ces recherches n'est pas de refaire un cerveau. Il y a des moyens bien « naturels » pour cela, et qui ne requièrent pas des dizaines d'années de recherche… Comme nous l'avons vu en préambule, c'est un accès à un savoir nouveau, qui passe par une observation particulière de la nature, qui intéresse les chercheurs. C'est également une des plus extraordinaires aventures de la science : les étoiles pour ceux qui lèvent les yeux, la matière pour ceux qui regardent la terre et les mécanismes de la conscience pour ceux qui veulent ouvrir « l'œil du dedans ».
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
ONDES GRAVITATIONNELLES |
|
|
|
|
|
Paris, 11 février 2016
Les ondes gravitationnelles détectées 100 ans après la prédiction d'Einstein
LIGO ouvre une nouvelle fenêtre sur l'Univers avec l'observation d'ondes gravitationnelles provenant d'une collision de deux trous noirs. Pour la première fois, des scientifiques ont observé des ondulations de l'espace-temps, appelées ondes gravitationnelles, produites par un événement cataclysmique dans l'Univers lointain atteignant la Terre après un long voyage. Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l'Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d'une telle collision de deux trous noirs avait été prédite, mais ce phénomène n'avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l'Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l'objet d'une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l'Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.
Clin d'œil de l'histoire : c'est 100 ans tout juste après la publication de la théorie de la relativité générale d'Einstein, qu'une équipe internationale vient d'en confirmer l'une des prédictions majeures, en réalisant la première détection directe d'ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.
L'analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d'estimer que les deux trous noirs ont fusionné il y a 1.3 milliard d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil. La comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L'entrée en service d'Advanced Virgo fin 2016 permettra justement cela.
Selon la théorie de la relativité générale, un couple de trous noirs en orbite l'un autour de l'autre perd de l'énergie sous forme d'ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l'ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2. C'est cette bouffée d'ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.
Une preuve indirecte de l'existence des ondes gravitationnelles avait été fournie par l'étude de l'objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d'un pulsar en orbite autour d'une étoile à neutrons. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l'énergie sous la forme d'ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d'années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l'évolution d'un autre système binaire, formé de deux trous noirs, lorsqu'ils ont fusionné en un trou noir unique.
Détecter un phénomène aussi insaisissable1 que les ondes gravitationnelles aura demandé plus de 50 ans d'efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd'hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l'astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu'émettent certains objets astrophysiques, comme les trous noirs.
Autour de LIGO s'est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L'équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), de Leibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff, Birmingham, et d'autres universités du Royaume-Uni, et à l'Université des îles Baléares en Espagne.
Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l'Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l'interféromètre Virgo.
A l'origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d'Alain Brillet et d'Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l'INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu'en 2011.
Le projet Advanced Virgo, financé par le CNRS, l'INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d'ici la fin de l'année. En outre, d'autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd'hui.
En s'engageant depuis plus de vingt ans dans la réalisation de Virgo puis d'Advanced Virgo, la France s'est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l'exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l'analyse des données qu'à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées :
- le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
- le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d'Azur/Université Nice Sophia Antipolis), à Nice ;
- le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
- le Laboratoire d'Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
- le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
- le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.
La découverte a été rendue possible par les capacités accrues d'Advanced LIGO, une version grandement améliorée qui accroit la sensibilité des instruments par rapport à la première génération des détecteurs LIGO. Elle a permis une augmentation notable du volume d'Univers sondé – et la découverte des ondes gravitationnelles dès sa première campagne d'observations. La National Science Foundation des Etats-Unis a financé la plus grande partie d'Advanced LIGO. Des agences de financement allemande (Max Planck Society), britannique (Science and Technology Facilities Council, STFC) et australienne (Australian Research Council) ont aussi contribué de manière significative au projet. Plusieurs des technologies clés qui ont permis d'améliorer très nettement la sensibilité d'Advanced LIGO ont été développées et testées par la collaboration germano-britannique GEO. Des ressources de calcul significatives ont été allouées au projet par le groupe de calcul Atlas de l'AEI à Hanovre, le laboratoire LIGO, l'université de Syracuse et l'Université du Wisconsin à Milwaukee. Plusieurs universités ont conçu, construit et testé des composants clés d'Advanced LIGO : l'université nationale australienne, l'université d'Adélaïde, l'université de Floride, l'université Stanford, l'université Columbia de New York et l'université d'Etat de Louisiane.
DOCUMENT cnrs LIEN |
|
|
|
|
|
|
LES TERRES RARES |
|
|
|
|
|
«La course aux terres rares est stimulée par de nouveaux usages »
entretien - par Propos recueillis par Muriel de Véricourt dans mensuel n°457 daté novembre 2011 à la page 92 (1989 mots) | Gratuit
C'est l'histoire d'un groupe de 17 métaux, les terres rares, enjeu géopolitique tout autant qu'industriel. À quoi servent-elles ? Quelles sont leurs promesses ? Risque-t-on d'en manquer ? Georges Pichon décrypte pour La Recherche les jeux du marché.
LA RECHERCHE : Pourquoi les terres rares intéressent-elles tant de monde ?
GEORGES PICHON : À cause des propriétés chimiques, optiques et magnétiques très intéressantes de ces quinze métaux dont le noyau atomique est constitué d'un nombre de protons compris entre 57 et 71 ils sont regroupés sous le vocable de lanthanides, auxquels il faut ajouter l'yttrium et le scandium, situés dans la même colonne du tableau périodique des éléments. Ces terres dites rares ne le sont pourtant pas : elles sont plutôt bien réparties dans l'écorce terrestre. Par exemple, le cérium, le plus commun d'entre ces métaux, est plus répandu que le cuivre. L'institut d'études géologiques des États-Unis estime que l'écorce terrestre contient 100 millions de tonnes de terres rares, plus de 700 fois la demande actuelle !
Ce sont donc leurs possibles applications qui sont à l'origine de leur popularité...
G.P. Tout à fait, ces éléments chimiques font parler d'eux d'abord parce qu'ils entrent dans la composition de produits de notre quotidien : téléphones portables, téléviseurs, ordinateurs. Mais ils font aussi figure de possibles substituts à l'énergie issue du pétrole. Ils entrent d'ores et déjà dans la fabrication des éoliennes ou des véhicules hybrides. D'autres utilisations, enfin, n'existent pas encore mais pourraient être gourmandes en terres rares si certaines technologies décollaient. C'est par exemple le cas des réfrigérateurs ou des climatiseurs sans fluides frigorigènes. Au total, compte tenu de ce que l'on fabrique actuellement, la demande en terres rares est environ de 136 000 tonnes par an.
Ce niveau élevé est-il en augmentation ?
G.P. Oui, le nombre d'applications ne cesse de croître, à tel point que certains spécialistes n'hésitent pas à parler d'« addiction » aux terres rares. En 2000, la production mondiale n'excédait pas 80 000 tonnes par an. En 2014, on estime qu'elle pourrait être de plus de 203 000 tonnes ! Cette tendance à la hausse n'est pas nouvelle. Ces métaux, découverts entre la fin du XIXe siècle et le début du XXe siècle, ont en effet toujours intéressé les industriels. Les premières applications remontent à la fin du XIXe siècle : il s'agissait d'utiliser le cérium pour fabriquer des becs de gaz destinés à l'éclairage public. Puis on s'est mis à fabriquer des pierres à briquet, utilisant la capacité des terres rares à s'enflammer au contact de l'air. Ces métaux ont ensuite été utilisés pour polir et décolorer le verre par oxydation : c'est une application qui continue encore aujourd'hui à tirer la demande à la hausse, du fait de l'augmentation des surfaces vitrées dans le monde. Les terres rares se sont également imposées dans les opérations de traitement de la fonte et de l'acier, une pratique qui consomme encore aujourd'hui plus d'un quart de la production mondiale.
Qu'en est-il des nouveaux usages ?
G.P. À partir des années 1990, l'industrie électronique est devenue utilisatrice, propulsant le Japon au premier rang des consommateurs de ces métaux. Dix ans plus tard, le secteur de l'énergie s'est à son tour emparé de ces éléments chimiques. Notamment de l'un d'entre eux, le néodyme, qui entre dans la composition des aimants très puissants utilisés dans les éoliennes et les moteurs de véhicules hybrides. Aujourd'hui, l'amélioration du niveau de vie partout dans le monde stimule à la fois l'augmentation des usages traditionnels et la multiplication des applications de haute technologie. La hausse de la demande est, on l'a compris, un phénomène de longue date. Ce qui est nouveau, donc, c'est plutôt l'impression, au vu des positions chinoises, que cette demande pourrait un jour devenir difficile à satisfaire.
Quel est le problème avec la Chine ?
G.P. La Chine, qui produit et commercialise 95 % des terres rares dans le monde, limite ses exportations depuis 2004. À mon avis, l'objectif est d'inciter les nombreux industriels utilisateurs de ces matières premières à venir s'installer sur place. Quoi qu'il en soit, l'Organisation mondiale du commerce vient de condamner le protectionnisme chinois. Officiellement, pas pour les terres rares. Mais, selon les analystes, il s'agit bel et bien d'un avertissement. En effet, le motif de condamnation concerne l'adoption récente d'une politique agressive de restriction des exportations sous prétexte de protection de l'environnement. Cela s'applique, entre autres, aux terres rares.
Comment s'explique la position hégémonique de la Chine ?
G.P. Plusieurs pays disposent d'importantes ressources en terres rares, mais la Chine est quasi la seule à les exploiter aujourd'hui. Cette situation est très récente, et personne n'a su la prévoir. Dans les années 1970, les États-Unis étaient le premier producteur mondial, grâce à une mine située à Mountain Pass, en Californie. La Chine a commencé à produire en 1984, dans l'indifférence générale, car les terres rares étaient à l'époque une ressource peu coûteuse et largement disponible. Du fait du faible niveau de salaires et de l'absence de réglementation environnementale contraignante, génératrice de surcoûts dans les pays industrialisés, la production chinoise a progressivement supplanté toute concurrence. La mine californienne a fini par fermer en 2002. Depuis, la plus grande partie des volumes échangés provient d'un seul centre de traitement situé à Baotou, en Mongolie-Intérieure, à côté de la mine de Bayan Obo, qui renferme 600 millions de tonnes de minerais contenant 5 % d'oxydes de terres rares. Les industriels du monde entier s'accommodaient parfaitement de cette situation tant que les prix étaient bas. D'autant plus que l'extraction des terres rares est une industrie polluante, car les minerais qui en contiennent renferment aussi des éléments radioactifs, à savoir du thorium-232, de l'uranium-238 et leurs produits de filiation.
La tension géostratégique actuelle conduit-elle les industriels à réfléchir à une diversification de leurs approvisionnements ?
G.P. C'est certain, plusieurs sociétés minières ont remis en service des gisements délaissés quelques années auparavant. C'est le cas de la mine de Mountain Pass, remise en exploitation en 2010, qui a déjà produit 1 000 tonnes. La société Molycorp, qui exploite ce gisement, indique vouloir produire 20 000 tonnes par an à partir de 2012. De son côté, la compagnie minière Lynas a ouvert une mine en Australie. Celle-ci devrait commencer à produire d'ici à la fin de l'année et fournir 22 000 tonnes par an fin 2012. Mais ces projets se heurtent à de nombreux obstacles. Ainsi, la société Lynas espérait envoyer ses produits d'extraction en Malaisie pour qu'ils y soient raffinés. Mais la population malaise menace de se mobiliser contre la perspective de rejets radioactifs sur son territoire... Face à ces difficultés, l'accent est également mis sur la recherche de nouveaux gisements prometteurs. De nombreuses sociétés minières, épaulées par des géologues, en recherchent en ce moment, notamment en Finlande, aux États-Unis et sur le continent africain. Je n'ai encore vu passer aucune annonce qui fasse état de découvertes en Afrique susceptibles de bouleverser l'économie des terres rares, mais je parierais volontiers que cela arrivera.
Un moyen d'apaiser le marché est d'économiser le matériau. Peut-on recycler les terres rares ?
G.P. Beaucoup de chercheurs y travaillent. Le groupe de chimie Rhodia, qui exploite et transforme des terres rares importées de Chine dans son usine de La Rochelle, est particulièrement actif. L'enjeu est de mettre au point des procédés métallurgiques d'extraction des terres rares à partir d'un produit de recyclage, et ce à un prix acceptable. Ces efforts aboutiront sans doute au cours des prochaines années. Les chimistes travaillent aussi à la mise au point de procédés plus économes, pour exploiter au mieux une ressource dont le prix flambe.
La substitution par d'autres composés est-elle possible ?
G.P. Des recherches intensives sont menées sur le sujet, notamment au Japon et en Allemagne, mais les résultats sont pour l'instant décevants. Certaines caractéristiques des terres rares, comme leurs propriétés magnétiques liées à leur structure électronique particulière, les rendent difficilement remplaçables. De plus, la volonté de s'affranchir de ces matières premières se heurterait dans bien des cas à la rigidité des filières industrielles. Les producteurs de verre, par exemple, sont peu enclins à modifier leur équipement. Pour l'instant, ils préfèrent payer davantage, car ce surcoût reste marginal dans le produit final. En revanche, les secteurs qui ne sont pas encore rentables, comme la production d'énergie sans pétrole, pourraient abandonner les recherches autour de technologies utilisatrices de terres rares si celles-ci ne sont pas disponibles à un coût acceptable.
C'est donc un problème de prix...
G.P. Absolument, les acteurs de ce marché ne croient pas au risque de pénurie. Le battage autour de la situation commerciale actuelle donne au grand public l'impression que la ressource en terres rares est sur le point de s'épuiser. En fait, ce n'est pas le cas. On connaît d'ailleurs de nombreux gisements de terres rares répartis dans le monde, entre autres en Finlande, au Vietnam, aux États-Unis, au Canada et en Allemagne.
De plus, les efforts de prospection devraient conduire à en identifier de nouveaux et à évaluer si leur exploitation est envisageable et peut être rentable.
Mais peut-on au moins connaître le montant des réserves disponibles ?
G.P. Cette information est gardée comme un secret d'État par les Chinois. Et ils ont intérêt à mentir ! Ailleurs dans le monde, ces renseignements seraient plus facilement disponibles... s'ils n'étaient pas couverts par le secret industriel. Toutefois, les exploitants sont obligés de communiquer lorsqu'ils recherchent des financements pour exploiter un nouveau gisement. Cotés en Bourse, ils ne peuvent pas se permettre de distiller des données fantaisistes. Quoi qu'il en soit, la principale raison pour laquelle l'information est aujourd'hui lacunaire, c'est que jusqu'ici personne ne s'intéressait à ces matières premières peu coûteuses. En raison de la tension actuelle sur ce marché, les industriels et les États aimeraient aujourd'hui y voir plus clair et disposer d'une cartographie détaillée des ressources.
Quelle est l'importance de l'expertise scientifique dans ce travail de recension ?
G.P. L'apport des géologues est capital non seulement pour identifier les gisements mais aussi pour déterminer la teneur des minerais en telle ou telle espèce chimique. En effet, la composition exacte des produits d'extraction varie d'une mine à l'autre. Cela importe peu pour certains usages, liés aux propriétés chimiques voisines des dix-sept terres rares, qui peuvent donc être utilisées sous forme de mélange. Mais c'est au contraire très important pour les applications qui misent sur les propriétés magnétiques ou optiques propres à l'un ou l'autre de ces dix-sept éléments. La composition exacte du minerai d'un gisement est donc une information sensible, qui reste secrète. L'expertise des géologues permet de décrypter les données qui sont rendues publiques.
On a récemment découvert d'importants gisements sous-marins dans l'océan Pacifique. Cela change-t-il la donne ?
G.P. La mise en évidence par une équipe de scientifiques japonais de terres rares dans des boues prélevées à plusieurs milliers de mètres au fond dans l'océan Pacifique n'est pas véritablement une surprise : l'existence de ressources sous-marines était déjà connue. C'est avant tout un effet d'annonce, à replacer dans le contexte de la tension diplomatique entre la Chine et le Japon. L'industrie électronique japonaise, qui exporte ses productions dans le monde entier, consomme les deux tiers des terres rares exportées par les Chinois, sans disposer d'aucune ressource productive et se trouve donc en état de totale dépendance. Cette « découverte » est à classer parmi les arguments avancés pendant une négociation commerciale...
Apprendre à extraire une telle ressource sous-marine n'est donc pas envisageable ?
G.P. Personne ne peut répondre à cette question aujourd'hui. Pour trancher, il faudrait y consacrer beaucoup de temps et de moyens. Cette affaire rappelle l'engouement, depuis la fin des années 1970, pour les nodules polymétalliques, ces concrétions rocheuses présentes à plusieurs milliers de mètres de profondeur sous les océans, dont on pensait pouvoir extraire des métaux. Leur exploitation n'a pas, depuis, fait la preuve de sa rentabilité. Ce précédent devrait inciter à la prudence. Pour ma part, je ne crois pas que ces « gisements » de terres rares seront exploités dans les cinquante prochaines années, s'ils le sont jamais.
Par Propos recueillis par Muriel de Véricourt
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante |
|
|
|
|
|
|