ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

UN REGARD SUR LE FUTUR

 

 

 

 

 

 

 

UN REGARD SUR LE FUTUR


Un regard sur le futur : pouvons-nous comprendre l'infiniment grand à partir de l'infiniment petit ? Les dernières décennies du siècle ont été témoin de progrès extraordinaires dans notre compréhension des constituants ultimes de la matière et des forces qui agissent sur eux. Grâce à l'effort de nombreux scientifiques, nous sommes parvenus à élaborer une « théorie standard » qui décrit et explique tous les phénomènes ainsi observés au coeur du monde des particules élémentaires. Avec la théorie standard, nous pouvons retracer l'histoire de l'Univers en remontant dans le temps, jusqu'à quelques fractions de milliards de secondes après le Big Bang, à un moment où la température de l'Univers s'élevait à un million de milliards de degrés centigrade. A cette époque le plasma primordial qui constituait l'Univers était peuplé de particules que nous ne pouvons produire aujourd'hui seulement dans les accélérateurs de particules les plus puissants en Europe et aux USA. L'évolution de l'Univers a été profondément affectée par les phénomènes qui se déroulèrent alors, et même avant. Ainsi la compréhension des constituants fondamentaux et de leurs interactions est cruciale pour saisir la distribution sur une grande échelle des galaxies, la matière et l'énergie qui le composent, et sa destinée finale. Malgré les progrès, des éléments importants de la microphysique sont encore à l'Etat d'hypothèse. L'existence et les propriétés du « boson de Higgs » ou la nature de la « matière noire » qui constitue l'essentiel de la masse de l'Univers devront être éclaircis par le LHC (Large Hadron Collider), une machine révolutionnaire qui mènera l'Europe à la frontière des hautes énergies. Le LHC est actuellement en construction au CERN (conseil Européen pour la Recherche Nucléaire) à Genève, dans le cadre d'une collaboration internationale, et devrait entrer en activité en 2007. Le LHC et les machines qui succèderont éclaireront plusieurs aspects fondamentaux de notre monde, comme l'existence de dimensions additionnelles à l'espace et aux temps et permettront la synthèse de la Mécanique Quantique et de la Relativité Générale, le problème théorique le plus profond de notre époque.

Un regard vers le futur
Luciano Maiani
Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.
Un premier exemple : lénergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.
La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.
La forme de lespace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.
Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.
La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.
Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.
La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.
Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.
Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.
Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.
La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.

 

VIDEO     canal U       LIEN 

 
 
 
 

Jacques Stern : « Ce qui est secret est vulnérable »

 

 

 

 

 

 

 

Jacques Stern : « Ce qui est secret est vulnérable »


Mathieu Nowak dans mensuel 420
daté juin 2008 -

Peut-on faire confiance aux techniques actuelles de cryptographie ? La recherche est-elle sur de bons rails pour protéger nos données demain ? Le « père » de la cryptologie française exprime son point de vue.

LA RECHERCHE : Diriez-vous que, pour ce qui est de la protection des données, nous vivons dans un monde sûr ?
Jacques stern : La cryptographie permet de s'opposer à certaines actions qui visent à prendre possession de nos données immatérielles. En ce sens, je pense qu'elle fait bien son travail. Toutefois, on ne peut pas faire reposer la question de la sûreté sur la seule cryptographie : j'aurais tendance à lancer la balle dans le camp d'autres communautés scientifiques. Les menaces qui peuvent peser sur la transmission des données ne sont pas liées à la conception des algorithmes. La fiabilité des algorithmes, même en tenant compte des attaques, va bien au-delà de tout le reste : vulnérabilité et fragilité des réseaux et des systèmes d'exploitation, tant dans leur conception que dans leur implantation. Ce n'est pas très difficile de s'introduire dans la machine de monsieur Tout-le-monde qui n'est pas bien protégée, ou de lancer une attaque sur un site donné à partir d'un réseau de machines. On a affaire à une chaîne dont la sécurité est mesurée par le maillon le plus faible, mais ce maillon, ce n'est pas la cryptographie.

Peut-on garantir un certain niveau de sécurité ?
Jacques stern : Il faut bien séparer ce qui relève de la cryptographie et des algorithmes de ce qui relève de leur implantation. On peut avoir un algorithme très sûr mais, si l'implantation n'est pas satisfaisante, le système sera exposé aux attaques. C'est l'ensemble des deux qui constitue la sécurité.
Quand le niveau de sécurité est élevé, par exemple dans les systèmes de paiement, les divers éléments de la chaîne - la carte et le terminal notamment - font l'objet de certifications de la part de laboratoires indépendants qui s'appuient sur des normes. Ces certifications se font selon l'état de l'art. On ne peut pas garantir davantage la sécurité.


Les algorithmes en eux-mêmes ne sont-ils pas vulnérables ?
Jacques stern : Le meilleur moyen d'attaquer les algorithmes de chiffrement reste d'essayer toutes les clés. Si l'on a affaire à un algorithme conventionnel à 256 bits, il faut essayer 2256 clés pour arriver à le casser : même si l'on mettait en parallèle tous les ordinateurs de la planète durant quelques mois, on n'y arriverait pas. Mais dans le futur, il est possible que l'on trouve des défauts dans nos algorithmes, défauts qui permettraient de les casser sans essayer toutes les clés.

Peut-on montrer en laboratoire qu'un algorithme est exempt de défauts comme on arrive à montrer qu'un programme informatique est exempt d'erreurs par des méthodes de vérification automatique ?

Jacques stern : Lorsque vous réalisez des connexions sécurisées sur Internet ou avec un terminal de paiement, ce n'est pas un algorithme mais plusieurs algorithmes qui sont utilisés, les uns après les autres, dans un ordre spécifique. À tout moment, il y a des failles potentielles, et on a développé des méthodes de vérification très spécifiques pour cette encapsulation logicielle des algorithmes dans les protocoles.
En revanche, au niveau des algorithmes, la fiabilité reste toujours conjecturale. On a confiance dans les algorithmes symétriques, dits conventionnels, avec une clé aux deux bouts. Ils sont à la pointe de ce que l'on sait faire et ne sont pas attaqués. Pour ce qui est de la cryptologie asymétrique, l'idée est de s'appuyer sur un problème de mathématiques reconnu comme étant difficile à résoudre. On ne sait pas faire mieux, mais l'expérience montre qu'en procédant ainsi on arrive à des algorithmes qui ne sont pas attaqués non plus.
C'est lorsqu'on procède par ce qu'on appelle « la sécurité par l'obscurité », c'est-à-dire que l'on met en oeuvre un algorithme qu'on ne publie pas, qu'on garde secret, que l'on risque de se trouver confronté à des problèmes.

Pourquoi ce qui est secret est-il plus vulnérable ?
Jacques stern : Tout d'abord, on est exposé aux fuites, par exemple en raison de l'intervention de tiers dans la chaîne de mise en oeuvre. Même lorsqu'un algorithme est implanté dans une puce, il n'est pas impossible de comprendre le mécanisme cryptographique en regardant comment la puce est fabriquée.
Ensuite, on a de plus en plus confiance dans les algorithmes publics car le niveau de difficulté pour les attaquer est connu de tous. Ainsi, c'est parce qu'elle a été publiée que la cryptographie multivariable a révélé ses faiblesses avant d'être industrialisée lire « Gloire et déboires de la cryptographie multivariable », p. 36. Il faut du temps pour étudier une nouvelle approche, pour imaginer les attaques possibles. On finit aussi par les imaginer lorsque l'algorithme n'est pas publié, mais cela peut prendre plus de temps. Et dans l'attente on est dans l'incertitude de la fiabilité réelle de l'algorithme.
C'est pourquoi les industriels imitent de plus en plus la recherche publique : ils publient leurs résultats et expliquent pourquoi un algorithme est bon. Dans le domaine des paiements, tous les algorithmes sont connus et normalisés. De même dans la téléphonie mobile : alors que pour la première génération, celle du GSM, il y a eu des algorithmes confidentiels, notamment pour l'authentification, pour la 3G, tous les algorithmes ont été expertisés par des laboratoires universitaires.

Estimez-vous qu'une branche de la cryptographie est aujourd'hui plus faible que les autres ?
Jacques stern : Les solutions semblent aujourd'hui satisfaisantes pour ce qui est de l'authentification, de la signature et du chiffrement. Il reste à pousser la recherche pour ce qui touche au contrôle d'intégrité - qui intervient aussi pour la signature car on ne signe pas directement un gros fichier mais son condensé ou « haché ». Nous devons faire un effort conceptuel sur les fonctions de hachage*, pour lesquelles on a sous-estimé la difficulté du problème.

On a vu récemment en effet plusieurs exemples de « collisions », c'est-à-dire de productions de documents différents ayant des hachés identiques alors que ceux-ci sont censés être uniques [1]. Le hachage pour certifier l'intégrité d'un document est-il une technique dépassée ?
Jacques stern : On pensait en effet que calculer des collisions pour les fonctions était intrinsèquement difficile, mais il y a deux ou trois ans on a commencé à comprendre au contraire qu'il est difficile de garantir qu'on ne peut pas trouver de collisions. Disons qu'il n'y a peut-être pas eu le même effort de cryptanalyse que celui qui a été fait dans le domaine du chiffrement à clé publique. Il y a eu beaucoup d'attaques sur la version initiale des algorithmes introduits dans les années 1990. Ils ont été abandonnés, et les algorithmes proposés devraient désormais se révéler bien plus résistants.

A-t-on besoin aujourd'hui d'un saut conceptuel pour concevoir de nouvelles fonctions de hachage ?
Jacques stern : Je crois qu'on est déjà en train de faire ce saut. Nous sommes dans une situation que nous avons connue avec le chiffrement il y a quinze ou vingt ans. Des mécanismes de cryptanalyse des algorithmes de chiffrement conventionnels apparaissaient alors dans la littérature. On les a utilisés pour concevoir des algorithmes de chiffrement standard comme AES Advanced Encryption Standard ou Kasumi, l'un des algorithmes dédiés aux téléphones portables de troisième génération. Mais ces méthodes développées pour la cryptographie conventionnelle n'ont pas été correctement transposées dans le contexte des fonctions de hachage. C'est en train de se faire : avec ces travaux de cryptanalyse nous sommes maintenant en mesure de concevoir des fonctions de hachage plus résistantes.
Le National Institute of Standards and Technology* a lancé un concours pour inventer de nouvelles fonctions de hachage qui deviendront la norme à l'horizon 2012. N'est-ce pas là le signe d'un défaut de vision pour le futur ?
Jacques stern : Non, on a déjà fait de tels concours dans le passé, et cela a bien marché : c'est comme ça qu'a été conçu l'algorithme AES. Nous avons un impératif industriel : imaginer un remplaçant des fonctions de hachage, car le SHA-1 que l'on utilise aujourd'hui est en fin de vie. Pour le moment, on a affaire à des expériences d'attaques qui sont en cours mais pas à des fraudes heureusement. Le concours est un excellent moyen de mobiliser la communauté scientifique tout en gardant un horizon raisonnable pour trouver une solution qui pourra être normalisée et industrialisée. Et je ne suis pas inquiet pour l'avenir.

Concernant le chiffrement et la signature, les échéances sur lesquelles vous travaillez sont-elles plus longues ?
Jacques stern : D'un point de vue académique, nous avons un bon savoir-faire en termes de chiffrement conventionnel : les attaques contre les mécanismes de chiffrement publiés comme AES ou ceux dédiés à la téléphonie 3G font progresser la science mais ne mettent pas en question les algorithmes eux-mêmes. En termes de cryptographie à clé publique, il y a aussi des progrès dans les algorithmes. Les tentatives pour avoir des algorithmes de chiffrement à clé publique alternatifs, du type cryptographie multivariée ou géométrie des nombres Lire « Une géométrie pour les prochains codes », p. 31, n'ont pas encore abouti à des algorithmes à la fois sûrs et pratiques. Et l'expérience de la cryptographie multivariée nous a montré que ce n'est pas facile de s'écarter des domaines actuels que sont la factorisation et les courbes elliptiques.
Pour résumer : les algorithmes actuels sont sûrs, et c'est tant mieux car il n'y a pas de solution de remplacement.
Jacques stern : Disons qu'il y a un équilibre entre les travaux de cryptanalyse et les travaux de cryptographie qui fait qu'un utilisateur peut avoir confiance dans la sécurité offerte par les mécanismes de chiffrement. Si jamais il y avait des progrès en matière de factorisation, les courbes elliptiques pourraient être une issue. Les algorithmes qui font appel à elles sont mûrs mais ils ne sont pas encore très largement implantés.
En Europe comme aux États-Unis, on sait qu'il existe une recherche militaire importante dans tous les domaines de la cryptologie. N'entretient-elle aucune passerelle avec la recherche civile ?
Jacques stern : C'est normal qu'il y ait des recherches en cryptologie au niveau gouvernemental car l'enjeu est de garantir la sécurité des communications d'un État. Je ne sais pas si l'on peut vraiment dire qu'il n'y a aucun lien avec la recherche civile, même s'il est vrai que ce qui est utilisé dans le domaine civil est issu de la recherche civile. Mais il ne faut pas fantasmer pour autant sur des progrès extraordinaires qui seraient faits chez les militaires et tenus secrets.

Si demain l'ordinateur quantique voit le jour, toutes les méthodes qui reposent sur la factorisation deviendront caduques. Est-ce une menace réelle ?
Jacques stern : Il y a plusieurs façons de répondre à cette question. D'abord on peut se tourner vers les physiciens et leur demander s'ils vont réussir à mettre au point l'ordinateur quantique. Ceux qui travaillent sur le sujet ont tendance à dire que l'on va y arriver, les autres sont moins enthousiastes. La vérité est que pour le moment, avec un ordinateur quantique, ils savent factoriser 15. Moi aussi, et pour moins cher ! Mais il faut reconnaître que les physiciens ont fait des choses remarquables et qu'ils continuent à avancer.
Il faut aller au bout de la question : un ordinateur quantique sera-t-il économiquement viable ? Si on peut le fabriquer pour un prix raisonnable, alors nous devrons faire évoluer les mécanismes de chiffrement. Mais je pense qu'on aurait tort de dire « si on y met le prix, on le fera ». Si l'objectif n'est que de casser des codes, alors le jeu n'en vaut pas la chandelle.
Pour l'instant, il n'y a pas de menace : il semble plus facile de perdre des milliards d'euros par un non-respect des procédures informatiques qu'à la suite d'une attaque menée à l'aide d'un ordinateur quantique !
En deux mots Les algorithmes de cryptographie ne sont qu'un élément de la chaîne permettant la transmission sécurisée de données. À l'heure actuelle, ils ne constituent pas le maillon faible de cette chaîne : lorsqu'ils sont publics, leur fiabilité est largement éprouvée. Les fonctions de hachage demandent cependant un effort de recherche pour continuer de garantir à l'avenir le contrôle d'intégrité. Quant à la menace d'un ordinateur quantique capable de venir à bout des algorithmes, elle reste très hypothétique.
[1] D. Mackenzie, Science, 319, 1480, 2008.

NOTES
Jacques Stern a fondé le premier laboratoire français public de cryptologie à l'École normale supérieure. Médaille d'or du CNRS en 2006, il préside actuellement l'Agence nationale de la recherche et le conseil d'administration d'Ingenico, l'un des principaux fournisseurs mondiaux de solutions pour les paiements sécurisés. Il a publié en 1998 La Science du secret chez Odile Jacob.
*Une fonction de hachage fournit une « empreinte » d'une information : un résumé de petite taille.
*Le National Institute of Standards and Technology NIST est l'agence fédérale américaine dédiée à l'innovation et à la normalisation.

SAVOIR
SUR la cryptologie
Livres
Douglas Stinson, Cryptographie : théorie et pratique, Vuibert, 2003.
Simon Singh, Histoire des codes secrets, LGF, 2001.
Pierre Barthélemy, Robert Rolland et Pascal Véron, Cryptographie : principes et mises en oeuvre, Hermes Science, 2005.
David Kahn, The Codebreakers : The Story of Secret Writing, Scribner Book Company, 1997.
Phong Nguyen et Brigitte Vallée, LLL+25, Springer, 2008.
Sur le web
wwww.di.ens.fr/CryptoTeam : la page de l'équipe crypto du département d'informatique à l'École normale supérieure.
wwww.iacr.org/ : l'association internationale pour la recherche en cryptologie
Whttp://tinyurl.com/4vcn37 : la division du NIST dédiée à la sécurité informatique.
wwww.scienceactive.com/ : une adaptation interactive de livre de Gilles Dubertret, Initiation à la cryptographie Vuibert, 1998.
whttp://tinyurl.com/4laqb8 : la reproduction de l'article de 1883 avec les principes de Kerckhoffs sur la sécurité d'un cryptosystème
.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
 

LA COULEUR

 



 

 

 

 

 

couleur
(latin color, -oris)

Cet article fait partie du dossier consacré à l'art et du dossier consacré à la lumière.

Sensation résultant de l'impression produite sur l'œil par une lumière émise par une source ; effet obtenu par la combinaison des teintes utilisées dans un tableau.

OPTIQUE
La vision des couleurs
Au sens physiologique du terme, la couleur n'existe qu'en fonction de trois éléments : le système visuel, la lumière émise par une source et le milieu qui les sépare. La rétine humaine comprend trois familles de cellules (cônes), spécialisées chacune dans la détection du vert, du rouge et du bleu (couleurs principales). À partir des signaux issus de ces récepteurs, le cerveau synthétise la perception de couleur. Des anomalies de la perception (contraste successif, temps d'« adaptation chromatique ») témoignent de la complexité du phénomène.

Lumière et couleurs
Comme le montre l'expérience, réalisée par Newton, de la dispersion de la lumière solaire (lumière blanche) par un prisme, le domaine des longueurs d'onde lumineuses visibles s'étend de 390 nanomètres (violet) à 770 nanomètres (rouge). En deçà et au-delà de ces limites se trouvent les rayonnements ultraviolets et infrarouges.


Lorsqu'un corps est éclairé par la lumière solaire, il peut diffuser de la même manière toutes les radiations (sa surface apparaît « blanche »), en absorber certaines et diffuser les autres (sa surface est « colorée ») ou les absorber toutes (sa surface est « noire »). La couleur dépend donc de la manière dont la substance éclairée réagit sous la lumière. Elle naît pratiquement toujours de l'interaction des ondes lumineuses avec les électrons de la substance.
Outre la diffusion et l'absorption, on connaît d'autres mécanismes créateurs de couleurs : la fluorescence, les interférences, la diffraction, les décharges dans les gaz, l'effet du champ cristallin, etc. Grâce aux travaux de Chevreul, de Lacouture et de Munsell, le caractère tridimensionnel des couleurs a été mis en évidence. Il est utilisé dans les classifications des couleurs qui prennent en compte trois éléments : la clarté, la tonalité et la saturation. (→ colorimétrie).
Les synthèses des couleurs
La synthèse additive des couleurs

On peut montrer qu'un écran « blanc » diffuse une lumière de la même couleur que celle qu'il reçoit. Il suffit donc de le regarder pour connaître la couleur de la lumière qui l'éclaire : sous un projecteur rouge, il est rouge ; sous un projecteur vert, il est vert. Et si on allume les deux projecteurs à la fois ? On constate alors que l'écran est jaune, d'un jaune plus ou moins verdâtre ou rougeâtre suivant la puissance respective de chaque projecteur, et qui peut être assez vif si on règle convenablement ces puissances.
Ainsi, en mélangeant des lumières rouge et verte convenablement dosées, on obtient du jaune. Pour obtenir du blanc, il faut ajouter à ce jaune un peu de bleu, au moyen d'un troisième projecteur. Et, suivant la couleur exacte du bleu, on devra modifier légèrement le rapport du rouge et du vert. Mais un réglage convenable des trois projecteurs permettra d'obtenir du blanc. On pourrait d'ailleurs en obtenir avec deux projecteurs seulement, un jaune et un bleu, à condition de pouvoir choisir la couleur exacte de l'un des deux. Pour un jaune donné, il existera une nuance de bleu permettant, par un dosage convenable, d'obtenir du blanc : ce bleu-là est dit complémentaire du jaune en question. Cette notion de couleurs complémentaires joue un grand rôle dans l'imprimerie en couleurs.

En modifiant les proportions du mélange issu des trois projecteurs, on pourra obtenir une lumière de n'importe quelle couleur, ou presque : c’est la synthèse additive des couleurs (principe utilisé dans les téléviseurs). En effet, on peut, dans un graphique, représenter ces mélanges par les puissances respectives de chaque projecteur, c'est-à-dire par différents points dans un espace à trois dimensions. Mais, en fixant arbitrairement la puissance totale, on ramène à deux le nombre des variables, et on peut ainsi représenter n'importe quel mélange par un point dans un plan. De plus, en mélangeant les couleurs représentées par deux points A et B, on obtiendra forcément une couleur représentée par un point du segment AB, plus ou moins proche de A ou de B suivant les proportions du mélange.

Quelle que soit sa source (Soleil, bougie, néon), une lumière polychromatique peut toujours être analysée par le prisme comme un mélange de lumières monochromatiques, qui seront représentées par des points situés sur une courbe englobant tous les points du plan représentant des mélanges. Ce principe permet de montrer sur un diagramme chromatique pratiquement toutes les couleurs, ainsi que leur composition de base.


Il faut souligner que ce choix des couleurs de base n'est commandé – en dehors de la facilité plus ou moins grande de leur production – que par l'avantage de disposer d'un triangle RVB (rouge, vert, bleu) le plus grand possible sur le diagramme. Trois autres couleurs différentes, R', V' et B', permettraient également d'obtenir la plupart des couleurs souhaitées, et en particulier du blanc. Avec une sorte de pourpre violacé, de l'orange et du bleu-vert, par exemple, les résultats seraient aussi bons qu'avec les trois couleurs traditionnelles : s'il est usuel d'appeler ces dernières les couleurs « primaires », il n'y a pas – pour le physicien sinon pour le photographe ou l'éclairagiste – de couleurs plus « primaires » que les autres.
La synthèse soustractive des couleurs

Si le principe de la synthèse additive des couleurs, c'est-à-dire l'utilisation du rouge, du vert et du bleu, était appliqué dans l'imprimerie, le mélange du rouge et du vert ne donnerait qu'un jaune moutarde peu lumineux. En effet, les imprimeurs (ou les peintres) n’utilisent pas des faisceaux de lumière pour composer leurs couleurs, mais des pigments colorés qui diffusent certaines couleurs. C'est pourquoi, contrairement à la télévision, la synthèse des couleurs est, ici, dite soustractive, car fondée sur l'absorption de la lumière. Les trois couleurs utilisées en imprimerie sont le jaune, le cyan et le magenta, dites « couleurs primaires » car elles ne dérivent d'aucune autre couleur tout en permettant d'obtenir toutes les autres par mélange. La superposition de ces trois couleurs ne donne qu'un brun noirâtre, aussi est-il nécessaire d'utiliser à part une encre noire.
La reproduction en quadrichromie peut se diviser en deux étapes : la décomposition et la recomposition des couleurs.
Le sujet à reproduire est tout d'abord photographié trois fois, en noir et blanc, avec différents filtres : bleu-violet, vert-jaune et rouge-orangé. On obtient ainsi trois négatifs en noir et blanc exprimant par leur degré de noirceur (densité optique) les proportions respectives de magenta, cyan et jaune qu'il faut combiner en chaque point du sujet pour contretyper sa couleur (obtenir son positif). Un quatrième film, le noir, est nécessaire pour les couleurs, mais aussi pour le texte, les filets.
Quatre plaques sont alors fabriquées, chez le photograveur, pour permettre la recomposition du sujet sur papier à partir des encres magenta, cyan, jaune et noire.
Si deux encres se recouvrent sur le papier, leurs absorptions s'ajoutent. En un point où, par exemple, du magenta et du jaune se superposent, le vert et le bleu sont absorbés : cet endroit-là du papier est rouge. De même, le mélange du jaune et du cyan produit du vert, celui du cyan et du magenta un bleu-violet assez foncé. Il reste à faire varier les proportions du mélange de lumières diffusées pour reproduire n'importe quelle couleur. Or l'imprimerie est une opération en « tout ou rien » : soit on met de l'encre, soit on n'en met pas. Aussi est-il nécessaire d'imprimer, avec chacune des encres, non pas des surfaces uniformes, mais des points régulièrement espacés, plus ou moins gros suivant que la couleur qu'ils absorbent doit être plus ou moins retranchée du mélange diffusé. Ces images en pointillé sont obtenues, pour chacune des encres, en tirant la photo à travers un filtre coloré approprié et une trame, c'est-à-dire un tissu à mailles très fines.

BEAUX-ARTS
Tributaire des moyens techniques et de la conception de l'image propres à l'artiste et à son temps, la couleur a connu au cours de l’histoire des mutations considérables.

Évolution technique
Diversité des matières
Les différentes époques voient leurs artistes faire usage de produits variés pour réaliser leurs œuvres : substances des peintures pariétales préhistoriques (ocres, charbon de bois, …), pigments minéraux et végétaux incorporés à divers liants pour l’élaboration des peintures murales du Moyen Âge et de la Renaissance, pratique de la peinture à l'huile à partir du xve s., emploi dematériaux industriels divers à partir du xixe s.

La main du peintre
L’emploi de la couleur diffère selon les artistes. Qu’elle soit appliquée sur de grandes surfaces, disposée en aplats ou en touches juxtaposées, en cernes ou en contours, elle sert par sa matérialité l’expression propre à chaque créateur qui en fait usage. Sa qualité expressive et son pouvoir de suggestion donnent également un sens à la réalisation plastique de l’œuvre.
Le travail de composition chromatique de l'artiste repose sur des notions de base : les couleurs primaires ou fondamentales (bleu, rouge, jaune), mélangées deux à deux, donnent les couleurs secondaires ou binaires (violet, vert, orangé, chacune étant la complémentaire de la couleur primaire qui n'entre pas dans sa composition), et toutes les combinaisons possibles définissent les teintes et les tons.

Un sujet de controverses
Fondement des jeux de valeur, de coloris, de lumière et des rapports spatiaux, la couleur se retrouve au cours des siècles au cœur de multiples débats où elle se voit opposée au dessin et à la forme. Les plus célèbres d’entre eux voient s’affronter durant la Renaissance les partisans des Vénitiens à ceux de Raphaël, les admirateurs de Rubens et de Rembrandt à l'Académie au xviie s. puis les défenseurs de Delacroix à ceux de Ingres dans le courant du xixe s.

Le tournant du xixe s.
Au cours du xixe s., contre l'académisme, l'étude (qui prolonge les travaux de théoriciens comme Chevreul) et l'exaltation de la couleur-lumière triomphent avec les impressionnistes (Claude Monet). Dès lors, la couleur, construction, expression ou sujet autonome, assume une fonction picturale primordiale, de Cézanne ou Van Gogh à Matisse, au fauvisme ou à l'abstraction (Rothko).

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

ASTROPHYSIQUE, PHYSIQUE DES PARTICULES ET ASTROPARTICULES

 

 

 

 

 

 

 

Texte de la 185e conférence de l’Univerisité de tous les savoirs donnée le 3 juillet 2000.

Astrophysique, physique des particules et astroparticules par François Vannucci

Introduction
L’astrophysique est la science qui étudie la nature à l’échelle de l’infiniment grand, jusqu’aux dimensions de l’univers entier, c’est-à-dire quelques 1026 m. À l’opposé, la physique des particules explore la matière à l’échelle de l’infiniment petit et permet actuellement de sonder des distances jusqu’à 10-18 m. Astrophysique et physique des particules représentent donc les deux frontières de la connaissance humaine.
La physique des astroparticules est une interface entre ces deux extrêmes. Alors que les objets de l’astrophysique sont de tailles macroscopiques, planètes, étoiles, galaxies..., la physique astroparticulaire étudie des objets microscopiques, les particules élémentaires elles- mêmes, mais au lieu de se limiter aux particules produites auprès des accélérateurs, les sources en sont maintenant astrophysiques. En pratique, cette discipline s’est récemment développée grâce aux physiciens des particules qui, pour certains, se sentaient à l’étroit près des accélérateurs, et qui ont transposé leurs techniques de détection pour l’observation des phénomènes violents qui apparaissent dans le ciel.
L’astrophysique utilise comme intermédiaire de l’information, la lumière, c’est-à-dire des photons appartenant à la gamme visible ou proche du visible, détectés grâce à des instruments optiques, plaques photographiques, CCD. La physique astroparticulaire bénéficie d’une panoplie plus large de messagers : photons d’énergies élevées, mais aussi protons ou noyaux atomiques, électrons et neutrinos. Le but de cette physique est double, elle permet à la fois de mieux comprendre les sources de ces rayonnements, c’est-à-dire les phénomènes à l’origine d’accélérations gigantesques, mais aussi d’affiner la connaissance des propriétés des particules elles-mêmes produites dans des conditions impossibles à égaler sur terre.
Deux exemples
Les gammas de hautes énergies
Seuls les photons visibles peuvent traverser l’atmosphère sans être absorbés. Pour d’autres longueurs d’onde, l’étude se fait en satellite où les conditions d’observation sont idéales. Mais les satellites ont des dimensions limitées, et les flux de photons de très hautes énergies sont si faibles qu’il faut pouvoir disposer de surfaces de détection importantes pour compter un nombre suffisant d’événements. Dans l’atmosphère, les photons énergiques se multiplient en donnant une gerbe dite électromagnétique qui, à son maximum, peut atteindre des millions de particules, essentiellement des électrons et des positrons. Ceux-ci disposent encore d’une énergie suffisante pour donner le long de leur trajectoire de la lumière qu’on peut détecter grâce à des capteurs couvrant de grande surface. Un dispositif de ce type, appelé Cat, est en opération au pied des Pyrénées. Alors qu’en lumière visible on répertorie des milliards de sources, et qu’en rayonnement X, il en reste quelques milliers, on n’a détecté à ce jour que quatre sources certaines aux énergies allant jusqu’à 1014 eV, en particulier un pulsar, le Crabe, et deux noyaux actifs de galaxies Mk 421 et 501 qui ont surpris par la très grande variabilité de leur émission. Le spectre des photons arrivant sur terre renseigne d’autre part sur le milieu traversé.
Les rayons cosmiques chargés
Les rayons cosmiques chargés ont été étudiés depuis le début du 20ième siècle, et si beaucoup de physiciens se sont tournés vers les accélérateurs au milieu du siècle, certains observent à nouveau le ciel qui permet des énergies qu’aucun accélérateur ne peut atteindre. On détecte aujourd’hui des particules, probablement des protons atteignant des énergies de 50 J, l’énergie d’une balle de tennis lors d’un service ! La figure 1 montre le spectre de ce rayonnement mesuré jusqu’à ces énergies macroscopiques. Quelques rayons cosmiques de plus de 1020 eV ont été observés, et ils posent un problème, car ils ne peuvent provenir de sources très lointaines du fait de l’absorption inhérente à la présence du fond cosmologique, mais d’autre part on ne connaît pas de phénomènes d’accélération suffisamment puissants dans les régions proches de nous. Certaines théories les expliquent comme témoins de phénomènes liés au Big-Bang.
Figure 1 : Spectre des rayons cosmiques mesuré jusqu’aux énergies ultimes.
Pour espérer résoudre l’énigme présente, il faut accumuler des statistiques suffisantes, or ces rayons sont très rares, puisqu’ils bombardent la terre à raison de 1 par km2 et par siècle. Il faut donc disposer de très grandes surfaces de collection. L’observatoire Auger se donne pour but d’instrumenter 3 000 km2 d’un plateau en Argentine. Un rayon cosmique ayant l’énergie considérée ici, produit au total des milliards de particules secondaires, et arrose au sol une surface de quelques 10 km2. Le détecteur consiste en un réseau de capteurs distants les uns des autres de 1.5 km.
Le mystère des neutrinos
Les neutrinos peuvent être considérés comme les astroparticules « par excellence », car ils sont présents à toutes les échelles de l’univers, ce qui fait du neutrino la particule, hors le photon, la plus abondante. Des sources très puissantes contribuent à cette présence incontournable.
En premier lieu, le soleil. Il nous envoie chaque seconde 60 milliards d’«hélioneutrinos ». sur chaque cm2 de notre terre. Ils proviennent de réactions de fusion à l’origine de l’énergie qui fait briller notre astre, et les prédictions de flux reposent sur des calculs très élaborés que les théoriciens affirment fiables à quelques pour cent près. Ce flux nous traverse autant le jour que la nuit, car la terre est transparente aux neutrinos.
Une supernova de type IIa éjecte presque toute son énergie en libérant 1058 « galactoneutrinos » en quelques secondes. En février 1987 une telle explosion eut lieu à 150000 années-lumière de notre terre, dans le grand nuage de Magellan, et une vingtaine des neutrinos ainsi produits fut interceptée dans de vastes détecteurs souterrains.
Les neutrinos atmosphériques, « géoneutrinos » proviennent du bombardement des rayons cosmiques primaires dont il a été déjà question, sur les couches les plus hautes de l’atmosphère. Les protons interagissent en donnant des pions qui se désintègrent rapidement,
ce qui résulte en un flux d’environ 1 neutrino par minute et par cm2.
Les neutrinos peuvent aussi provenir de sources extragalactiques encore mystérieuses,
telles que noyaux actifs de galaxie, trous noirs..., et ici l’expérimentation en est encore à ses balbutiements.
N’oublions pas l’homme et ses « anthroponeutrinos ». Un réacteur nucléaire EdF produit quelques 1020 (anti)-neutrinos par seconde, sans aucun danger pour l’environnement, et les accélérateurs permettent de construire des faisceaux bien maîtrisés qui s’avèrent les mieux adaptés pour les recherches les plus fines concernant les propriétés de ces particules.
Au-delà de toutes ces sources variées, le producteur le plus prolifique fut le Big Bang, il y a 14 milliards d’années. Les astrophysiciens nous enseignent que la grande explosion originelle a laissé 300 « cosmoneutrinos » dans chaque cm3 de l’Univers. Cette densité semble faible, rapportée aux densités de particules dans la matière ordinaire, mais intégrée sur tout le volume de l’univers, elle donne une population de neutrinos plusieurs milliards de fois plus abondante que celle des protons, neutrons et électrons qui forment les atomes.
Comment s’y retrouver dans toutes ces catégories de neutrinos ? Par chance, les différentes populations s’échelonnent en classes d’énergies bien distinctes. Ainsi, les neutrinos cosmologiques possèdent les énergies les plus faibles, le milli-eV, tandis qu’on attend des énergies atteignant l’Exa-eV pour les neutrinos extragalactiques. Entre ces extrêmes, les neutrinos solaires se concentrent autour de 1 MeV et les atmosphériques autour de 1 GeV. La figure 2 montre cette hiérarchie d’énergies.
Figure 2 : Distribution en énergies des sources variées de neutrinos.
C’est le paradoxe des neutrinos : ils nous entourent en bataillons innombrables, et pourtant ils ne nous affectent aucunement. Car ils ne subissent que l’interaction dite faible et un seul neutrino de 1 GeV sur 100000 est arrêté dans la traversée de la terre, d’où le qualificatif de fantôme souvent attribué à cette évanescente particule. La probabilité d’interaction est faible mais pas nulle, sinon, on ne saurait rien d’eux. Or, grâce à des flux très intenses obtenus auprès d’accélérateurs puissants, et grâce à des détecteurs très massifs, on dispose aujourd’hui de millions d’interactions de neutrinos enregistrées au cours de plusieurs générations d’expériences qui ont analysé en détail les propriétés de leur couplage avec la matière.
Parfois un neutrino produit, lors de son interaction, un électron identifié : c’est un neutrino électronique νe. Parfois l’interaction donne un muon, c’est le neutrino muonique νμ qui est ici responsable.
νe νμ, l’histoire s’arrête-t-elle là ? Le nombre de types de neutrinos existant dans la nature a été mesuré précisément grâce à un accélérateur du CERN : le LEP. Le résultat est sans appel: 2.990 ± 0.016. Cette mesure provient de l’étude du Z0, le boson intermédiaire des interactions faibles neutres, produit lors de collisions e+ e- et qui se désintègre quasi-
instantanément. La figure 3 montre la courbe dite d’excitation du boson Z0. La largeur de cette courbe en cloche dépend du nombre de neutrinos. Plus il en existe de types différents, plus la courbe est aplatie, et son ajustement permet d’extraire le nombre total de neutrinos
cité plus haut. Ainsi, la nature se contente de 3 neutrinos différents et 3 seulement qu’on appelle νe νμ et ντ.
Figure 3 : La courbe « d’excitation » de la résonance Z0 mesurée au LEP, qui prouve l’existence de seulement trois neutrinos légers différents.
L’expérience SuperKamiokande et les oscillations
Puisqu’il est nécessaire de disposer de détecteurs énormes pour obtenir un nombre suffisant d’interactions, décrivons l’ambitieuse expérience qui a donné les résultats les plus probants dans le domaine des neutrinos solaires et atmosphériques : SuperKamiokande. Construite dans une mine de zinc sous une montagne japonaise près de la petite ville de Kamioka, elle a commencé à prendre des données en avril 1997. Le dispositif consiste en un volume gigantesque, d'environ 35m*35m*40m rempli d'eau purifiée, constamment observé par plus de 11000 tubes photomultiplicateurs, capteurs pouvant détecter la présence de quelques photons visibles. C’est une véritable cathédrale souterraine que montre la figure 4 pendant la phase de remplissage. On y voit des techniciens sur un canoë effectuant les derniers ajustements des photomultiplicateurs avant que l’eau ne les recouvre.
Figure 4 : Photographie du détecteur SuperKamiokande pendant la phase de remplissage (cliché ICRR-Tokyo).
Un neutrino interagissant dans l'eau produit des particules chargées de différents types qui, si elles ont suffisamment d'énergie, donnent dans la traversée de l'eau des photons visibles produits par l'effet appelé Cerenkov. Cet effet s’apparente à l’émission d’une onde de choc électromagnétique, et naît chaque fois qu’une particule se propage dans un milieu à une vitesse supérieure à celle de la lumière. Or, dans l’eau, la lumière se propage à 220000 km/s, et un électron d’énergie 1 MeV dépasse cette vitesse. Un cône lumineux est produit le long de la trajectoire, ce qui résulte en un anneau de photons au niveau des photomultiplicateurs.
Ainsi on mesure le flux des neutrinos solaires au-dessus d’une énergie de 5 MeV, or on ne compte que la moitié du flux prédit par les théoriciens.
Dans la gamme d’énergie entre 100 MeV et quelques GeV, on détecte un signal venant des neutrinos atmosphériques. Dans ce dernier cas, les interactions des neutrinos νμ
produisent des muons, les interactions des neutrinos νe produisent des électrons. Or muons et électrons donnent des anneaux suffisamment distincts pour qu'on puisse compter séparément les νμ et les νe incidents. La direction de la particule détectée informe d’autre part sur la direction du neutrino qui a donné lieu à l’interaction, du moins aux énergies suffisamment élevées. À nouveau le résultat n’est pas conforme aux prédictions. SuperKamiokande détecte bien les neutrinos électroniques au niveau attendu, mais semble mettre en évidence un manque de neutrinos du type muonique. Et l’expérience avance un argument supplémentaire décisif. Les neutrinos atmosphériques proviennent de toutes les directions, puisqu’ils sont
produits tout autour de la terre. Ceux reconstruits comme venant « d’en haut » naissent dans l’atmosphère directement située au-dessus du site expérimental. Ils ont parcouru environ 10 km avant d’être détectés. Ceux provenant « d’en bas » sont produits aux antipodes et ont donc parcouru de l’ordre de 10000 km avant d’atteindre le dispositif expérimental. Or le déficit se manifeste pour les νμ « d’en bas », qui ont traversé toute la terre, c’est-à-dire les neutrinos
ayant parcouru de longues distances avant leur détection. La figure 5 explicite quantitativement le résultat en montrant la distribution en angle zénithal. Le déficit est apparent à cosθ = -1.
Figure 5 : Distribution en angle zénithal des interactions de neutrinos atmosphériques montrant le déficit des νμ montant.
Neutrinos solaires et atmosphériques ont donc bien été mis en évidence, mais dans les deux cas, le flux mesuré présente une anomalie en regard du flux attendu. Le fait de trouver un accord à un facteur 2 près entre des mesures délicates et des prédictions difficiles est déjà une grande réussite. Pourtant les physiciens ne s’en contentent pas et cherchent à comprendre ce désaccord.
On mesure moins de neutrinos que prévu, une partie semble avoir disparu entre la source de production et le point de détection. À moins que certains, au cours de leur voyage, n’aient changé de type. En effet les détecteurs actuels de neutrinos solaires ne sont sensibles qu’aux νe et il se pourrait que les νe produits à l’intérieur du soleil se soient convertis en νμ
avant d’atteindre la terre. De même, les indications de SuperKamiokande peuvent s’interpréter comme une conversion de νμ en ντ qui échappe à la détection, sur des distances de l’ordre du diamètre terrestre.
Ce phénomène dans lequel un type de neutrino se transforme spontanément en un type différent est appelé oscillation. C’est un processus permis en mécanique quantique dès lors que les neutrinos ont une masse. La probabilité du phénomène dépend de la différence des masses carrées entre les neutrinos oscillants. Ce mécanisme revêt beaucoup d’importance, car il permet de sonder des différences de masses très petites, inaccessibles par tout autre moyen. Or la question qui se pose actuellement sur les neutrinos concerne précisément leur masse, et on sait seulement que si masse il y a, elle doit être minuscule.
L’interprétation communément admise du déficit des νe solaires par le phénomène d’oscillations amène à une relation entre les masses m1 et m2 des états propres correspondant
aux νe et νμ : m22 - m12 = 5.10-5 eV2. Pour les neutrinos atmosphériques, le déficit des νμ observé suggère une seconde relation entre les masses des neutrinos oscillants: m’22 - m’12 = 3.10-3 eV2. Elle s’applique a priori aux états propres correspondant au couple νμ et ντ.
La recherche d'oscillations est un domaine très actif, et plusieurs générations d’expériences en ont cherché les effets, soit auprès de réacteurs, soit auprès d’accélérateurs sans les mettre en évidence. La situation actuelle n’est pas entièrement claire et une confirmation du signal revendiqué par SuperKamiokande est attendue. Elle devrait venir de programmes en cours de réalisation, au Japon d’abord, puis au CERN et aux Etats-Unis, et qui nécessitent de grandes distances de vol pour être sensibles à de très petites masses. Ainsi, en 2005, on enverra un faisceau produit à Genève vers le tunnel du Gran Sasso près de Rome, laissant aux neutrinos 730 km pour osciller. Les détecteurs imaginés sont à la mesure du problème.
La fin de la physique ?
Au cours des cent dernières années, les progrès de la connaissance scientifique ont été spectaculaires. Tant aux confins de l’infiniment grand qu’à ceux de l’infiniment petit, environ huit ordres de grandeur ont été gagnés. On discerne aujourd’hui des détails cent millions de fois plus fins qu’il y a cent ans, et on se rapproche de l’instant même du Big-Bang. Les frontières du connu semblent d’ores et déjà avoir atteint leurs limites. En effet, on ne peut penser aller au-delà du Big Bang, et la quête de l’infiniment petit bute de plus en plus contre le mur du gigantisme.
Indéniablement, le 20ième siècle aura été le siècle de la physique. Le 21ième siècle débute avec le déchiffrage du génome humain, et certains annoncent le siècle de la biologie. D’autant que la biologie est riche de promesse, certains esprits téméraires allant jusqu’à envisager l’immortalité, alors que les retombées de la physique des astroparticules semblent illusoires, et que le domaine apparaît comme un simple passe-temps de physiciens.
Pourtant la physique n’a pas révélé tous ses secrets. Nous sommes peut-être à l’aube d’une nouvelle révolution copernicienne. En effet, l’univers est, semble-t-il, rempli à 95% d’une matière sombre, détectée par les vitesses anormales de rotation d’objets célestes (figure 6), et d’une énergie sombre résultant d’études de supernovae lointaines et qui indiquent que l’expansion de l’univers est en accélération. Or matière et énergie sombres n’ont, semble-t-il, rien à voir avec notre matière ordinaire. L’essence même de notre monde étudié au cours des derniers siècles semble ne représenter qu’une toute petite partie de l’univers.
Figure 6 : Évidence de matière sombre révélée par les vitesses de rotation d’objets célestes en fonction de leur distance au centre galactique.
Pendant un temps on espérait que les neutrinos puissent expliquer la matière sombre. En effet, le scénario du Big Bang prédisant une population de neutrinos plusieurs milliards de fois plus abondante que celle des autres particules, une masse avoisinant quelques 10 eV, suffisait pour que la masse totale des neutrinos dépasse celle de la matière visible et donc influence le devenir de l’univers. Un tel scénario était privilégié avant le résultat de SuperKamiokande. Aujourd’hui, l’expérience japonaise semble indiquer une contribution marginale des neutrinos à la masse de l’Univers, quoique avoisinant la masse visible, celle constituée par l'ensemble des étoiles.
La masse sombre est donc recherchée dans d’autres directions: particules hypothétiques telles que axions ou particules supersymétriques. Quant à l’énergie sombre c’est aujourd’hui un mystère complet.
Il reste donc de grandes énigmes que la physique peut et doit résoudre, mais pour certains cette recherche apparaît comme trop ésotérique et coupée des préoccupations jugées importantes. Pourtant, dévoiler les secrets de l’univers est pour l’homme aussi exaltant que composer un poème ou une sonate. La justification d’une telle recherche est à trouver dans l’enrichissement de l’aventure humaine. Il ne faut pas brider la curiosité intellectuelle. La connaissance est un bien précieux, et on peut espérer qu’un jour, quand la science aura répondu à tous les comment de la nature, le pourquoi en deviendra un peu plus clair, or c’est bien là la question essentielle posée à l’homme.
Références :
Winter (K.) éditeur, Neutrino Physics. Cambridge University Press 1991.
Crozon (M.) et Vannucci (F.), Les particules élémentaires. « Que sais-je? » PUF 94 Vannucci (F.), Les neutrinos sur la balance, Images de la Physique/CNRS 1999.

 

VIDEO     canal U       LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google