ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

ATOME

 

 

 

 

 

 

 

atome
(latin atomus, du grec atomos, qu'on ne peut couper)

Consulter aussi dans le dictionnaire : atome
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière dont les mouvements et les combinaisons rendent compte de l'essentiel des propriétés macroscopiques de celle-ci. (Un corps constitué d'atomes de même espèce est appelé corps simple ou élément chimique.)


PHYSIQUE ET CHIMIE

Le mot « atome » est aujourd'hui un paradoxe scientifique : en effet, les Grecs avaient désigné par ce terme, qui veut dire « indivisible », le plus petit élément, simple et stable, de la matière ; or on sait à présent qu’un atome est composé de particules plus petites : des électrons, des protons et des neutrons. Les protons et les neutrons, appelés nucléons, forment le noyau de l’atome et sont eux-mêmes composés de particules encore plus élémentaires : les quarks. La connaissance de cette structure ultime de la matière est à l’origine d’une révolution tant dans le domaine de la connaissance que dans celui des rapports entre les peuples (la fission de noyaux atomiques étant à la base des armes nucléaires).

1. Description d'un atome

Les atomes sont les plus petites parcelles d'un élément chimique qui puissent être conçues : ils sont constitués d'un noyau chargé positivement autour duquel gravitent des électrons chargés négativement, l'ensemble étant électriquement neutre.

Les ions dérivent des atomes par la perte ou par le gain d'un ou de plusieurs électrons : il existe des ions positifs (cations), qui résultent d'une perte d'électrons, et des ions négatifs (anions), qui résultent d'un gain d'électrons.



Les électrons ainsi impliqués sont situés à la partie la plus externe des atomes, qui est seule perturbée par un gain ou une perte d'électrons. Seuls ces électrons (électrons de valence) interviennent dans les réactions chimiques. Ces dernières se distinguent donc fondamentalement des phénomènes qui se produisent lors de l'explosion d'une bombe atomique, lesquels se situent au niveau du noyau. Les transformations intervenant au niveau nucléaire mettent en jeu une énergie (→  énergie nucléaire) un million de fois plus élevée que celle que libère une réaction chimique (→  énergie chimique).
En première approximation, on peut considérer qu'un atome occupe une partie de l'espace, de forme sphérique, d'un diamètre de quelques angströms (1 Å = 10−10 m).

1.1. La structure interne des atomes
L'étude de la structure interne des atomes a montré que tous, quel que soit l'élément qu'ils constituent, sont formés de trois espèces de particules élémentaires : les électrons, les protons et les neutrons.
Les électrons sont des particules légères de charge électrique négative, toutes identiques, qui se meuvent à grande vitesse dans le champ d'attraction du noyau chargé positivement.


D'un diamètre très petit par rapport à celui de l'atome, le noyau – dans lequel presque toute la masse est concentrée – est composé de particules appelées nucléons.
Les nucléons sont de deux espèces : les protons, possédant une charge électrique positive, égale en valeur absolue à la charge des électrons, et les neutrons, électriquement neutres.
Les propriétés d'un atome sont déterminées par le nombre d'électrons présents autour du noyau : ce nombre est égal au nombre Z de protons contenus dans ce noyau.
Les propriétés ne dépendent pas, pour l'essentiel, du nombre N de neutrons : les atomes d'un même élément peuvent contenir un nombre variable de neutrons. Les atomes d'un élément qui contiennent un nombre différent de neutrons constituent des isotopes de cet élément. En général, il existe plusieurs isotopes d'un même élément.

Z représente le nombre atomique ou numéro atomique de l'élément.


La somme Z + N = A est le nombre de masse du noyau.

Pour distinguer les isotopes d'un élément, on les désigne par leur symbole précédé des nombres A et Z qui lui sont propres : ainsi, 146C désigne l'isotope de carbone dont l'atome possède 14 nucléons (6 protons et 8 neutrons).

1.2. Quelques ordres de grandeurs
La masse de l'atome est de l'ordre de 10−26 kg. Un atome peut être assimilé à une sphère dont le rayon, variable d'un élément à l'autre, est de l'ordre de 10−10 m (soit 1 Å).
L'électron porte une charge élémentaire − e (e = 1,602 × 10−19 C), pour une masse m de 9,1093897 × 10−31 kg ou de 5,4 × 10−4 u en unité de masse atomique (1 u = 1,6605402 × 10−27 kg).
Il existe donc un rapport de 1 à 10 000 entre la masse de l'atome et celle de l'électron : dans un atome, la masse des électrons apparaît donc comme négligeable comparée à la masse du noyau.
La masse du proton est de 1,6726231 u (mp = 1,673 × 10−27 kg), et celle du neutron est de 1,6749286 u (mn = 1,675 × 10−27 kg).

Assimilé à une sphère, le volume du noyau est à peu près proportionnel au nombre de nucléons A : le rayon du noyau est, selon une formule empirique, proche de la racine cubique de A, r ≈ 1,41 × 10−15 × A1/3 m (de l'ordre de 10−15 m), ce qui correspond à 1 fm (femtomètre ou fermi).
Un facteur de 100 000 existe entre le rayon de l'atome et celui du noyau, et, si l'on néglige la masse des électrons, le noyau a une densité 10−15 fois plus élevée que celle de l'atome, ce qui correspond à une concentration énorme de matière. La même concentration appliquée à la masse totale de la Terre ramènerait notre planète à une sphère de 60 m de rayon.

1.3. Les atomes isolés
Les rares atomes isolés se rencontrent sous forme de gaz.
Les gaz rares (argon, hélium, krypton, néon, xénon) sont un exemple de la présence d'atomes isolés dans la nature : ils sont en très faible proportion dans l'air, où l'on trouve essentiellement de l'azote (78,084 %) et de l'oxygène (20,946 %) sous forme de molécules diatomiques (N2 et O2), du dioxyde de carbone et de la vapeur d'eau également sous forme de molécules.
Les gaz rares, qui ont été découverts par le chimiste britannique William Ramsay entre 1894 et 1898, ne représentent que 1 % du volume de l'air : argon 0,934 % ; hélium 0,52 × 10−3 % ; krypton 0,11 × 10−3 % ; néon 1,8 × 10−3 % ; xénon 8,7 × 10−6 %.
L'existence d'atomes libres de gaz rares résulte de leur configuration particulièrement stable : les ions se forment d'ailleurs à partir des atomes de telle sorte que, en général, la perte ou le gain d'électrons leur permette d'acquérir une configuration électronique d'atome de gaz rare.

1.4. Les atomes naturels et artificiels

Outre les éléments identifiés dans la nature, et leurs isotopes naturels, on connaît aujourd'hui des éléments plus lourds que l'uranium (le plus lourd des éléments existant à l'état naturel, répertorié avec le numéro atomique 92), et de nouveaux isotopes d'éléments qui existent, en revanche, à l'état artificiel.
Les atomes de ces éléments, ou de ces isotopes, sont fabriqués artificiellement en faisant intervenir des réactions nucléaires, qui consistent à bombarder, par des particules variées et animées d'une très grande vitesse, les noyaux des atomes d'éléments connus.
Ces réactions permettent d'accroître le nombre Z de protons du noyau (et on obtient des atomes plus lourds que ceux de l'élément bombardé) ou de modifier le nombre N de neutrons (et on obtient des isotopes nouveaux).

En règle générale, les éléments artificiels ainsi obtenus sont radioactifs : leurs noyaux se désintègrent rapidement, et leur durée de vie peut donc être très brève, ce qui explique leur absence dans les milieux naturels. Les atomes artificiels d'éléments plus lourds que l'uranium (appelés transuraniens ou éléments superlourds) sont obtenus à partir de noyaux naturels d'uranium ou de thorium. Le premier d'entre eux, dans la séquence des numéros atomiques, est le neptunium, qui porte le numéro Z = 93 ; puis le plutonium (Z = 94), synthétisé en 1940, etc. Le bombardement de l'uranium par des particules chargées et accélérées dans des cyclotrons a ainsi permis d'obtenir de nombreux éléments transuraniens. Les éléments artificiels ainsi fabriqués ont une durée de vie de plus en plus courte à mesure que leur numéro atomique est plus grand.

On peut également fabriquer des isotopes, le plus souvent radioactifs, d'éléments connus, en soumettant les atomes d'éléments naturels à un bombardement de particules accélérées ou à l'action des neutrons émis par une pile atomique. Ces isotopes sont utilisés soit en médecine, notamment pour le traitement du cancer (bombe au cobalt) ou pour réaliser des diagnostics (radio-iode), soit en analyse chimique pour identifier et doser des éléments présents en très petites quantités (de l'ordre de la partie par million), soit en mécanique pour radiographier des pièces de grandes dimensions.

2. Historique de la notion d'atome

La constitution de la matière a très tôt préoccupé les philosophes. L'atomisme, où l'atome est l'« essence de toutes choses », constituant ultime et indivisible de la matière, tel que le concevaient dans l'Antiquité des philosophes comme Empédocle, Leucippe et Démocrite, et tel qu'il fut repris par Épicure et Lucrèce, ne pouvait guère dépasser la vision mécaniste de particules se combinant pour former des corps, à la suite d'une légère et aléatoire modification de leur trajectoire dans le vide (c'est le phénomène du clinamen, chez Épicure). Les philosophes observaient surtout ce qui les entourait et tombait immédiatement sous leurs sens : d'où la suprématie du concept des quatre éléments (l'air, l'eau, la terre, le feu) énoncé par Homère, repris par Thalès et conforté par Aristote, et qui perdurera jusqu'au xviiie s. C'est la chimie qui, 2 500 ans environ après les philosophes grecs, établira la notion moderne d'atome.

2.1. Vingt-trois siècles de tâtonnements
L'alchimie est pratiquée dès la plus haute Antiquité dans les grandes civilisations orientales, notamment en Chine et en Inde, où elle est appelée « science des saveurs » ou « science des élixirs ». En Occident, elle fleurit dans le monde hellénistique et sera transmise par les Arabes au monde chrétien.
 Âge
Au Moyen Âge les alchimistes classent les substances en fumées, esprits, eaux, huiles, laines, cristaux… Mais ils cherchent moins à identifier des corps différents qu'à découvrir la réalité « philosophale » fondamentale cachée derrière les apparences. États et propriétés physiques dominent ces classifications, et du ixe au xvie s. s'ajoutent trois autres éléments : le mercure pour l'état métallique et l'état liquide, le soufre pour la combustion et le sel pour la solubilité (ces éléments sont dits « philosophiques » pour ne pas les confondre avec les corps du même nom).

2.1.2. La théorie du phlogistique

Au xviie s. apparaît avec l'Allemand Georg Ernst Stahl la théorie du phlogistique : fluide miracle associé à tous les corps, il s'ajoute, se retranche, et permet d'expliquer le processus de combustion. Cependant, la chimie moderne est amorcée par le Français Jean Rey qui reconnaît, dès 1630, la conservation de la masse dans les transformations chimiques et le rôle de l'air dans les combustions. L'Irlandais Robert Boyle, dès 1661, fait la distinction entre mélanges et combinaisons chimiques.

2.1.3. La chimie devient une science

Au xviiie s., la chimie devient une véritable science avec le Britannique Joseph Priestley et le Français Antoine Laurent de Lavoisier qui imposent, par des méthodes dignes de la recherche actuelle, de nouvelles règles de nomenclature permettant de comprendre le processus des combinaisons chimiques. Lavoisier définit l'élément chimique, qui ne peut pas être décomposé en substances plus simples par la chaleur ou par une réaction chimique, ainsi que le composé, qui est la combinaison de deux éléments, ou plus, dans une proportion de poids déterminée.

2.2. L'approche de la connaissance actuelle de l'atome

2.2.1. La théorie atomique de Dalton

La première théorie moderne sur l'atome est énoncée, en 1808, par le Britannique John Dalton : tous les atomes d'un même corps simple, autrement dit d'un même élément, sont identiques, mais diffèrent des atomes d'autres éléments par leur dimension, leur poids et d'autres propriétés. Il donne d'ailleurs une liste de poids relatifs, par rapport à l'hydrogène, de quelques atomes (azote, carbone, oxygène, etc.).

2.2.2. Atome et tableau périodique des éléments

En 1869, le Russe Dimitri Ivanovitch Mendeleïev publie le premier tableau périodique des éléments classés en fonction de leur poids atomique. Il démontre que les propriétés chimiques des éléments sont des fonctions périodiques de leur « poids ». Pour cela, il est conduit, d'une part, à inverser certaines positions dans le classement (inversions qui s'avéreront, par la suite, en accord avec le fait que presque tous les éléments chimiques sont des mélanges de plusieurs isotopes) et, d'autre part, à laisser des cases vides correspondant, selon lui, à des éléments non encore découverts, mais dont il prévoit l'existence et les propriétés chimiques.

2.3. Découvertes des constituants de l'atome
Il faut attendre la fin du xixe s., avec les premières découvertes sur les constituants de l'atome, pour que la matière livre ses premiers secrets.
2.3.1. L'électron

.En 1891, l'Irlandais George Johnstone Stoney propose le nom d'électron pour désigner une particule qui porterait une charge électrique élémentaire négative. Mais c'est l'étude des rayons cathodiques par le Français Jean Perrin et par le Britannique Joseph John Thomson qui permet, en 1897, la découverte de l'électron, particule chargée négativement. J. Thomson mesure la charge e de l'électron par rapport à sa masse. La valeur de cette charge (− 1,6 × 10−19 C) est précisée, à 1 % près, en 1911, par l'Américain Robert Andrews Millikan.

2.3.2. La radioactivité et les nucléons

L'observation en 1896 par Henri Becquerel d'un rayonnement inconnu, les mystérieux « rayons uraniques », excite la curiosité de nombreux chercheurs. En effet, les sels d'uranium émettent un rayonnement capable de rendre l'air conducteur d'électricité, d'impressionner une plaque photographique, et qui est aussi pénétrant que les rayons X.

Les radioéléments

À partir de cette observation, Marie Curie commence, en 1898, ses recherches sur la pechblende (oxyde naturel d'uranium) ; son but est de quantifier le rayonnement émis en mesurant l'intensité du courant d'« ionisation » qui est établi dans l'air, sous son action. Elle montre que l'intensité de ce rayonnement est proportionnelle à la quantité d'uranium présent, et elle retrouve ce même phénomène avec l'étude du thorium. Elle propose d'appeler radioactivité cette propriété, et substances radioactives les corps émetteurs de ce rayonnement.
Puis, en collaboration avec Pierre Curie, elle découvre d'autres radioéléments beaucoup plus radioactifs que l'uranium : le polonium en juillet 1898 et le radium en décembre de la même année. Les sources de radium sont un million de fois plus radioactives que les sels d'uranium. Dès ce moment, les découvertes de nouveaux éléments radioactifs se succèdent ; ainsi, André Louis Debierne isole l'actinium en 1899.

Le rayonnement radioactif

L'étude du rayonnement radioactif, émetteur de particules, peut alors être entreprise. Les physiciens reconnaissent deux espèces de rayonnements, que le Britannique Ernest Rutherford désigne par les lettres grecques α et β – par la suite un troisième rayonnement, γ (→  rayons gamma), sera identifié –, qui se distinguent par leur aptitude à pénétrer la matière et par leur comportement sous l'action d'un champ magnétique ou électrique. En 1903, ses compatriotes W. Ramsay et F. Soddy montrent que le rayonnement α est formé de noyaux d'hélium, projetés à grande vitesse.

2.3.3. Le noyau

L'existence du noyau est démontrée en 1907 par Rutherford, qui a l'idée de bombarder la matière, afin de mieux comprendre sa nature, à l'aide de particules α utilisées comme de véritables projectiles. À cet effet, il réalise, dans un tube sous vide, un faisceau étroit de particules α émises par désintégration radioactive du polonium, et place sur son trajet une feuille d'or très mince. Il constate que la plupart des particules n'ont pas rencontré d'obstacles en traversant la feuille d'or, et que par conséquent la matière est pratiquement vide. Cependant, quelques particules sont fortement déviées, et le calcul montre qu'elles ne peuvent être repoussées que par des charges positives concentrées dans un très petit volume.

2.3.4. Le proton
Un des élèves de Rutherford, H. G. Jeffreys Moseley, détermine en 1913 le nombre de charges électriques unitaires et positives que contient l'atome (numéro atomique Z), tandis que son maître découvre, en 1919, la particule positive constitutive du noyau, qu'il nomme proton. Il pressent l'existence d'une particule semblable mais neutre.
2.3.5. Le neutron

En 1930, les Allemands Walter Bothe et Heinrich Becker observent, en bombardant des éléments légers (lithium, béryllium, bore) par des particules α, l'apparition d'un nouveau rayonnement encore plus pénétrant que les protons, qui n'est pas dévié par un champ électrique ou magnétique. C'est encore un élève de Rutherford, James Chadwick, qui en 1932 montre que ce rayonnement est constitué de particules de masse quasi identique à celle du proton, mais neutres, insensibles aux charges électriques, et donc très pénétrantes : les neutrons.


Par la suite, on s'aperçoit que les nucléons (neutrons et protons) ne restent pas inertes dans le noyau : ils interagissent en échangeant des particules plus élémentaires, les mésons π (ou pions), découverts en 1947 par le Japonais Yukawa Hideki et le Britannique Cecil Frank Powell.
Dans les années 1960, l'Américain Murray Gell-Mann introduit l'hypothèse que les nucléons sont eux-mêmes composés de trois grains quasi ponctuels, les quarks, liés par des gluons. Avec l'avancée des constructions théoriques pour rendre compte des faits expérimentaux, le nombre des quarks a été porté à six. Ainsi, en moins d'un siècle, la notion de particule élémentaire est passée de la molécule à l'atome, puis au noyau, ensuite au nucléon puis au quark, et d’autres particules théoriques sont encore à l’étude dans les gigantesques accélérateurs.

3. La représentation de l'atome
Dès que la notion scientifique d'atome apparut, il s'avéra nécessaire de la symboliser pour parvenir à une meilleure compréhension des processus chimiques.

3.1. La représentation symbolique de l'atome

Bien que les termes d'atome et d'élément y soient parfois confondus avec celui de molécule, la première tentative de représentation de l'atome peut être attribuée à John Dalton, qui donne une table des « poids » des différents éléments connus : ces derniers sont représentés par des cercles dans lesquels des lettres, des points ou des traits caractérisent la nature de l'élément. À la même époque, en 1814, la première notation systématique des éléments par le Suédois Jöns Jacob Berzelius annonce la représentation qui sera retenue par la suite. Chaque élément chimique est représenté par un symbole : la première lettre du nom en latin suivi éventuellement d'une deuxième lettre pour distinguer des éléments ayant des initiales identiques. Ainsi, le fluor (F) se distingue du fer (Fe), du fermium (Fm), ou du francium (Fr).

3.2. La représentation spatiale ou la notion de modèle
Dès les premiers résultats expérimentaux, les physiciens entreprennent de proposer une représentation de l'atome capable d'intégrer dans un ensemble cohérent les observations fragmentaires. Ils vont ainsi élaborer un modèle qui rend compte à un instant donné de la totalité des informations recueillies et validées.
3.2.1. Le modèle planétaire

En 1901, Jean Perrin propose une représentation planétaire de l'atome où l'électron décrit une trajectoire circulaire autour du noyau. Reprise et mise en équation par le Danois Niels Bohr en 1913, cette interprétation va s'installer durablement dans les esprits, alors que dès 1927 de nouvelles découvertes la mettent en cause.

Ce modèle s'impose au début du xxe s., car il concilie des résultats provenant d'horizons divers. En effet, on a observé, dès 1850, que chaque gaz, quand il est excité par des décharges électriques, émet une lumière qui, en passant dans un spectroscope à prisme, donne un spectre d'émission différent. Même l'hydrogène, l'élément le plus simple, donne naissance à un spectre complexe.
À la suite des travaux du Suisse Johann Jakob Balmer, en 1885, sur le spectre d'émission de l'hydrogène, le Suédois Johannes Robert Rydberg a proposé une relation mathématique simple entre les longueurs d'onde λ des raies caractéristiques du spectre de l'hydrogène :
1/λ = RH (1/n12 − 1/n22).
• RH est une constante spectroscopique appelée constante de Rydberg (RH = 109 737,32 cm−1) ;
• 1/λ est l'inverse de la longueur d'onde, appelé nombre d'onde (exprimé en cm−1) ;
• n1 et n2 sont des nombres entiers tels que n2 > n1, une série de raies du spectre de l'hydrogène étant caractérisée par une valeur donnée de n1, et par des valeurs de n2 égales à n1 + 1, n1 + 2, n1 + 3.

En 1913, James Franck et l'Allemand Gustav Hertz démontrent qu'un atome ne peut absorber de l'énergie que par quantités discrètes (ΔE) : ce phénomène donne naissance à un spectre d'absorption. Réciproquement, une perte de ces quantités d'énergie (ΔE) engendre une radiation (→  rayonnement) dont la fréquence (ν) émise vérifie la relation avancée par un autre Allemand, Max Planck, pour définir un quantum d'énergie :
ν = ΔE/h
dans laquelle h est la constante de Planck (h = 6,626 × 10−34 J . s).
Ces propositions sont corroborées par le calcul qui mène à la valeur expérimentale de la constante de Rydberg.
Ainsi, il apparaît que l'ensemble des travaux menant à la quantification des niveaux d'énergie des électrons dans l'atome s'accorde avec le phénomène de discontinuité des spectres d'émission de l'atome d'hydrogène : c'est la raison de la faveur du modèle de Bohr.

Selon ce modèle, les électrons se déplacent autour du noyau central sur des orbites analogues à celles que parcourent les planètes autour d'un astre. Au centre se trouve le noyau, chargé positivement, autour duquel gravitent les électrons négatifs ; la charge du noyau est égale à la valeur absolue de la somme des charges des électrons.
Ces électrons planétaires ne peuvent se situer que sur certaines orbites stables, associées chacune à un niveau d'énergie formant une suite discontinue, et correspondant aux différentes couches désignées par les lettres K, L, M, N, etc. On dit que l'énergie de l'atome est quantifiée.
La couche électronique K, la plus proche du noyau, peut au plus contenir deux électrons, et la couche L, huit électrons. Sous l'effet d'une excitation extérieure, l'électron peut passer d'une orbite à une autre, d'énergie supérieure. Mais il revient ensuite spontanément sur des orbites d'énergie inférieure. C'est alors qu'il rayonne de l'énergie.

3.2.2. Limites du modèle planétaire
En dépit du perfectionnement du modèle de Bohr, en 1928, par l'Allemand Arnold Sommerfeld, qui propose pour l'électron une trajectoire elliptique, une rotation sur lui-même (spin de l'électron) et la quantification étendue à l'espace pour tenter de rendre compte de la décomposition des raies spectrales émises quand on place l'atome dans un champ magnétique (effet Zeeman, du Néerlandais Pieter Zeeman), ce modèle avait des difficultés à interpréter les résultats obtenus pour les atomes à plusieurs électrons.
De plus, l'électron, qui rayonne de l'énergie, devait logiquement tomber sur le noyau.
Malgré le succès remporté par le modèle atomique de Bohr, il est très vite apparu impossible de développer une théorie générale pour tous les phénomènes atomiques en surimposant simplement aux principes de la mécanique classique ceux de la mécanique quantique.

3.2.3. Dualité onde-corpuscule

Vers 1900, Max Planck avait associé au caractère ondulatoire du rayonnement défini par une longueur d'onde λ un caractère corpusculaire sous forme de photons dont l'énergie E est liée à cette longueur d'onde λ par la relation (où c est la vitesse de la lumière) :
E = hν = hc/λ.

Le Français Louis de Broglie extrapole cette théorie des photons à toute particule, dans sa thèse en 1924, où il montre que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire.
Dès 1927, les Américains Clinton Joseph Davisson et Lester Halbert Germer prouvent le bien-fondé de cette relation en réalisant la diffraction d'électrons par un cristal, démontrant ainsi le caractère ondulatoire des électrons (en 1978, on réalisera aussi la diffraction de l’antiparticule de l’électron nommée positon, découvert en 1932 par l'Américain Carl David Anderson).
Par ailleurs, en 1927, l'Allemand Werner Heisenberg traduit par une inégalité l'impossibilité de connaître simultanément deux paramètres pour une particule en mouvement (vitesse et position, par exemple). C'est le principe d'incertitude, incompatible avec le modèle de Bohr :
Δp × Δx > h
où Δp et Δx expriment respectivement les incertitudes sur les paramètres p (quantité de mouvement) et x (position).

3.3. L'atome en mécanique ondulatoire
Le caractère double de la matière, ondulatoire et corpusculaire, et le principe d'incertitude font abandonner le modèle de Bohr et sa représentation ponctuelle de l'électron parcourant une trajectoire. Une démarche neuve apparaît avec des modes de raisonnement et de calcul qui lui sont propres. La position, la vitesse et la direction du déplacement d'un électron ne pouvant être définies simultanément, on détermine la probabilité de sa présence dans un certain volume de l'espace situé autour du noyau, que l'on appelle orbitale ou nuage électronique. On lui associe une fonction complexe purement mathématique nommée fonction d'onde (Ψ), qui se calcule par la résolution d'une équation posée par l'Autrichien Erwin Schrödinger.

L'application de l'équation de Schrödinger à l'électron unique de l'atome d'hydrogène dans son état de plus faible énergie, appelé état fondamental, permet de retrouver les résultats expérimentaux déjà interprétés par le modèle planétaire. Mais elle intègre les états inhabituels, dits états excités, où les énergies sont plus élevées que dans le cas de l'état fondamental, et permet l'extension et la généralisation du modèle aux atomes autres que l'hydrogène : les électrons de ces derniers occupent, à l'état fondamental, des orbitales comparables à celles des états excités de l'atome d'hydrogène.

Pour rendre compte du comportement des atomes possédant un seul électron sous l'effet d'un champ magnétique ou d'un champ électrique, on a été amené à introduire la notion de spin, qui trouve sa formulation mathématique grâce au Britannique Paul Dirac (en première approximation par rapport à la mécanique classique, le spin traduit un mouvement propre de rotation de l'électron sur lui-même).
On déduit par ailleurs de la mécanique ondulatoire le principe dit d'exclusion de Pauli, selon lequel deux électrons d'un même atome ne peuvent pas être repérés par le même ensemble de nombres quantiques n, l, m, s.
Il apparaît en outre que les électrons sont généralement localisés plus particulièrement dans certaines directions de l'espace autour du noyau.

3.4. Paramètres caractéristiques des électrons dans l'atome

La résolution mathématique de l'équation de Schrödinger impose des restrictions qui conduisent à l'introduction de nombres appelés nombres quantiques – n, l, m, s – devant satisfaire à certaines conditions ; l'énergie et la localisation spatiale des électrons gravitant autour du noyau sont déterminées par ces nombres .

3.4.1. Le nombre quantique principal
Le nombre quantique principal n est un entier strictement positif : il se nomme nombre quantique principal, car il quantifie l'énergie. On retrouve par la mécanique ondulatoire la même expression des différents niveaux d'énergie de l'atome d'hydrogène que celle obtenue dans le modèle de Bohr soit :
En = −13,6/n2 en eV (1 eV = 1,6 × 10−19 J)
avec n = 1, 2, 3…

Le nombre n détermine également le volume à l'intérieur duquel l'électron a le plus de chance de se trouver : quand n croît, le volume augmente. Les valeurs successives 1, 2, 3, etc. correspondent à l'ancienne notation des couches atomiques par les lettres K, L, M, etc.
Cependant, pour décrire une orbitale atomique, le nombre quantique principal n n'est pas suffisant, car si l'énergie fixe la taille de l'orbitale, elle ne donne pas la direction de l'espace où la probabilité de trouver l'électron est importante.

3.4.2. Le nombre quantique azimutal
Le nombre l est un entier positif, strictement inférieur à n, appelé nombre quantique azimutal, ou nombre quantique secondaire (par exemple, si n = 2 alors l = 0 ou 1) ; l quantifie le module du moment cinétique orbital.
De plus, l détermine la forme de l'orbitale dont les grands axes indiquent la direction où l'on a le plus de chance de trouver l'électron. Selon que l = 0, 1, 2, 3 ou 4, les différents types d'orbitales atomiques sont désignés respectivement par s, p, d, f ou g.
Ainsi, pour l = 0, la distribution électronique est symétrique autour du noyau et la probabilité de trouver l'électron est la même dans toutes les directions ; c'est le cas de l'hydrogène à l'état fondamental.
Si l = 1 ou 2 (orbitales p ou d), la fonction d'onde présente des « excroissances » dans des directions privilégiées de l'espace, justifiant l'orientation et les valeurs précises des angles de liaison des atomes entre eux dans les molécules.

3.4.3. Le nombre quantique magnétique
Le nombre m est un entier variant de − l à + l, prenant donc 2l + 1 valeurs : on l'appelle nombre quantique magnétique, car il quantifie la projection du moment cinétique sur un axe privilégié, celui selon lequel on applique un champ magnétique.
Ainsi, pour n = 2 :
• à l = 0 correspond m = 0 ;
• à l = 1 correspond m = − 1, 0, + 1,
m indique donc le nombre d'orbitales.
Pour l = 1 on a des orbitales p, où la probabilité de trouver l'électron est importante sur l'axe Oz pour m = 0, et suivant les axes Oy ou Ox pour m = − 1 ou + 1. À chaque type d'orbitale atomique (s, p) correspondent donc (2l + 1) orbitales atomiques, soit 1 de type s, 3 de type p, 5 de type d, 7 de type f, qui ont chacune une forme et une orientation bien particulières.
Ψn, l, m est la fonction d'onde qui exprime la forme de l'orbitale atomique occupée par un électron ; cette fonction au carré Ψ2n, l, m exprime la probabilité de présence de cet électron dans les différents domaines de l'espace.
(Ψn, l, m est une fonction des coordonnées de l'espace : x, y, z en coordonnées cartésiennes, ou r, θ, φ en coordonnées polaires.)

3.4.4. Le spin
Le quatrième nombre quantique est le spin s, qui prend deux valeurs opposées (+ 1/2 et − 1/2) pour chaque ensemble n, l, m.
Aucun électron d'un même atome n'a ses quatre nombres quantiques identiques à ceux d'un autre électron (principe d'exclusion). Pour une valeur n du nombre quantique principal le nombre maximum d'électrons est 2n2.
La résolution de l'équation de Schrödinger n'est rigoureuse que pour l'atome d'hydrogène. Elle s'étend toutefois aisément aux ions hydrogénoïdes, tels que He+ (un seul électron autour du noyau), et avec des approximations satisfaisantes elle s'applique aux atomes à plusieurs électrons.
Jusqu'à présent, l'hypothèse quantique, tout en se modifiant au fur et à mesure des nouvelles données, permet d'expliquer l'ensemble des connaissances.
À partir du nombre global d'électrons, et en jouant avec les valeurs que peuvent prendre entre eux les nombres quantiques, il est possible de construire la carte d'identité de chaque atome tout en respectant les règles qui, parfois sous des noms différents, ne sont qu'une même expression du fait que l'énergie la plus faible confère à l'édifice la stabilité la plus grande.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

1 - La gravité quantique à boucles en 5 questions

 

  

 

 

 

 

 

 La gravité quantique à boucles en 5 questions

Bernard Romney dans mensuel 458
daté décembre 2011 -

En quelques années, la théorie de la gravité quantique à boucles, qui cherche à quantifier la gravitation, a changé de statut et gagné une certaine maturité. Quels sont les fondements de cette théorie ?
F in mai 2011, Madrid accueille une communauté particulière de physiciens : tous les spécialistes de la « gravité quantique à boucles » s'y réunissent pour célébrer les 25 ans de l'article fondateur de cette théorie. Dans son allocution, l'auteur de cette publication, le physicien d'origine indienne Abhay Ashtekar, dépeint l'essor actuel de cette approche théorique, notamment en cosmologie. On est donc loin de la théorie longtemps considérée comme exotique, n'intéressant que quelques théoriciens travaillant à une reformulation mathématique de la loi de la gravitation.
Aujourd'hui, ce modèle de quantification de l'espace-temps est cohérent et a acquis une nouvelle assise. Tout tourne autour de l'idée que l'espace n'est plus continu mais formé de petits grains élémentaires. Bien sûr, cette théorie, très difficile à tester, est encore spéculative. Mais décrire la structure intime de l'espace-temps, comme passer « de l'autre coté du Big Bang » motive toute cette communauté de physiciens. « Les boucles » ont passé un cap : c'est donc l'occasion d'en expliquer les fondements.

1 Quels sont les objectifs de cette théorie ?
Imaginée à partir du milieu des années 1980, la gravité quantique à boucles est une théorie qui, comme son nom l'indique, cherche à quantifier la gravité, et tente ainsi de répondre à l'une des questions clés de la physique actuelle. En effet, le début du XXe siècle a vu l'émergence des deux théories de la physique contemporaine. La mécanique quantique qui décrit les propriétés de l'infiniment petit : molécules, atomes, particules élémentaires... Et la relativité générale, théorie relativiste de la gravitation, qui décrit l'Univers à grande échelle. Dans leurs domaines respectifs, ces deux théories font des merveilles. Pour autant, elles sont totalement incompatibles, et conduisent à deux représentations du monde radicalement différentes. D'un côté, des phénomènes quantiques aléatoires, incertains et discontinus, ayant cours dans l'espace-temps parfaitement plat et figé de la microphysique. De l'autre l'espace-temps courbe et dynamique, mais parfaitement lisse et continu de la relativité générale.

Exigence conceptuelle donc, mais pas seulement. En effet, si elles sont peu nombreuses, certaines questions, comme le début de l'Univers ou la fin de vie d'un trou noir, requièrent, pour être abordées dans leur intégralité, une théorie à même de rendre compte de situations où les effets gravitationnels se font sentir à l'échelle microscopique. Ce dont seule une théorie quantique de la gravitation serait capable.
Dès 1916, Einstein prend conscience de la nécessité de quantifier la gravitation. Mais les physiciens y sont d'abord parvenus pour les autres interactions fondamentales : la force électromagnétique et les interactions nucléaires faible et forte. C'est d'ailleurs l'un des triomphes de la physique du siècle dernier d'avoir forgé une théorie à la fois quantique et relativiste de ces trois dernières interactions. Et le résultat de ce tour de force est synthétisé dans ce que les physiciens des particules appellent le modèle standard.
À l'inverse, malgré un siècle d'efforts, personne n'a réussi à proposer une version quantique entièrement satisfaisante de la gravitation. Et pour cause : alors que les outils mathématiques utilisés pour quantifier les autres forces fondamentales ne sont utilisables que dans le cadre d'un espace-temps plat, celui de la gravitation est fondamentalement mouvant.
Pour contourner le problème, plusieurs tentatives ont consisté à étudier le cas de petites déformations de l'espace-temps sur une trame considérée comme plate et fixe. Mais toutes se sont confrontées à d'incontournables incohérences mathématiques les rendant in fine inutilisables.
Aujourd'hui, il existe essentiellement deux grandes théories concurrentes, et à ce stade encore spéculatives, qui proposent de quantifier la gravitation : la théorie des cordes lire L'ambitieuse théorie des cordes, p. 41 et la gravité quantique à boucles. La première évolue sur un espace-temps parfaitement figé. Et c'est ce qu'un certain nombre de théoriciens lui reprochent. Selon eux, pour cette raison, la théorie des cordes ne peut pas être l'ultime théorie quantique de la gravitation. Et ils lui préfèrent la gravité quantique à boucles, a priori plus modeste. N'ayant pas pour ambition d'unifier toutes les interactions, elle se concentre en effet exclusivement sur la quantification de la gravitation. De plus, l'approche « cordiste » part d'une hypothèse ad hoc - l'existence des cordes -, alors que les « bouclistes », et c'est leur force, ne se fondent que sur de la physique connue : la mécanique quantique et la relativité générale.

2 Comment les boucles quantifient-elles la gravitation ?
Pour les spécialistes des boucles, une véritable théorie quantique de la gravitation ne doit formuler aucune hypothèse sur la géométrie de l'espace-temps. Comme en relativité générale, c'est le contenu en matière de l'Univers qui fixe de façon dynamique sa géométrie. Les physiciens parlent ainsi d'approche « indépendante du fond ».
À partir de là, il s'agit d'appliquer les techniques standard de quantification à la gravitation. C'est-à-dire à l'espace-temps lui-même, puisque selon les équations d'Einstein, la force qui fait « tomber les pommes » est une manifestation directe de la déformation que la matière imprime à la trame de l'espace-temps.
Certes, de multiples tentatives ont montré toute la difficulté d'appliquer un tel programme. Mais pour les promoteurs de la gravité quantique à boucles, c'est justement le fait d'avoir privilégié des approches non indépendantes du fond qui a été à l'origine des échecs passés. Car en figeant la trame de l'espace-temps, elles empêchaient que ne se révèle son éventuelle structure quantique.
Concrètement, l'origine de la gravité quantique à boucles réside dans une reformulation de la relativité générale proposée en 1986 par Abhay Ashtekar, alors à l'université de Syracuse, aux États-Unis [1] . L'exercice est d'une extrême technicité mathématique. Sauf que réécrites sous cette forme, les équations décrivant la géométrie mouvante de l'espace-temps ressemblent désormais à celles qui décrivent les lignes de champ électrique dans la théorie de Maxwell. Ce que remarquent Carlo Rovelli et Lee Smolin, alors à l'université Yale aux États-Unis, au tournant des années 1980 et 1990 [2] .
Les deux physiciens suggèrent d'exporter les méthodes utilisées pour dériver la version quantique de l'électromagnétisme, quoique sous une forme très largement remaniée, dans le champ de la relativité générale et de la gravitation. Ainsi naît une théorie quantique de la gravité, dont le nom, gravité quantique à boucles, vient du fait qu'elle s'appuie sur le calcul de la variation de l'orientation de surfaces d'espace le long de lignes fermées d'espace-temps, autrement dit des boucles. Calculs auxquels sont associées des incertitudes fondamentales équivalentes à celles qui, en mécanique quantique, empêchent de déterminer simultanément la position et la vitesse d'une particule microscopique.

3 À quelle vision de l'espace-temps conduit la gravité quantique à boucles ?
En 1994, Carlo Rovelli et Lee Smolin, alors aux universités de Pittsburgh et de Syracuse, montrent que cette théorie conduit à une représentation de l'espace-temps radicalement nouvelle [3] . Alors que l'espace-temps de la théorie d'Einstein est lisse à toutes les échelles, celui de la gravité quantique à boucles, d'après les calculs des deux théoriciens, présente une structure discontinue si on le regarde aux échelles les plus petites.
Ainsi, de la même manière que l'énergie d'un atome ou d'une molécule ne peut prendre que certaines valeurs, la gravité quantique à boucles indique que l'espace lui-même n'est pas insécable à l'infini. Les calculs conduisent à une longueur élémentaire, la plus petite possible, équivalente à la longueur de Planck, soit 10-35 mètre. Ce qui mène à une surface élémentaire d'Univers de 10-70 mètre carré, et en trois dimensions à un volume élémentaire, le plus petit « cube » d'espace envisageable, de 10-105 mètre cube. L'Univers entier devenant alors une sorte de gigantesque « lego » composé de volumes élémentaires certes minuscules, mais insécables. De la même manière que la matière, d'apparence lisse et continue à notre échelle, résulte de l'agencement de particules dont la taille est finie.
Étonnant ? Peut-être. Si ce n'est que ces « grains » d'espace n'ont rien d' ad hoc , mais sont au contraire une conséquence implacable des calculs à base de boucles. Plus précisément, chaque fois que les équations de la théorie parcourent une boucle de façon abstraite, elles engendrent du même coup un nouveau quantum de volume [fig. 1] .
L'année suivante, Carlo Rovelli et Lee Smolin raffinent leur approche. Plus précisément, ils réalisent que la structure granulaire de l'espace peut être décrite par une gigantesque toile, ou réseau, dont chaque noeud représente un volume élémentaire et chaque lien la surface séparant deux volumes adjacents. Cette représentation leur a été inspirée par des travaux réalisés quinze ans plus tôt par Roger Penrose, à l'université d'Oxford. Et c'est donc auprès du célèbre mathématicien que les deux théoriciens peaufinent leurs idées durant l'été 1994, lors d'un séjour à Vérone, en Italie.
Pour autant, cet espace-temps granulaire ne suffit pas à faire alors de la théorie quantique à boucles une théorie quantique de la gravité. Encore faut-il qu'elle indique comment la dynamique de l'espace-temps met en oeuvre ces quanta d'espace dans des situations physiques concrètes, de la même manière que la relativité générale décrit l'extension de l'Univers dans l'espace-temps comme une solution des équations d'Einstein.
Les premières équations d'évolution d'un Univers quantique sont le fait de Thomas Thiemann, alors à l'université de Penn State, en Pensylvanie, en 1996. Accueillies avec un immense enthousiasme, elles laissent entrevoir la possibilité de calculer les probabilités quantiques précises de chaque modification de l'espace-temps quantifiée. Elles conduisent aussi à se représenter ce dernier telle une « mousse » faite de petits volumes d'espace et de temps, la quatrième dimension - le temps - devenant également une grandeur discontinue, dont le plus petit incrément est environ égal au temps de Planck, soit 10-43 seconde [fig.2] .
Néanmoins, l'euphorie est de courte durée : les équations de Thiemann sont si difficiles à manipuler qu'elles ne sont presque d'aucune utilité pratique. Sans compter qu'à l'horizon des années 2000 personne n'est en mesure de garantir l'unicité des règles conduisant à la quantification de l'espace-temps dans le cadre de la gravité quantique à boucle. D'où un risque de conduire, pour une situation physique donnée, à des prédictions différentes et contradictoires et donc d'invalider la théorie.
Aussi faut-il attendre ces toutes dernières années pour que plusieurs physiciens, notamment Laurent Freidel, à l'institut Perimeter, à Waterloo, au Canada, Etera Livine, à l'école normale supérieure de Lyon, et le groupe de Carlo Rovelli, au Centre de physique théorique, à Luminy, prouvent définitivement le caractère univoque de la gravité quantique à boucles [4] . Et en donnent une formulation permettant de l'utiliser pour réaliser des calculs.

4 Quels sont les succès de cette théorie ?
Tout d'abord, la gravité quantique à boucles est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation, qui intègre à la fois les exigences de la mécanique quantique : description probabiliste des phénomènes physiques, relations d'incertitude, caractère discontinu de la réalité... et le caractère fondamentalement dynamique de l'espace-temps de la relativité générale.
Par ailleurs, John Barrett, Winston Fairbairn et leur groupe de recherche, à l'université de Nottingham en Grande-Bretagne, ont récemment prouvé qu'à grandes échelles la gravité quantique à boucles se résume effectivement à la relativité générale [5] , de même que dans le domaine des faibles champs de gravitation, la relativité générale ne fait qu'une avec la théorie newtonienne.
Dans le même esprit, Eugenio Bianchi et You Ding, à l'université de Aix-Marseille, ont montré que la gravité quantique à boucles permet de décrire certaines propriétés de l'espace-temps en terme de propagation de gravitons, particule élémentaire imaginée être associée au champ de gravité. Et là encore, ses prédictions sont conformes à celles de la relativité générale. Elle permet aussi de retrouver les équations dites de Friedman qui décrivent l'expansion de l'Univers dans le cadre de la théorie d'Einstein de la gravitation.
Mais ce n'est pas tout. L'une des plus grandes réussites de la gravité quantique à boucles concerne la cosmologie. Ainsi, elle permet de dépasser les difficultés posées par la singularité mathématique associée au Big Bang, dont le sens physique est inexistant. Plus précisément, elle montre que notre univers en expansion pourrait résulter du « rebond » d'un univers en contraction qui l'aurait précédé lire « De l'autre côté du Big Bang », p. 46.
Enfin, la gravité quantique à boucles s'est illustrée dans la description de la physique des trous noirs lire « Comment la théorie des boucles voit les trous noirs », p. 44. En effet elle a permis à Carlo Rovelli, dès 1996, de retrouver la formule de l'entropie d'un trou noir. En des termes profanes, l'étrange résultat obtenu au début des années 1970 par Stephen Hawking, à Cambridge, et Jacob Bekenstein, alors à Princeton, selon lequel un trou noir, astre dont la relativité générale indique qu'il est impossible de s'en extraire, émet néanmoins, comme tout corps, un rayonnement thermique lié au fait qu'il possède une température. Et dont le physicien Stephen Hawking avait montré qu'il ne peut s'expliquer qu'en introduisant une dose de mécanique quantique dans la physique de ces astres noirs.

5 Est-il possible de tester la gravité quantique à boucles ?
Sachant que les prédictions de la gravité quantique à boucles concernent des domaines - échelle de Planck de l'espace-temps , Big Bang, trous noirs - totalement inaccessibles à l'expérimentation directe, la réponse est difficile. Et, il y a encore quelques années, d'aucuns auraient assuré que cette théorie, comme du reste toute théorie quantique de la gravitation, ne pourrait jamais être testée. Aujourd'hui, les avis sont partagés. Mais quelques pistes existent.
Ainsi, même s'il n'y a pas consensus sur la question, il n'est pas impossible que la granularité de l'espace prédite par les « boucles » s'accompagne d'une violation du sacro-saint caractère de la vitesse de la lumière. En effet, lorsqu'elle se propage entre les atomes d'un solide, la lumière, si sa longueur d'onde est très grande par rapport à la distance inter-atomique, ne subit pas d'influence du réseau cristallin, comme si elle ne le « voyait » pas. Et sa vitesse est la même que dans le vide. A l'inverse, si sa longueur d'onde est de l'ordre de grandeur de la distance inter-atomique, ou plus petite, elle devient sensible à l'influence du milieu dans lequel elle se propage. Sa vitesse dépend alors de sa longueur d'onde. Il n'est donc pas impossible qu'un photon de très petite longueur d'onde, de l'ordre de la longueur de Planck, puisse voir sa vitesse de propagation dans le vide affectée par la structure quantique de l'espace-temps telle que prédite par la gravité quantique à boucles.
Pour le savoir, les astrophysiciens comptent en particulier sur l'observation de ce qu'ils appellent des sursauts gamma, soit des bouffées de lumière ultra intenses - pendant quelques centaines de secondes, elles sont jusqu'à 10 fois plus lumineuses que toute la galaxie - émis par des galaxies anciennes situées à plusieurs milliards d'années-lumière de la Terre. Ainsi, un décalage constaté dans l'arrivée des photons de différentes longueurs d'onde pourrait être un signe favorable en faveur des boucles.

Autre possibilité : la piste cosmologique. En effet, les calculs montrent que la structure granulaire de l'espace-temps aurait pu imprimer sa marque dans le fond diffus cosmologique, la plus ancienne lumière aujourd'hui observable dans l'Univers. Effets qui pourraient être décelés par les nouveaux télescopes spatiaux. Avec tout de même un bémol : l'impossibilité de prévoir, étant donné l'indétermination qui règne sur certains paramètres de la théorie, si ces modulations dans le fond diffus ne seraient pas plus grandes que l'Univers observable. Auquel cas, même si elles existent, elles resteront à jamais inaccessibles.

Certains « bouclistes » optent enfin pour une approche probabiliste, et se demandent par exemple quelle est la probabilité que la gravité quantique à boucle engendre un Univers compatible avec les propriétés du nôtre. À ce jeu, il sera difficile de vérifier cette théorie.
[1] A. Ashtekar, Phys. Rev. Lett., 57, 2244, 1986.
[2] C. Rovelli et L. Smolin, Nuclear Physics, B331, 80, 1990.
[3] C. Rovelli and L. Smolin, Nuclear Physics, B 442, 593, 1995.
[4] L. Freidel et K. Krasnov, Class. Quant. Grav., 25, 125018, 2008.
[5] J. Engle et al., Nuclear Physics B799, 136, 2008.

LES FONDATEURS DE LA THÉORIE
Abhay Ashtekar, en 1986, alors à l'université de Syracuse, aux États-Unis, propose une reformulation des équations de la relativité générale.
Carlo Rovelli et Lee Smolin, à l'université Yale aux États-Unis, forts de cette reformulation, présentent une nouvelle approche pour quantifier la gravitation : la gravité quantique à boucles.
Lee Smolin et Carlo Rovelli, en 1994, montrent qu'elle conduit à une représentation de l'espace-temps radicalement nouvelle : à très petite échelle, ce dernier possède une structure granulaire.
Thomas Thiemann, en 1996, à l'université de Penn State, en Pensylvanie, établit les premières équations d'évolution d'un Univers quantique.
Laurent Freidel, à l'Institut Perimeter, est l'un de ceux qui ont prouvé ces dernières années le caractère univoque de la théorie.

L'ESSENTIEL
LA GRAVITÉ QUANTIQUE À BOUCLES est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation.
À LA DIFFÉRENCE de sa concurrente principale, la théorie des cordes, elle ne fige pas l'espace-temps, a priori. C'est la matière qui en façonne la géométrie de façon dynamique.
BIEN QUE DIFFICILE À TESTER, cette théorie connaît d'importants succès, en particulier dans le domaine de la cosmologie.
L'AMBITIEUSE THÉORIE DES CORDES
Apparue au début des années 1980, la théorie des cordes consiste à postuler que toutes les particules élémentaires, qui dans le modèle standard sont considérées comme ponctuelles, émanent en réalité des vibrations de minuscules cordes dont la taille avoisine la longueur de Planck 10-35 mètre. Hypothèse suffisante pour engendrer spontanément, du moins en théorie, une particule dont les propriétés sont exactement celles du graviton, particule élémentaire imaginée par les physiciens pour véhiculer la gravitation. Par ailleurs, cette théorie a la faveur de nombreux physiciens car elle offre également un cadre pour unifier l'ensemble des interactions. C'est-à-dire un cadre dans lequel les quatre forces de la nature semblent émerger d'une unique interaction encore plus fondamentale.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
 

UN REGARD SUR LE FUTUR

 

 

 

 

 

 

 

UN REGARD SUR LE FUTUR


Un regard sur le futur : pouvons-nous comprendre l'infiniment grand à partir de l'infiniment petit ? Les dernières décennies du siècle ont été témoin de progrès extraordinaires dans notre compréhension des constituants ultimes de la matière et des forces qui agissent sur eux. Grâce à l'effort de nombreux scientifiques, nous sommes parvenus à élaborer une « théorie standard » qui décrit et explique tous les phénomènes ainsi observés au coeur du monde des particules élémentaires. Avec la théorie standard, nous pouvons retracer l'histoire de l'Univers en remontant dans le temps, jusqu'à quelques fractions de milliards de secondes après le Big Bang, à un moment où la température de l'Univers s'élevait à un million de milliards de degrés centigrade. A cette époque le plasma primordial qui constituait l'Univers était peuplé de particules que nous ne pouvons produire aujourd'hui seulement dans les accélérateurs de particules les plus puissants en Europe et aux USA. L'évolution de l'Univers a été profondément affectée par les phénomènes qui se déroulèrent alors, et même avant. Ainsi la compréhension des constituants fondamentaux et de leurs interactions est cruciale pour saisir la distribution sur une grande échelle des galaxies, la matière et l'énergie qui le composent, et sa destinée finale. Malgré les progrès, des éléments importants de la microphysique sont encore à l'Etat d'hypothèse. L'existence et les propriétés du « boson de Higgs » ou la nature de la « matière noire » qui constitue l'essentiel de la masse de l'Univers devront être éclaircis par le LHC (Large Hadron Collider), une machine révolutionnaire qui mènera l'Europe à la frontière des hautes énergies. Le LHC est actuellement en construction au CERN (conseil Européen pour la Recherche Nucléaire) à Genève, dans le cadre d'une collaboration internationale, et devrait entrer en activité en 2007. Le LHC et les machines qui succèderont éclaireront plusieurs aspects fondamentaux de notre monde, comme l'existence de dimensions additionnelles à l'espace et aux temps et permettront la synthèse de la Mécanique Quantique et de la Relativité Générale, le problème théorique le plus profond de notre époque.

Un regard vers le futur
Luciano Maiani
Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.
Un premier exemple : lénergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.
La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.
La forme de lespace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.
Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.
La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.
Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.
La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.
Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.
Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.
Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.
La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.

 

VIDEO     canal U       LIEN 

 
 
 
 

Jacques Stern : « Ce qui est secret est vulnérable »

 

 

 

 

 

 

 

Jacques Stern : « Ce qui est secret est vulnérable »


Mathieu Nowak dans mensuel 420
daté juin 2008 -

Peut-on faire confiance aux techniques actuelles de cryptographie ? La recherche est-elle sur de bons rails pour protéger nos données demain ? Le « père » de la cryptologie française exprime son point de vue.

LA RECHERCHE : Diriez-vous que, pour ce qui est de la protection des données, nous vivons dans un monde sûr ?
Jacques stern : La cryptographie permet de s'opposer à certaines actions qui visent à prendre possession de nos données immatérielles. En ce sens, je pense qu'elle fait bien son travail. Toutefois, on ne peut pas faire reposer la question de la sûreté sur la seule cryptographie : j'aurais tendance à lancer la balle dans le camp d'autres communautés scientifiques. Les menaces qui peuvent peser sur la transmission des données ne sont pas liées à la conception des algorithmes. La fiabilité des algorithmes, même en tenant compte des attaques, va bien au-delà de tout le reste : vulnérabilité et fragilité des réseaux et des systèmes d'exploitation, tant dans leur conception que dans leur implantation. Ce n'est pas très difficile de s'introduire dans la machine de monsieur Tout-le-monde qui n'est pas bien protégée, ou de lancer une attaque sur un site donné à partir d'un réseau de machines. On a affaire à une chaîne dont la sécurité est mesurée par le maillon le plus faible, mais ce maillon, ce n'est pas la cryptographie.

Peut-on garantir un certain niveau de sécurité ?
Jacques stern : Il faut bien séparer ce qui relève de la cryptographie et des algorithmes de ce qui relève de leur implantation. On peut avoir un algorithme très sûr mais, si l'implantation n'est pas satisfaisante, le système sera exposé aux attaques. C'est l'ensemble des deux qui constitue la sécurité.
Quand le niveau de sécurité est élevé, par exemple dans les systèmes de paiement, les divers éléments de la chaîne - la carte et le terminal notamment - font l'objet de certifications de la part de laboratoires indépendants qui s'appuient sur des normes. Ces certifications se font selon l'état de l'art. On ne peut pas garantir davantage la sécurité.


Les algorithmes en eux-mêmes ne sont-ils pas vulnérables ?
Jacques stern : Le meilleur moyen d'attaquer les algorithmes de chiffrement reste d'essayer toutes les clés. Si l'on a affaire à un algorithme conventionnel à 256 bits, il faut essayer 2256 clés pour arriver à le casser : même si l'on mettait en parallèle tous les ordinateurs de la planète durant quelques mois, on n'y arriverait pas. Mais dans le futur, il est possible que l'on trouve des défauts dans nos algorithmes, défauts qui permettraient de les casser sans essayer toutes les clés.

Peut-on montrer en laboratoire qu'un algorithme est exempt de défauts comme on arrive à montrer qu'un programme informatique est exempt d'erreurs par des méthodes de vérification automatique ?

Jacques stern : Lorsque vous réalisez des connexions sécurisées sur Internet ou avec un terminal de paiement, ce n'est pas un algorithme mais plusieurs algorithmes qui sont utilisés, les uns après les autres, dans un ordre spécifique. À tout moment, il y a des failles potentielles, et on a développé des méthodes de vérification très spécifiques pour cette encapsulation logicielle des algorithmes dans les protocoles.
En revanche, au niveau des algorithmes, la fiabilité reste toujours conjecturale. On a confiance dans les algorithmes symétriques, dits conventionnels, avec une clé aux deux bouts. Ils sont à la pointe de ce que l'on sait faire et ne sont pas attaqués. Pour ce qui est de la cryptologie asymétrique, l'idée est de s'appuyer sur un problème de mathématiques reconnu comme étant difficile à résoudre. On ne sait pas faire mieux, mais l'expérience montre qu'en procédant ainsi on arrive à des algorithmes qui ne sont pas attaqués non plus.
C'est lorsqu'on procède par ce qu'on appelle « la sécurité par l'obscurité », c'est-à-dire que l'on met en oeuvre un algorithme qu'on ne publie pas, qu'on garde secret, que l'on risque de se trouver confronté à des problèmes.

Pourquoi ce qui est secret est-il plus vulnérable ?
Jacques stern : Tout d'abord, on est exposé aux fuites, par exemple en raison de l'intervention de tiers dans la chaîne de mise en oeuvre. Même lorsqu'un algorithme est implanté dans une puce, il n'est pas impossible de comprendre le mécanisme cryptographique en regardant comment la puce est fabriquée.
Ensuite, on a de plus en plus confiance dans les algorithmes publics car le niveau de difficulté pour les attaquer est connu de tous. Ainsi, c'est parce qu'elle a été publiée que la cryptographie multivariable a révélé ses faiblesses avant d'être industrialisée lire « Gloire et déboires de la cryptographie multivariable », p. 36. Il faut du temps pour étudier une nouvelle approche, pour imaginer les attaques possibles. On finit aussi par les imaginer lorsque l'algorithme n'est pas publié, mais cela peut prendre plus de temps. Et dans l'attente on est dans l'incertitude de la fiabilité réelle de l'algorithme.
C'est pourquoi les industriels imitent de plus en plus la recherche publique : ils publient leurs résultats et expliquent pourquoi un algorithme est bon. Dans le domaine des paiements, tous les algorithmes sont connus et normalisés. De même dans la téléphonie mobile : alors que pour la première génération, celle du GSM, il y a eu des algorithmes confidentiels, notamment pour l'authentification, pour la 3G, tous les algorithmes ont été expertisés par des laboratoires universitaires.

Estimez-vous qu'une branche de la cryptographie est aujourd'hui plus faible que les autres ?
Jacques stern : Les solutions semblent aujourd'hui satisfaisantes pour ce qui est de l'authentification, de la signature et du chiffrement. Il reste à pousser la recherche pour ce qui touche au contrôle d'intégrité - qui intervient aussi pour la signature car on ne signe pas directement un gros fichier mais son condensé ou « haché ». Nous devons faire un effort conceptuel sur les fonctions de hachage*, pour lesquelles on a sous-estimé la difficulté du problème.

On a vu récemment en effet plusieurs exemples de « collisions », c'est-à-dire de productions de documents différents ayant des hachés identiques alors que ceux-ci sont censés être uniques [1]. Le hachage pour certifier l'intégrité d'un document est-il une technique dépassée ?
Jacques stern : On pensait en effet que calculer des collisions pour les fonctions était intrinsèquement difficile, mais il y a deux ou trois ans on a commencé à comprendre au contraire qu'il est difficile de garantir qu'on ne peut pas trouver de collisions. Disons qu'il n'y a peut-être pas eu le même effort de cryptanalyse que celui qui a été fait dans le domaine du chiffrement à clé publique. Il y a eu beaucoup d'attaques sur la version initiale des algorithmes introduits dans les années 1990. Ils ont été abandonnés, et les algorithmes proposés devraient désormais se révéler bien plus résistants.

A-t-on besoin aujourd'hui d'un saut conceptuel pour concevoir de nouvelles fonctions de hachage ?
Jacques stern : Je crois qu'on est déjà en train de faire ce saut. Nous sommes dans une situation que nous avons connue avec le chiffrement il y a quinze ou vingt ans. Des mécanismes de cryptanalyse des algorithmes de chiffrement conventionnels apparaissaient alors dans la littérature. On les a utilisés pour concevoir des algorithmes de chiffrement standard comme AES Advanced Encryption Standard ou Kasumi, l'un des algorithmes dédiés aux téléphones portables de troisième génération. Mais ces méthodes développées pour la cryptographie conventionnelle n'ont pas été correctement transposées dans le contexte des fonctions de hachage. C'est en train de se faire : avec ces travaux de cryptanalyse nous sommes maintenant en mesure de concevoir des fonctions de hachage plus résistantes.
Le National Institute of Standards and Technology* a lancé un concours pour inventer de nouvelles fonctions de hachage qui deviendront la norme à l'horizon 2012. N'est-ce pas là le signe d'un défaut de vision pour le futur ?
Jacques stern : Non, on a déjà fait de tels concours dans le passé, et cela a bien marché : c'est comme ça qu'a été conçu l'algorithme AES. Nous avons un impératif industriel : imaginer un remplaçant des fonctions de hachage, car le SHA-1 que l'on utilise aujourd'hui est en fin de vie. Pour le moment, on a affaire à des expériences d'attaques qui sont en cours mais pas à des fraudes heureusement. Le concours est un excellent moyen de mobiliser la communauté scientifique tout en gardant un horizon raisonnable pour trouver une solution qui pourra être normalisée et industrialisée. Et je ne suis pas inquiet pour l'avenir.

Concernant le chiffrement et la signature, les échéances sur lesquelles vous travaillez sont-elles plus longues ?
Jacques stern : D'un point de vue académique, nous avons un bon savoir-faire en termes de chiffrement conventionnel : les attaques contre les mécanismes de chiffrement publiés comme AES ou ceux dédiés à la téléphonie 3G font progresser la science mais ne mettent pas en question les algorithmes eux-mêmes. En termes de cryptographie à clé publique, il y a aussi des progrès dans les algorithmes. Les tentatives pour avoir des algorithmes de chiffrement à clé publique alternatifs, du type cryptographie multivariée ou géométrie des nombres Lire « Une géométrie pour les prochains codes », p. 31, n'ont pas encore abouti à des algorithmes à la fois sûrs et pratiques. Et l'expérience de la cryptographie multivariée nous a montré que ce n'est pas facile de s'écarter des domaines actuels que sont la factorisation et les courbes elliptiques.
Pour résumer : les algorithmes actuels sont sûrs, et c'est tant mieux car il n'y a pas de solution de remplacement.
Jacques stern : Disons qu'il y a un équilibre entre les travaux de cryptanalyse et les travaux de cryptographie qui fait qu'un utilisateur peut avoir confiance dans la sécurité offerte par les mécanismes de chiffrement. Si jamais il y avait des progrès en matière de factorisation, les courbes elliptiques pourraient être une issue. Les algorithmes qui font appel à elles sont mûrs mais ils ne sont pas encore très largement implantés.
En Europe comme aux États-Unis, on sait qu'il existe une recherche militaire importante dans tous les domaines de la cryptologie. N'entretient-elle aucune passerelle avec la recherche civile ?
Jacques stern : C'est normal qu'il y ait des recherches en cryptologie au niveau gouvernemental car l'enjeu est de garantir la sécurité des communications d'un État. Je ne sais pas si l'on peut vraiment dire qu'il n'y a aucun lien avec la recherche civile, même s'il est vrai que ce qui est utilisé dans le domaine civil est issu de la recherche civile. Mais il ne faut pas fantasmer pour autant sur des progrès extraordinaires qui seraient faits chez les militaires et tenus secrets.

Si demain l'ordinateur quantique voit le jour, toutes les méthodes qui reposent sur la factorisation deviendront caduques. Est-ce une menace réelle ?
Jacques stern : Il y a plusieurs façons de répondre à cette question. D'abord on peut se tourner vers les physiciens et leur demander s'ils vont réussir à mettre au point l'ordinateur quantique. Ceux qui travaillent sur le sujet ont tendance à dire que l'on va y arriver, les autres sont moins enthousiastes. La vérité est que pour le moment, avec un ordinateur quantique, ils savent factoriser 15. Moi aussi, et pour moins cher ! Mais il faut reconnaître que les physiciens ont fait des choses remarquables et qu'ils continuent à avancer.
Il faut aller au bout de la question : un ordinateur quantique sera-t-il économiquement viable ? Si on peut le fabriquer pour un prix raisonnable, alors nous devrons faire évoluer les mécanismes de chiffrement. Mais je pense qu'on aurait tort de dire « si on y met le prix, on le fera ». Si l'objectif n'est que de casser des codes, alors le jeu n'en vaut pas la chandelle.
Pour l'instant, il n'y a pas de menace : il semble plus facile de perdre des milliards d'euros par un non-respect des procédures informatiques qu'à la suite d'une attaque menée à l'aide d'un ordinateur quantique !
En deux mots Les algorithmes de cryptographie ne sont qu'un élément de la chaîne permettant la transmission sécurisée de données. À l'heure actuelle, ils ne constituent pas le maillon faible de cette chaîne : lorsqu'ils sont publics, leur fiabilité est largement éprouvée. Les fonctions de hachage demandent cependant un effort de recherche pour continuer de garantir à l'avenir le contrôle d'intégrité. Quant à la menace d'un ordinateur quantique capable de venir à bout des algorithmes, elle reste très hypothétique.
[1] D. Mackenzie, Science, 319, 1480, 2008.

NOTES
Jacques Stern a fondé le premier laboratoire français public de cryptologie à l'École normale supérieure. Médaille d'or du CNRS en 2006, il préside actuellement l'Agence nationale de la recherche et le conseil d'administration d'Ingenico, l'un des principaux fournisseurs mondiaux de solutions pour les paiements sécurisés. Il a publié en 1998 La Science du secret chez Odile Jacob.
*Une fonction de hachage fournit une « empreinte » d'une information : un résumé de petite taille.
*Le National Institute of Standards and Technology NIST est l'agence fédérale américaine dédiée à l'innovation et à la normalisation.

SAVOIR
SUR la cryptologie
Livres
Douglas Stinson, Cryptographie : théorie et pratique, Vuibert, 2003.
Simon Singh, Histoire des codes secrets, LGF, 2001.
Pierre Barthélemy, Robert Rolland et Pascal Véron, Cryptographie : principes et mises en oeuvre, Hermes Science, 2005.
David Kahn, The Codebreakers : The Story of Secret Writing, Scribner Book Company, 1997.
Phong Nguyen et Brigitte Vallée, LLL+25, Springer, 2008.
Sur le web
wwww.di.ens.fr/CryptoTeam : la page de l'équipe crypto du département d'informatique à l'École normale supérieure.
wwww.iacr.org/ : l'association internationale pour la recherche en cryptologie
Whttp://tinyurl.com/4vcn37 : la division du NIST dédiée à la sécurité informatique.
wwww.scienceactive.com/ : une adaptation interactive de livre de Gilles Dubertret, Initiation à la cryptographie Vuibert, 1998.
whttp://tinyurl.com/4laqb8 : la reproduction de l'article de 1883 avec les principes de Kerckhoffs sur la sécurité d'un cryptosystème
.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google