ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

COULEUR

 




COULEUR

OPTIQUE
La vision des couleurs
Lumière et couleurs
Les synthèses des couleurs
La synthèse additive des couleurs
La synthèse soustractive des couleurs
BEAUX-ARTS
Évolution technique
Diversité des matières
La main du peintre
Un sujet de controverses
Le tournant du xixe s.

Trichromie, synthèse additive
Consulter aussi dans le dictionnaire : couleur
Cet article fait partie du dossier consacré à l'art et du dossier consacré à la lumière.
Sensation résultant de l'impression produite sur l'œil par une lumière émise par une source ; effet obtenu par la combinaison des teintes utilisées dans un tableau.
OPTIQUE

La vision des couleurs

Au sens physiologique du terme, la couleur n'existe qu'en fonction de trois éléments : le système visuel, la lumière émise par une source et le milieu qui les sépare. La rétine humaine comprend trois familles de cellules (cônes), spécialisées chacune dans la détection du vert, du rouge et du bleu (couleurs principales). À partir des signaux issus de ces récepteurs, le cerveau synthétise la perception de couleur. Des anomalies de la perception (contraste successif, temps d'« adaptation chromatique ») témoignent de la complexité du phénomène.
Lumière et couleurs

Comme le montre l'expérience, réalisée par Newton, de la dispersion de la lumière solaire (lumière blanche) par un prisme, le domaine des longueurs d'onde lumineuses visibles s'étend de 390 nanomètres (violet) à 770 nanomètres (rouge). En deçà et au-delà de ces limites se trouvent les rayonnements ultraviolets et infrarouges.
Lorsqu'un corps est éclairé par la lumière solaire, il peut diffuser de la même manière toutes les radiations (sa surface apparaît « blanche »), en absorber certaines et diffuser les autres (sa surface est « colorée ») ou les absorber toutes (sa surface est « noire »). La couleur dépend donc de la manière dont la substance éclairée réagit sous la lumière. Elle naît pratiquement toujours de l'interaction des ondes lumineuses avec les électrons de la substance.
Outre la diffusion et l'absorption, on connaît d'autres mécanismes créateurs de couleurs : la fluorescence, les interférences, la diffraction, les décharges dans les gaz, l'effet du champ cristallin, etc. Grâce aux travaux de Chevreul, de Lacouture et de Munsell, le caractère tridimensionnel des couleurs a été mis en évidence. Il est utilisé dans les classifications des couleurs qui prennent en compte trois éléments : la clarté, la tonalité et la saturation. (→ colorimétrie).
Les synthèses des couleurs

La synthèse additive des couleurs

Trichromie, synthèse additiveTrichromie, synthèse additive
On peut montrer qu'un écran « blanc » diffuse une lumière de la même couleur que celle qu'il reçoit. Il suffit donc de le regarder pour connaître la couleur de la lumière qui l'éclaire : sous un projecteur rouge, il est rouge ; sous un projecteur vert, il est vert. Et si on allume les deux projecteurs à la fois ? On constate alors que l'écran est jaune, d'un jaune plus ou moins verdâtre ou rougeâtre suivant la puissance respective de chaque projecteur, et qui peut être assez vif si on règle convenablement ces puissances.
Ainsi, en mélangeant des lumières rouge et verte convenablement dosées, on obtient du jaune. Pour obtenir du blanc, il faut ajouter à ce jaune un peu de bleu, au moyen d'un troisième projecteur. Et, suivant la couleur exacte du bleu, on devra modifier légèrement le rapport du rouge et du vert. Mais un réglage convenable des trois projecteurs permettra d'obtenir du blanc. On pourrait d'ailleurs en obtenir avec deux projecteurs seulement, un jaune et un bleu, à condition de pouvoir choisir la couleur exacte de l'un des deux. Pour un jaune donné, il existera une nuance de bleu permettant, par un dosage convenable, d'obtenir du blanc : ce bleu-là est dit complémentaire du jaune en question. Cette notion de couleurs complémentaires joue un grand rôle dans l'imprimerie en couleurs.
En modifiant les proportions du mélange issu des trois projecteurs, on pourra obtenir une lumière de n'importe quelle couleur, ou presque : c’est la synthèse additive des couleurs (principe utilisé dans les téléviseurs). En effet, on peut, dans un graphique, représenter ces mélanges par les puissances respectives de chaque projecteur, c'est-à-dire par différents points dans un espace à trois dimensions. Mais, en fixant arbitrairement la puissance totale, on ramène à deux le nombre des variables, et on peut ainsi représenter n'importe quel mélange par un point dans un plan. De plus, en mélangeant les couleurs représentées par deux points A et B, on obtiendra forcément une couleur représentée par un point du segment AB, plus ou moins proche de A ou de B suivant les proportions du mélange.
Quelle que soit sa source (Soleil, bougie, néon), une lumière polychromatique peut toujours être analysée par le prisme comme un mélange de lumières monochromatiques, qui seront représentées par des points situés sur une courbe englobant tous les points du plan représentant des mélanges. Ce principe permet de montrer sur un diagramme chromatique pratiquement toutes les couleurs, ainsi que leur composition de base.
Il faut souligner que ce choix des couleurs de base n'est commandé – en dehors de la facilité plus ou moins grande de leur production – que par l'avantage de disposer d'un triangle RVB (rouge, vert, bleu) le plus grand possible sur le diagramme. Trois autres couleurs différentes, R', V' et B', permettraient également d'obtenir la plupart des couleurs souhaitées, et en particulier du blanc. Avec une sorte de pourpre violacé, de l'orange et du bleu-vert, par exemple, les résultats seraient aussi bons qu'avec les trois couleurs traditionnelles : s'il est usuel d'appeler ces dernières les couleurs « primaires », il n'y a pas – pour le physicien sinon pour le photographe ou l'éclairagiste – de couleurs plus « primaires » que les autres.
La synthèse soustractive des couleurs

Trichromie, synthèse soustractive

Trichromie, synthèse soustractive  Trichromie, synthèse soustractive des couleurs
Si le principe de la synthèse additive des couleurs, c'est-à-dire l'utilisation du rouge, du vert et du bleu, était appliqué dans l'imprimerie, le mélange du rouge et du vert ne donnerait qu'un jaune moutarde peu lumineux. En effet, les imprimeurs (ou les peintres) n’utilisent pas des faisceaux de lumière pour composer leurs couleurs, mais des pigments colorés qui diffusent certaines couleurs. C'est pourquoi, contrairement à la télévision, la synthèse des couleurs est, ici, dite soustractive, car fondée sur l'absorption de la lumière. Les trois couleurs utilisées en imprimerie sont le jaune, le cyan et le magenta, dites « couleurs primaires » car elles ne dérivent d'aucune autre couleur tout en permettant d'obtenir toutes les autres par mélange. La superposition de ces trois couleurs ne donne qu'un brun noirâtre, aussi est-il nécessaire d'utiliser à part une encre noire.
La reproduction en quadrichromie peut se diviser en deux étapes : la décomposition et la recomposition des couleurs.
Le sujet à reproduire est tout d'abord photographié trois fois, en noir et blanc, avec différents filtres : bleu-violet, vert-jaune et rouge-orangé. On obtient ainsi trois négatifs en noir et blanc exprimant par leur degré de noirceur (densité optique) les proportions respectives de magenta, cyan et jaune qu'il faut combiner en chaque point du sujet pour contretyper sa couleur (obtenir son positif). Un quatrième film, le noir, est nécessaire pour les couleurs, mais aussi pour le texte, les filets.
Quatre plaques sont alors fabriquées, chez le photograveur, pour permettre la recomposition du sujet sur papier à partir des encres magenta, cyan, jaune et noire.
Si deux encres se recouvrent sur le papier, leurs absorptions s'ajoutent. En un point où, par exemple, du magenta et du jaune se superposent, le vert et le bleu sont absorbés : cet endroit-là du papier est rouge. De même, le mélange du jaune et du cyan produit du vert, celui du cyan et du magenta un bleu-violet assez foncé. Il reste à faire varier les proportions du mélange de lumières diffusées pour reproduire n'importe quelle couleur. Or l'imprimerie est une opération en « tout ou rien » : soit on met de l'encre, soit on n'en met pas. Aussi est-il nécessaire d'imprimer, avec chacune des encres, non pas des surfaces uniformes, mais des points régulièrement espacés, plus ou moins gros suivant que la couleur qu'ils absorbent doit être plus ou moins retranchée du mélange diffusé. Ces images en pointillé sont obtenues, pour chacune des encres, en tirant la photo à travers un filtre coloré approprié et une trame, c'est-à-dire un tissu à mailles très fines.
BEAUX-ARTS

Tributaire des moyens techniques et de la conception de l'image propres à l'artiste et à son temps, la couleur a connu au cours de l’histoire des mutations considérables.
Évolution technique

Diversité des matières

Les différentes époques voient leurs artistes faire usage de produits variés pour réaliser leurs œuvres : substances des peintures pariétales préhistoriques (ocres, charbon de bois, …), pigments minéraux et végétaux incorporés à divers liants pour l’élaboration des peintures murales du Moyen Âge et de la Renaissance, pratique de la peinture à l'huile à partir du xve s., emploi dematériaux industriels divers à partir du xixe s.
La main du peintre

L’emploi de la couleur diffère selon les artistes. Qu’elle soit appliquée sur de grandes surfaces, disposée en aplats ou en touches juxtaposées, en cernes ou en contours, elle sert par sa matérialité l’expression propre à chaque créateur qui en fait usage. Sa qualité expressive et son pouvoir de suggestion donnent également un sens à la réalisation plastique de l’œuvre.
Le travail de composition chromatique de l'artiste repose sur des notions de base : les couleurs primaires ou fondamentales (bleu, rouge, jaune), mélangées deux à deux, donnent les couleurs secondaires ou binaires (violet, vert, orangé, chacune étant la complémentaire de la couleur primaire qui n'entre pas dans sa composition), et toutes les combinaisons possibles définissent les teintes et les tons.
Un sujet de controverses

Fondement des jeux de valeur, de coloris, de lumière et des rapports spatiaux, la couleur se retrouve au cours des siècles au cœur de multiples débats où elle se voit opposée au dessin et à la forme. Les plus célèbres d’entre eux voient s’affronter durant la Renaissance les partisans des Vénitiens à ceux de Raphaël, les admirateurs de Rubens et de Rembrandt à l'Académie au xviie s. puis les défenseurs de Delacroix à ceux de Ingres dans le courant du xixe s.
Le tournant du xixe s.

Au cours du xixe s., contre l'académisme, l'étude (qui prolonge les travaux de théoriciens comme Chevreul) et l'exaltation de la couleur-lumière triomphent avec les impressionnistes (Claude Monet). Dès lors, la couleur, construction, expression ou sujet autonome, assume une fonction picturale primordiale, de Cézanne ou Van Gogh à Matisse, au fauvisme ou à l'abstraction (Rothko).

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

LENTILLE

 

lentille
Construction des images

Cet article fait partie du dossier consacré à la lumière.
Volume de verre ou d'une substance réfringente quelconque, limité par des surfaces généralement sphériques, utilisé pour former des images optiques.
OPTIQUE

Introduction

Les lentilles sont des objets transparents qui modifient la propagation de la lumière et dévient les rayons lumineux. Les lentilles les plus courantes possèdent une symétrie de révolution autour d'un axe et sont limitées par deux calottes sphériques, ou par une calotte sphérique et un plan. Elles entrent dans la construction d'un grand nombre d'instruments : lunettes, loupes, microscopes, appareils photographiques, caméras, appareils de projection, etc. On en trouve également dans le corps humain : le cristallin de l'œil est une lentille convergente particulière à courbure variable ; son rôle est de faire converger sur la surface de la rétine les rayons lumineux qui pénètrent dans l'œil.
Lentilles et images

On appelle image d'un point A le point A' où se rencontrent, après passage par la lentille, tous les rayons lumineux issus du point A. Lorsque les rayons issus de la lentille se coupent au point A', l'image est dite réelle. Les objectifs d'appareils de photo forment des images réelles : c'est la concentration de lumière à l'emplacement des images réelles qui impressionne la pellicule. Au contraire, lorsque, à la sortie de la lentille, les rayons semblent provenir d'un point A' situé sur le prolongement imaginaire des rayons, on dit que l'image est virtuelle : les loupes, les verres de lunettes forment des images virtuelles, dont le cristallin donne ensuite une image réelle située sur la rétine.
Pour qu'une image soit nette, il faut qu'à un point objet corresponde un point image, et non une tache : le système est alors dit stigmatique. Cela est très difficile à réaliser, et même impossible dans le cas d'objets de grandes dimensions. Cependant, on obtient un résultat satisfaisant lorsque les conditions de Gauss sont satisfaites, c'est-à-dire lorsque les rayons lumineux font un angle faible avec l'axe optique, ainsi qu'avec les normales aux surfaces optiques.
Les différents types de lentilles

Lentilles convergentes et lentilles divergentes

Construction des imagesConstruction des images
Suivant la forme de leurs faces, on distingue six sortes de lentilles, trois à bords minces (biconvexe, plan-convexe et ménisque à bords minces), et trois à bords épais (biconcave, plan-concave et ménisque à bords épais). Lorsque l'indice de la lentille est plus grand que celui du milieu dans lequel elle se trouve, les lentilles à bords minces sont convergentes, c'est-à-dire qu'elles transforment un faisceau de lumière parallèle en un faisceau convergent vers un point. Inversement, les lentilles à bords épais sont divergentes : elles transforment un faisceau de lumière parallèle en un faisceau divergent.C'est le contraire lorsque la lentille est plongée dans un liquide d'indice plus grand que celui du matériau dont elle est constituée.
Lentilles minces

On qualifie de mince une lentille dont l'épaisseur est faible par rapport aux rayons de courbure de ses faces. Les constructions et les calculs concernant les lentilles minces sont beaucoup plus simples que dans le cas général. On peut les considérer comme une première approximation pour des lentilles modérément épaisses.
Axe optique et centre optique

On appelle axe principal ou axe optique de la lentille la droite qui passe par les centres de courbure de ses faces (l'un des centres est rejeté à l'infini lorsqu'une des faces est plane).
Il existe un point O situé sur l'axe optique qui possède la propriété suivante : à la sortie de la lentille, tout rayon qui est passé par le point O est parallèle à la direction qu'il avait avant de rencontrer la lentille. On appelle le point O le centre optique de la lentille.
Pour les lentilles minces, on peut considérer que les sommets des deux faces de la lentille sont confondus. Le centre optique coïncide, lui aussi, avec ces deux points.
Les foyers d'une lentille

Foyers principaux

On appelle foyer principal image F' d'une lentille le point vers lequel convergent (ou d'où semblent diverger), après passage dans la lentille, tous les rayons lumineux provenant d'un faisceau cylindrique parallèle à l'axe de la lentille.
On appelle foyer principal objet le point F tel que tous les rayons issus de ce point (ou qui convergeraient vers ce point en absence de la lentille) forment, après passage par la lentille, un faisceau cylindrique parallèle à l'axe.
Le foyer est réel si la lumière passe effectivement par ce point. Il est virtuel si ce sont les prolongements imaginaires des rayons qui y passent. Les foyers sont réels pour les lentilles convergentes et virtuels pour les lentilles divergentes.
Plans focaux et foyers secondaires

Le plan perpendiculaire à l'axe et passant par le foyer image F' est le plan focal image P'. On définit de même le plan focal objet P par rapport au foyer objet F.
Un faisceau incident formé de rayons parallèles entre eux mais inclinés par rapport à l'axe optique converge vers un point du plan focal image qui n'est pas situé sur l'axe optique. On appelle ce point H' un foyer secondaire image : dans le cas des lentilles minces, il est situé à l'intersection du plan focal image et du rayon incident qui passe par le centre optique et n'est donc pas dévié en traversant la lentille.
De même, tous les rayons issus d'un point foyer secondaire objet H, situé dans le plan focal objet à l'écart de l'axe optique, forment, après traversée de la lentille, un faisceau parallèle, incliné par rapport à l'axe optique. Pour une lentille mince, la direction de ce faisceau émergeant est celle du rayon HO, qui n'est pas dévié à la traversée de la lentille.
Distance focale et puissance d'une lentille

La position et la taille des images données par une lentille sont déterminées par sa distance focale image f' et sa distance focale objet f qui dépendent des indices de réfraction de la lentille et des milieux extérieurs, de son épaisseur et des rayons de courbure de ses deux faces. Par convention, la distance focale image est positive pour les lentilles convergentes et négative pour les divergentes. Dans les cas où les milieux de part et d'autre de la lentille ont même indice de réfraction, les distances focales f et f' sont opposées.
Dans le cas des lentilles minces, la distance focale image représente la distance entre le centre optique et le foyer image. De même, la distance focale objet représente la distance entre le centre optique et le foyer objet.
Pour une lentille mince d'indice n placée dans l'air dont les faces sont des calottes sphériques de rayons respectifs R1 et R2, la distance focale est donnée par la « formule des lunetiers » : 1/f = (n − 1) (1/R1 − 1/R2).
La puissance P d'une lentille (on dit aussi la convergence) est exprimée en dioptries et définie comme l'inverse de la distance focale mesurée en mètres : P = 1/f. Cette grandeur est positive pour les lentilles convergentes et négative pour les lentilles divergentes. Le système formé par l'association de plusieurs lentilles minces et accolées est analogue à une seule lentille dont la puissance est égale à la somme algébrique des puissances de chacune.
Construction géométrique des images

D'un objet plan, schématisé par un segment AB, la lentille donne une image A'B' dont il est possible de déterminer graphiquement la position et les dimensions (on suppose les conditions de Gauss réalisées même si, pour la commodité du tracé, certains points sont un peu éloignés de l'axe principal).

Lentilles minces
Nous considérerons seulement le cas des lentilles minces. La construction repose sur les constatations suivantes : un rayon lumineux incident parallèle à l'axe est réfracté en direction du foyer image ; un rayon passant par le centre de la lentille n'est pas dévié ; un rayon incident passant par le foyer objet sort de la lentille parallèlement à l'axe optique.
Cas d'une lentille mince divergente

On choisit le point A sur l'axe optique de la lentille et AB perpendiculaire à cet axe. L'image cherchée est un segment A'B', également perpendiculaire à l'axe optique et parfaitement déterminé si l'on connaît l'image B' du point B. Pour construire B', on choisit deux rayons particuliers du faisceau issu de B ; par exemple, on peut utiliser le rayon incident passant par le foyer objet F (qui émerge parallèlement à l'axe optique) et le rayon passant par le centre optique O (qui n'est pas dévié). L'intersection des deux rayons émergents est l'image B' cherchée : tous les rayons passant par B passent par B' après traversée de la lentille. Selon la position de l'objet, l'image est réelle ou virtuelle.
Cas d'une lentille mince convergente

On opère de la même façon que pour les lentilles convergentes : on utilise deux rayons particuliers issus du point B ; l'un passant par O et l'autre par F, par exemple. Le premier n'est pas dévié ; au second correspond un rayon émergent parallèle à l'axe optique. L'intersection de ces deux rayons est le point B' cherché. L'image d'un objet réel est toujours virtuelle.
La relation de conjugaison image - objet

Les formules de conjugaison permettent de trouver la position de l'image d'un objet donné. Si A est un objet situé sur l'axe optique, son image A' est également sur l'axe optique. La formule de Newton donne la position de A' ; elle est valable pour toutes les lentilles immergées dans un milieu unique, aussi bien les lentilles minces que les lentilles épaisses :
F′A′ FA = ff′.
Cette formule est simple et universelle, mais elle nécessite que l'on connaisse la position des foyers. Pour les lentilles minces immergées dans un milieu unique, on peut utiliser une formule dans laquelle les distances sont mesurées à partir du centre optique de la lentille, qui est facile à repérer :
1/OA′ − 1/OA = 1/OF′.
L'expression du grandissement

Si AB est un objet perpendiculaire à l'axe optique, son image A'B' est elle aussi perpendiculaire à l'axe optique. Le grandissement est le quotient de la longueur de l'image par celle de l'objet. Lorsque ce rapport est positif, l'image et l'objet sont de même sens. Lorsque le grandissement est négatif, l'image est à l'envers (si l'on considère que l'objet est à l'endroit). Pour les lentilles minces immergées dans un milieu unique, le grandissement est donné par la formule :
A′B′/AB = OA′/OA
Il est facile de vérifier que, lorsque l'objet et l'image sont tous deux réels, l'image est inversée.
Les aberrations

Lorsque les lentilles sont utilisées en respectant les conditions de Gauss, les images obtenues sont dites approximativement stigmatiques. Mais dans les systèmes centrés, ces conditions ne peuvent pas toujours être respectées ; ils ne donnent alors pas d'images stigmatiques, pas même de façon approchée : ils sont affectés par des aberrations chromatiques ou géométriques.
Les aberrations chromatiques

Aberration chromatique
Si la lumière blanche émise par un point lumineux objet est réfractée différemment selon les radiations, l'image a une certaine largeur, et ses bords sont irisés. Cela est dû à la variation de l'indice de réfraction de la lentille avec la longueur d'onde de la lumière λ. En conséquence, les couples (A, A'ν) ne sont pas identiques ; il y a autant de A'ν que de radiations émises par le point lumineux objet A. Le milieu étant plus réfringent pour les courtes longueurs d'onde, le point A'bleu se trouve avant le point A'rouge le long de l'axe pour un point objet de l'axe. Il ne peut exister de stigmatisme global. Le problème est le même pour les points n'appartenant pas à l'axe. Il s'agit ici de l'aberration chromatique.
Pour y remédier, on associe plusieurs lentilles d'indices et de pouvoir dispersif différents. Cette découverte technique, réalisée en 1757 par un opticien londonien, John Dollond, infirmait la théorie de Newton : il pensait qu'il serait à jamais impossible de « corriger ce défaut inhérent à la nature même du verre ».
Les aberrations géométriques

L'aberration de sphéricité
Considérons une lumière monochromatique. Si nous sortons des conditions de Gauss, à grande ouverture, les rayons formant l'image A' d'un objet A éloigné de la lentille ne convergent pas en un point car les rayons qui traversent la lentille sur sa périphérie sont beaucoup plus déviés que les rayons paraxiaux (rayons proches de l'axe) : par rapport à la partie centrale, les bords d'une lentille convergente sont trop convergents et les bords d'une lentille divergente sont trop divergents ; ce défaut, nommé aberration de sphéricité, est une aberration du premier ordre.
La coma
C'est une aberration de deuxième ordre. Une lentille ne donne pas une image ponctuelle d'un point situé dans le voisinage de l'axe principal si le faisceau issu de ce point est trop large. On obtient une tache floue dont la forme rappelle une comète, d'où le nom de coma donné à cette aberration.
L'astigmatisme
L'emploi de faisceaux étroits ne suffit pas pour obtenir les images exemptes de défauts. En effet, avec un pinceau lumineux très incliné sur l'axe principal de la lentille, à un point objet correspondent deux images distinctes. Cette aberration de troisième ordre se traduit par l'impossibilité d'obtenir simultanément une image nette d'un cercle et de ses rayons : lorsque le diamètre horizontal est net, le diamètre vertical est flou, et inversement.
La courbure de champ
C'est aussi une aberration de troisième ordre. Même si l'astigmatisme est corrigé, l'image d'un plan étendu, normal à l'axe principal, est une surface courbe. Ce défaut est appelé courbure de champ.
La distorsion
C'est une aberration de quatrième ordre. Elle ne compromet pas la netteté mais la fidélité de l'image : les points les plus périphériques sont trop proches ou trop éloignés de l'axe optique. La position de l'image est modifiée.
Le grandissement linéaire des images croît quand on s'écarte de l'axe de la lentille. Ainsi, à une ligne droite ne passant pas par l'axe correspond une ligne courbe dont la concavité est tournée vers le centre de l'image (distorsion en barillet) ou dans le sens opposé (distorsion en coussinet ou en croissant).
Un système exempt de distorsion est dit orthoscopique.
Les remèdes
Un instrument d'optique ne peut être seulement utilisé dans les conditions strictes de Gauss et le problème de l'atténuation des aberrations est très difficile, car les conditions requises pour leur correction sont souvent opposées. Suivant le but, l'opticien opère des associations de lentilles, pour lesquelles il joue sur les formes, les matières et les emplacements respectifs des diverses lentilles de façon que les défauts se compensent. On peut également chercher à disposer judicieusement des diaphragmes.
Les lentilles spéciales

Les lentilles cylindriques sont limitées par deux surfaces cylindriques dont les génératrices sont parallèles ou par une surface cylindrique et un plan. Les lentilles sphérocylindriques sont limitées par une sphère et un cylindre. Certaines lentilles sont limitées par deux surfaces toriques, l'une des faces pouvant être remplacée par un plan ou une sphère ; ces lentilles toriques servent principalement à la correction de l'astigmatisme des yeux. Les lentilles à échelons de Fresnel, utilisées dans les phares, permettent d'éliminer sommairement mais suffisamment l'aberration de sphéricité axiale. La diminution d'épaisseur de la partie centrale permet des réalisations de grande dimension. Le risque d'échauffement et de grosse perte d'énergie est ainsi diminué.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

RÉVOLUTION DANS LA FIBRE OPTIQUE

 

Révolution dans la fibre optique

Beaucoup plus de données peuvent transiter par les fibres optiques, ont prouvé des chercheurs qui ouvrent ainsi la voie à un Internet plus rapide et bien moins coûteux.

DISTORSION. « Les systèmes de fibres optiques d'aujourd'hui sont un peu comme des sables mouvants. Avec les sables mouvants, plus vous vous débattez, plus vite vous coulez. Avec la fibre optique, après un certain point, plus vous ajoutez de puissance au signal et plus vous obtenez de distorsions qui limitent sa propagation sur une longue distance », explique Nikola Alic, un des auteurs d’une étude publiée dans la revue Science.


Pour éviter ces effets de distorsions, qui entrainent des pertes d’informations, les ingénieurs doivent installer le long du parcours des fibres des répétiteurs qui permettent de régénérer le signal. Mais une nouvelle technique permet d’envoyer plus de lumière sans distorsion et donc de se passer de répétiteurs.
12 000 kilomètres sans régénération
Dans leur étude, Eduardo Temprana de l’université de Californie-San Diego et ses collègues ont trouvé un moyen de supprimer les effets dissipatifs non linéaires de la lumière à travers la fibre optique, éliminant la nécessité d’une régénération constante du signal. Les chercheurs ont utilisé des méthodes numériques de propagation retour pour étudier diverses fréquences de pulsations laser qui traversaient des fibres de plus d’un kilomètre de long. Leurs observations révèlent que les interactions non linéaires induites par la lumière qui ralentissent les communications par fibre optique peuvent être inversées, et que la cohérence mutuelle entre les pulsations laser est la clé de ce rétablissement.
RECORD. Dans des tests, les scientifiques ont ainsi réussi à transmettre une information à travers une fibre optique sur plus de 12 000 kilomètres sans aucun répétiteur. Un record. Pour ces essais, ils ont utilisé des fibres contenant 2,3 et 5 canaux qui interagissent entre eux mais ils estiment qu’ils pourraient largement augmenter ce nombre de canaux. La plupart des câbles de fibres optiques contiennent aujourd’hui 32 canaux. Ces résultats préfigurent de nouveaux réseaux de fibres optiques sans répétiteurs, et donc beaucoup moins coûteux, pouvant transmettre une plus grande quantité d’information en toute fiabilité.


 DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
 

QU'EST-CE QU'UNE PARTICULE ?

 

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 27 juillet 2000.Qu'est-ce qu'une particule élémentaire?     

    par André Neveu    Introduction                                                                     De façon extrêmement pragmatique, une particule élémentaire est un constituant de la matière (ou du rayonnement) qui ne nous apparaît pas comme lui-même composé d'éléments encore plus élémentaires. Ce statut, composé ou élémentaire, est à prendre à un instant donné, et à revoir éventuellement avec l'affinement des procédés d'investigation. Mais il y a plus profond dans cet énoncé : chaque étape de l'investigation s'accompagne d'une interprétation, d'une recherche d'explication sur la manière dont ces particules interagissent pour former des entités composées à propriétés nouvelles, c'est à dire d'une construction théorique qui s'appuie sur des mathématiques de plus en plus abstraites, et qui, au cours de ce siècle, a contribué à plusieurs reprises au développement de celles-ci. Le long de cette quête d'une construction théorique cohérente, des problèmes peuvent apparaître, qui conduisent à la prédiction de particules ou d'interactions non encore découvertes, et ce va et vient entre théorie et expérience également raffinées où chacune interpelle l'autre, n'est pas le moins fascinant des aspects de cette quête de l'ultime. Aspect qui se retrouve d'ailleurs dans bien d'autres domaines de la physique. C'est là qu'est la vie de la recherche, plus que dans la construction achevée : les faits nous interpellent et à notre tour nous les interpellons. Où en sommes-nous aujourd'hui ? Une brève descente dans l'infiniment petit Comme chacun sait, la chimie et la biologie sont basées sur le jeu presque infini de molécules constituées d'atomes. Comme l'étymologie l'indique, on a cru ceux-ci élémentaires, et, effectivement, pour la chimie et la biologie, on parle toujours à juste titre d'éléments chimiques, oxygène, hydrogène, carbone, etc. L'ordre de grandeur de la dimension d'un atome est le dix milliardième de mètre. Depuis le début du siècle, on sait que chaque atome est formé d'électrons autour d'un noyau, cent mille fois plus petit que l'atome. Le noyau est lui-même constitué de protons et de neutrons liés entre eux par des forces de liaison nucléaires mille à dix mille fois plus grandes que les forces électrostatiques qui lient les électrons au noyau. Alors que les électrons restent à ce jour élémentaires, on a découvert il y a quarante ans environ que les protons et les neutrons eux-mêmes sont composés de quarks liés entre eux par des forces encore plus grandes, et nommées interactions fortes à ce titre (en fait, elles sont tellement fortes qu'il est impossible d'observer un quark isolé). Au cours de cette quête des cinquante dernières années, à l'aide principalement des grands accélérateurs comme ceux du CERN, on a découvert d'autres particules, neutrinos par exemples et des espèces d'électrons lourds (muon et lepton τ), et diverses espèces de quarks, la plupart de durée de vie extrêmement courte, leur laissant, même à la vitesse de la lumière, à peine le temps de faire une trace de quelques millimètres dans les appareils de détection, et aussi les antiparticules correspondantes. quarksuctgluonsdsb interactions fortesleptonsneutrinosυeυμυτW+ γ Z0 W-chargéseμτ interactions électrofaiblesgravitontrois « générations » de matièrevecteurs de forces Figure 1 Les particules élémentaires actuellement connues. À gauche les trois générations de fermions (quarks et leptons). Chaque quark existe en trois « couleurs », « vert », « rouge » et « bleu ». Chaque lepton chargé (électron e , muon μ et tau τ ) est accompagné d'un neutrino. À droite les vecteurs de forces : gluons, photon γ , bosons W et Z , graviton. La figure 1 présente l'ensemble des particules actuellement connues et considérées comme élémentaires, quarks et leptons, et des vecteurs de forces (voir plus bas) entre eux. Alors que les leptons s'observent isolément, les quarks n'apparaissent qu'en combinaisons « non colorées » : par exemple, le proton est formé de trois quarks (deux u et un d), un de chaque « couleur », (laquelle n'a rien à voir avec la couleur au sens usuel) « vert », « bleu », « rouge », pour que l'ensemble soit « non coloré ». D'autres particules, pions π et kaons K par exemple, sont constituées d'un quark et d'un antiquark, etc., tout cela de façon assez analogue à la formation de molécules en chimie à partir d'atomes. Pour avoir une idée de toute la richesse de combinaisons possibles et en même temps de la complexité et du gigantisme des appareils utilisés pour les détecter, je vous invite vivement à visiter le site du CERN, http ://www.cern.ch. Figure 2 Un événement observé aux anneaux de collision électrons-positrons du LEP. La figure 2 est un piètre exemple en noir et blanc de ce qu'on peut trouver en splendides couleurs sur ce site, une donnée expérimentale presque brute sortie du grand détecteur Aleph au collisionneur électrons-positrons LEP : les faisceaux d'électrons et positrons arrivent perpendiculairement à la figure, de l'avant et de l'arrière, au point d'interaction IP, où ils ont formé un boson Z de durée de vie extrêmement courte, qui s'est désintégré en une paire quark-antiquark, rapidement suivis de la création d'autres paires qui se sont réarrangées pour donner les traces visibles issues de IP et d'autres invisibles, car électriquement neutres, mais éventuellement détectables au moment de leur désintégration en particules chargées (pion, kaons et électrons en l'occurrence). En mesurant les longueurs des traces et les énergies des produits de désintégration et leur nature, on parvient à remonter aux propriétés des quarks produits au point IP et des mésons qu'ils ont formés. Cette figure, par son existence même, est un exemple de va et vient théorie-expérience : il faut avoir une idée très précise du genre d'événement que l'on cherche, et d'une interprétation possible, car il s'agit vraiment de chercher une aiguille dans une meule de foin : il y a un très grand nombre d'événements sans intérêt, que les ordinateurs qui pilotent l'expérience doivent rejeter avec fiabilité. Il est intéressant de noter que plusieurs membres de la figure 1 ont été prédits par cohérence de la théorie (voir plus bas), les quarks c, b, t, et le neutrino du τ, détecté pour la première fois il y a quinze jours, et, dans une certaine mesure, les bosons W et Z. Comme l'appellation des trois « couleurs », les noms de beaucoup de ces particules relèvent de la facétie d'étudiants ! Après la liste des particules, il nous faut parler de leurs interactions, car si elles n'interagissent pas entre elles, et finalement avec un détecteur, nous ne les connaîtrions pas ! En même temps que leurs interactions, c'est à dire leur comportement, nous aimerions comprendre comment on en a prédit certaines par cohérence de la théorie, mais aussi la raison de leur nombre, des caractéristiques de chacune, bref le pourquoi de tout (une ambition qui est fortement tempérée par l'indispensable humilité devant les faits) ! Dans le prochain paragraphe, nous tenterons cette explication. Comprendre Symétries et dynamique : la théorie quantique des champs Ici, les choses deviennent plus difficiles. Vous savez que les électrons tournent autour du noyau parce qu'ils sont négatifs et le noyau positif, et qu'il y a une attraction électrostatique entre les deux. Cette notion de force (d'attraction en l'occurrence) à distance n'est pas un concept compatible avec la relativité restreinte : une force instantanée, par exemple d'attraction électrostatique entre une charge positive et une charge négative, instantanée pour un observateur donné, ne le serait pas pour un autre en mouvement par rapport au premier. Pour les forces électrostatiques ou magnétiques par exemple, il faut remplacer la notion de force par celle d'échange de photons suivant le diagramme de la figure 3a. Ce diagramme décrit l'interaction entre deux électrons par l'intermédiaire d'un photon. Il peut aussi bien décrire les forces électrostatiques entre deux électrons d'un atome que l'émission d'un photon par un électron de la figure que vous êtes en train de regarder suivi de son absorption par un électron d'une molécule de rhodopsine dans votre rétine, qu'il amène ainsi dans un état excité, excitation ensuite transmise au cerveau. On remplace ainsi la force électromagnétique à distance par une émission et absorption de photons, chacune ponctuelle. Entre ces émissions et absorptions, photons et électrons se déplacent en ligne droite (le caractère ondulé de la ligne de photon n'est là que pour la distinguer des lignes d'électrons. On dit que le photon est le vecteur de la force électromagnétique. Les autres vecteurs de force sur la figure 3 sont les gluons g, vecteurs des interactions fortes entre les quarks, les bosons W et Z, vecteurs des interactions « faibles » responsables de la radioactivité β, et le graviton, responsable de la plus ancienne des forces connues, celle qui nous retient sur la Terre. Remarquons que l'on peut faire subir à la figure 3a une rotation de 90 degrés. Elle représente alors la formation d'un photon par une paire électron-antiélectron (ou positron), suivie par la désintégration de ce photon en une autre paire. Si on remplace le photon par un boson Z, et que celui-ci se désintègre en quark-antiquark plutôt qu'électron-positron, on obtient exactement le processus fondamental qui a engendré l'événement de la figure 2. Figure 3 Diagrammes de Feynman 3a : diffusion de deux électrons par échange d'un photon. 3b : création d'une paire électron-positron. 3c : une correction au processus 3a. La figure 3b décrit un autre processus, où le photon se désintègre en une paire électron-positron. En redéfinissant les lignes, une figure identique décrit la désintégration β du neutron par la transformation d'un quark d en quark u avec émission d'un boson W qui se désintègre en une paire électron-antineutrino. Si les « diagrammes de Feynman » de la figure 3 (du nom de leur inventeur) sont très évocateurs de ce qui se passe dans la réalité (la figure 2), il est extrêmement important de souligner qu'ils ne sont pas qu'une description heuristique des processus élémentaires d'interactions entre particules. Ils fournissent aussi des règles pour calculer ces processus avec une précision en principe presque arbitraire si on inclut un nombre suffisant de diagrammes (par exemple, le diagramme de la figure 3c est une correction à celui de la figure 3a, dans laquelle il y a une étape intermédiaire avec une paire électron-positron, qui modifie légèrement les propriétés de l'absorption, par la ligne de droite, du photon qui avait été émis par la ligne de gauche). Ces règles sont celles de la théorie quantique des champs, un cadre conceptuel et opérationnel combinant la mécanique quantique et la relativité restreinte qu'il a fallu environ 40 ans pour construire, une des difficultés principales ayant été de donner un sens aux diagrammes du genre de la figure 3c. En même temps que la dynamique des particules, cette théorie donne des contraintes sur celles qui peuvent exister, ou plutôt des prédictions d'existence sur d'autres non encore découvertes, étant données celles qu'on connaît déjà. Ce fut le cas des quarks c, b et t, et du neutrino du τ. Elle implique aussi l'existence des antiparticules pour les quarks et leptons (les vecteurs de force sont leurs propres antiparticules). Un des guides dans cette construction a été la cohérence, mais aussi l'unification par des symétries, de plus en plus grandes au fur et à mesure de la découverte de particules avec des propriétés nouvelles, et on a trouvé que cohérence et unification allaient ensemble. Avoir un principe de symétrie est puissant, car il limite et parfois détermine entièrement les choix des particules et leurs interactions, mais aussi, une fois qu'on en connaît certaines, d'autres sont déterminées. Cela permet ainsi d'appréhender avec efficacité toute cette faune. Par exemple, la symétrie entre électron et neutrino, ou entre les quarks u et d conduit à la prédiction des bosons W, mais alors on s'aperçoit immédiatement qu'en même temps il faut introduire le Z ou le photon ou les deux, et en même temps aussi leurs interactions sont déterminées. De même, le gluon et la force forte sont la conséquence d'une symétrie entre les trois « couleurs » de quarks. Ces symétries sont des rotations dans un espace interne, notion que nous allons à présent essayer d'expliciter avec une image simple en utilisant un Rubik’s cube. Un Rubik’s cube peut subir des rotations d'ensemble, que nous pouvons appeler transformations externes, et des transformations internes qui changent la configuration des couleurs de ses 9×6=54 facettes. Il faut imaginer qu'un électron ou un quark sont comme une configuration du cube, et que les symétries de la théorie sont les transformations internes qui font passer d'une configuration du cube à une autre. En fait, comme en chaque point de l'espace-temps il peut y avoir n'importe quelle particule, il faut imaginer qu'en chaque point de l'espace-temps il y a l'analogue d'un tel Rubik cube, espace « interne » des configurations de particules. Bien plus, on peut exiger que la théorie soit symétrique par rapport à l'application de transformations du cube différentes, indépendantes les unes des autres, en chaque point. On constate alors qu'on doit naturellement introduire des objets qui absorbent en quelque sorte le changement de la description de l'espace interne quand on passe d'un point à son voisin. Ces objets sont précisément les vecteurs des forces. De plus, les détails de la propagation, de l'émission et de l'absorption de ces particules vecteurs de forces sont prédits de façon à peu près unique. Il est facile d'imaginer que tout ceci fait intervenir une structure mathématique à la fois très complexe et très riche, malheureusement impossible à décrire dans le cadre de cette conférence. Un dernier ingrédient de la construction est la notion de brisure spontanée de symétrie. Car certaines des symétries dont il vient d'être question sont exactes (par exemple celle entre les « couleurs » des quarks), d'autres ne sont qu'approchées : par exemple, un électron et son neutrino n'ont pas la même masse. Dans le phénomène de brisure spontanée de symétrie, on part d'une théorie et d'équations symétriques, mais leurs solutions stables ne sont pas nécessairement symétriques chacune séparément, la symétrie faisant seulement passer d'une solution à une autre. Ainsi dans l'analogue classique d'une bille au fond d'une bouteille de Bordeaux : le problème de l'état d'équilibre de la bille au fond est symétrique par rotation, mais la position effectivement choisie par la bille ne l'est pas. Il y a une infinité de positions d'équilibre possibles, la symétrie par rotation du problème faisant seulement passer de l'une à une autre. La brisure de symétrie permet de comprendre le fait que les leptons chargés par exemple n'aient pas la même masse que leurs neutrinos associés, ou que le photon soit de masse nulle, alors que le W et le Z sont très lourds. L'ensemble de la construction trop brièvement décrite dans ce chapitre a valu le prix Nobel 1999 à Gerhardt 't Hooft et Martinus Veltman, qui en avaient été les principaux artisans dans les années 1970. À l'issue de tout ce travail, on a obtenu ce que l'on appelle le Modèle Standard. C'est l'aboutissement actuel d'unifications successives des forces, commencées par Maxwell au siècle dernier entre électricité et magnétisme (électromagnétisme) qui à présent incluent les interactions faibles : on parle des forces électrofaibles pour englober le photon et les bosons W et Z[1] . Le Modèle Standard prédit l'existence d'une particule, la seule non encore observée dans le modèle, le boson de Higgs, et comment celui-ci donne leur masse à toutes les particules par le mécanisme de brisure de symétrie. Ce dernier acteur manquant encore à l'appel fait l'objet d'une recherche intense, à laquelle le prochain accélérateur du CERN, le LHC, est dédiée. S'il décrit qualitativement et quantitativement pratiquement toutes les particules observées et leurs interactions (le « comment »), le Modèle Standard laisse sans réponse beaucoup de questions « pourquoi ». Par exemple pourquoi y a-t-il trois générations (les colonnes verticales dans la figure 1) ? Pourquoi la force électrofaible comprend-elle quatre vecteurs de force (il pourrait y en avoir plus) ? Par ailleurs toutes les masses et constantes de couplage des particules sont des paramètres libres du modèle. Il y en a une vingtaine en tout, ce qui est beaucoup : on aimerait avoir des principes qui relient ces données actuellement disconnectées. Peut-on unifier plus : y a-t-il une symétrie reliant les quarks aux leptons ? De plus, des considérations plus élaborées permettent d'affirmer que dans des domaines d'énergie non encore atteints par les accélérateurs, le modèle devient inopérant : il est incomplet, même pour la description des phénomènes pour lesquels il a été construit. Plus profondément, il laisse de côté la gravitation. La satisfaction béate ne règne donc pas encore, et nous allons dans le chapitre suivant présenter les spéculations actuelles permettant peut-être d'aller au delà. Au delà du Modèle Standard Grande unification, supersymétrie et supercordes La gravitation universelle introduite par Newton a été transformée par Einstein en la relativité générale, une théorie d'une grande beauté formelle et remarquablement prédictive pour l'ensemble des phénomènes cosmologiques. Mais il est connu depuis la naissance de la mécanique quantique que la relativité générale est incompatible avec celle-ci : quand on tente de la couler dans le moule de la théorie quantique des champs, en faisant du graviton le vecteur de la force de gravitation universelle, on s'aperçoit que les diagrammes de Feynman du type de la figure 3c où on remplace les photons par des gravitons sont irrémédiablement infinis : ceci est dû au fait que lorsqu'on somme sur toutes les énergies des états intermédiaires électron-positron possibles, les états d'énergie très grande finissent par donner une contribution arbitrairement grande, entraînant l'impossibilité de donner un sens à la gravitation quantique. La relativité générale doit être considérée comme une théorie effective seulement utilisable à basse énergie. Trouver une théorie cohérente qui reproduise la relativité générale à basse énergie s'est révélé un problème particulièrement coriace, et un premier ensemble de solutions possibles (ce qui ne veut pas dire que la réalité est parmi elles !) est apparu de manière totalement inattendue vers le milieu des années 1970 avec les théories de cordes. Dans cette construction, on généralise la notion de particule ponctuelle, élémentaire, qui nous avait guidés jusqu'à présent à celle d'un objet étendu, une corde très fine, ou plutôt un caoutchouc, qui se propage dans l'espace en vibrant. Un tel objet avait été introduit vers la fin des années soixante pour décrire certaines propriétés des collisions de protons et autres particules à interactions fortes. Il se trouve qu'il y a là un très joli problème de mécanique classique qu'Einstein lui-même aurait pu résoudre dès 1905, s'il s'était douté qu'il était soluble ! De même qu'une particule élémentaire ponctuelle, en se propageant en ligne droite à vitesse constante minimise la longueur de la courbe d'espace-temps qui est sa trajectoire, la description de la propagation et des modes de vibration d'une de ces cordes revient à minimiser la surface d'espace-temps qu'elle décrit (l'analogue d'une bulle de savon, qui est une surface minimale !), ce qui peut être effectué exactement. Le nom de corde leur a été donné par suite de l'exacte correspondance des modes de vibration de ces objets avec ceux d'une corde de piano. Quand on quantifie ces vibrations à la façon dont on quantifie tout autre système mécanique classique, chaque mode de vibration donne tout un ensemble de particules, et on sait calculer exactement les masses de ces particules. C'est là que les surprises commencent ! On découvre tout d'abord que la quantification n'est possible que si la dimension de l'espace-temps est non point quatre, mais 26 ou 10 ! Ceci n'est pas nécessairement un défaut rédhibitoire : les directions (encore inobservées ?) supplémentaires peuvent être de très petite dimension, et être donc encore passées inaperçues. On découvre simultanément que les particules les plus légères sont de masse nulle et que parmi elles il y a toujours un candidat ayant exactement les mêmes propriétés que le graviton à basse énergie. De plus, quand on donne la possibilité aux cordes de se couper ou, pour deux, de réarranger leur brins au cours d'une collision, on obtient une théorie dans laquelle on peut calculer des diagrammes de Feynman tout à fait analogue à ceux de la figure 3, où les lignes décrivent la propagation de cordes libres. Cette théorie présente la propriété d'être convergente, ce qui donne donc le premier exemple, et le seul connu jusqu'à présent, d'une théorie cohérente incluant la gravitation. Les modes d'excitation de la corde donnent un spectre de particules d'une grande richesse. La plupart sont très massives, et dans cette perspective d'unification avec la gravitation, inobservables pour toujours : si on voulait les produire dans un accélérateur construit avec les technologies actuelles, celui-ci devrait avoir la taille de la galaxie ! Seules celles de masse nulle, et leurs couplages entre elles, sont observables, et devraient inclure celles du tableau de la figure 1. Remarquons ici un étrange renversement par rapport au paradigme de l'introduction sur l'« élémentarité » des particules « élémentaires » : elles deviennent infiniment composées en quelque sorte, par tous les points de la corde, qui devient l'objet « élémentaire » ! Au cours de l'investigation de cette dynamique de la corde au début des années 1970, on a été amené à introduire une notion toute nouvelle, celle de supersymétrie, une symétrie qui relie les particules du genre quarks et leptons (fermions) de la figure 1 aux vecteurs de force. En effet, la corde la plus simple ne contient pas de fermion dans son spectre. Les fermions ont été obtenus en rajoutant des degrés de liberté supplémentaires, analogues à une infinité de petits moments magnétiques (spins) le long de la corde. La compatibilité avec la relativité restreinte a alors imposé l'introduction d'une symétrie entre les modes d'oscillation de ces spins et ceux de la position de la corde. Cette symétrie est d'un genre tout à fait nouveau : alors qu'une symétrie par rotation par exemple est caractérisée par les angles de la rotation, qui sont des nombres réels ordinaires, cette nouvelle symétrie fait intervenir des nombres aux propriétés de multiplication très différentes : deux de ces nombres, a et b disons, donnent un certain résultat dans la multiplication a×b, et le résultat opposé dans la multiplication b×a : a×b= b×a. On dit que de tels nombres sont anticommutants. À cause de cette propriété nouvelle, et de son effet inattendu d'unifier particules et forces, on a appelé cette symétrie supersymétrie, et supercordes les théories de cordes ayant cette (super)symétrie. A posteriori, l'introduction de tels nombres quand on parle de fermions est naturelle : les fermions (l'électron en est un), satisfont au principe d'exclusion de Pauli, qui est que la probabilité est nulle d'en trouver deux dans le même état. Or la probabilité d'événements composés indépendants est le produit des probabilités de chaque événement : tirer un double un par exemple avec deux dés a la probabilité 1/36, qui est le carré de 1/6. Si les probabilités (plus précisément les amplitudes de probabilité) pour les fermions sont des nombres anticommutants, alors, immédiatement, leurs carrés sont nuls, et le principe de Pauli est trivialement satisfait ! Les extraordinaires propriétés des théories des champs supersymétriques et des supercordes ont été une motivation puissante pour les mathématiciens d'étudier de façon exhaustive les structures faisant intervenir de tels nombres anticommutants. Un exemple où on voit des mathématiques pures sortir en quelque sorte du réel. De nombreux problèmes subsistent. En voici quelques uns : - L'extension et la forme des six dimensions excédentaires : quel degré d'arbitraire y a-t-il dedans (pour l'instant, il semble trop grand) ? Un principe dynamique à découvrir permet-il de répondre à cette question ? Ces dimensions excédentaires ont-elles des conséquences observables avec les techniques expérimentales actuelles ? - La limite de basse énergie des cordes ne contient que des particules de masse strictement nulle et personne ne sait comment incorporer les masses des particules de la figure 1 (ou la brisure de symétrie qui les engendre) sans détruire la plupart des agréables propriétés de cohérence interne de la théorie. Une des caractéristiques des supercordes est d'englober toutes les particules de masse nulle dans un seul et même multiplet de supersymétrie, toutes étant reliées entre elles par (super)symétrie. En particulier donc, quarks et leptons, ce qui signifie qu'il doit exister un vecteur de force faisant passer d'un quark à un lepton, et donc que le proton doit pouvoir se désintégrer en leptons (positron et neutrinos par exemple) comme la symétrie de la force électrofaible implique l'existence du boson W et la désintégration du neutron. Or, le proton est excessivement stable : on ne connaît expérimentalement qu'une limite inférieure, très élevée, pour sa durée de vie. La brisure de cette symétrie quark-lepton doit donc être très grande, bien supérieure à celle de la symétrie électrofaible. L'origine d'une telle hiérarchie de brisures des symétries, si elle existe, est totalement inconnue. - Doit-on s'attendre à ce qu'il faille d'abord placer les cordes dans un cadre plus vaste qui permettrait à la fois de mieux les comprendre et de répondre à certaines de ces questions ? Nul ne sait. En attendant, toutes les questions passionnantes et probablement solubles dans le cadre actuel n'ont pas encore été résolues. Entre autres, les cordes contiennent une réponse à la question de la nature de la singularité présente au centre d'un trou noir, objet dont personne ne doute vraiment de l'existence, en particulier au centre de nombreuses galaxies. Également quelle a été la nature de la singularité initiale au moment du Big Bang, là où la densité d'énergie était tellement grande qu'elle engendrait des fluctuations quantiques de l'espace, et donc où celui-ci, et le temps, n'avaient pas l'interprétation que nous leur donnons usuellement d'une simple arène (éventuellement dynamique) dans laquelle les autres phénomènes prennent place. Toutes ces questions contiennent des enjeux conceptuels suffisamment profonds sur notre compréhension ultime de la matière, de l'espace et du temps pour justifier l'intérêt des talents qui s'investissent dedans. Mais ces physiciens sont handicapés par l'absence de données expérimentales qui guideraient la recherche. Le mécanisme de va et vient expérience-théorie mentionné dans l'introduction ne fonctionne plus : le Modèle Standard rend trop bien compte des phénomènes observés et observables pour que l'on puisse espérer raisonnablement que l'expérience nous guide efficacement dans le proche avenir. Mais à part des surprises dans le domaine (comme par exemple la découverte expérimentale de la supersymétrie), peut-être des percées viendront de façon complètement imprévue d'autres domaines de la physique, ou des mathématiques. Ce ne serait pas la première fois. Quelle que soit la direction d'où viennent ces progrès, il y a fort à parier que notre vision de la particule élémentaire en sera une fois de plus bouleversée.
[1] Voir la 212e conférence de l’Université de tous les savoirs donnée par D. Treille.

 

 VIDEO       CANAL  U         LIEN


 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google