ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA TURBULENCE

 

 

 

 

 

 

 

LA TURBULENCE

Cinq siècles après les travaux de Léonard de Vinci sur le contrôle des tourbillons et de leur effet dans la rivière Arno, le sujet n'est toujours pas clos. Au XXème siècle ce sont d'abord les innombrables applications pratiques (par exemple dans le domaine de l'aéronautique) qui ont été le moteur d'un progrès qui se concrétisait plutôt par le développement de modèles empiriques que par de véritables percées fondamentales. A partir de 1940, grâce en particulier au mathématicien russe Andrei Nikolaevich Kolmogorov, une véritable théorie a été proposée. Elle s'est révélée à la fois féconde en applications (en modélisation pour l'ingénieur) et pas tout à fait correcte : la théorie de Kolmogorov est invariante d'échelle (auto-similaire) alors que dans la réalité cette invariance d'échelle est brisée (un peu comme l'homogénéité de l'Univers est brisée par la présence de galaxies, d'étoiles, de cristaux, d'êtres vivants, etc.). on commence seulement depuis peu à comprendre le mécanisme physique et mathématique de cette brisure. Une véritable théorie de la turbulence pourrait naître dans les prochaines années.

Texte de la 177e conférence de l’Université de tous les savoirs donnée le 25 juin 2000.
La turbulence par Uriel Frisch
1
Comme ma conférence se situe dans le cadre du thème « Perspectives sur les mathématiques actuelles », je vais bien entendu vous parler aussi des aspects de la turbulence qui relèvent des mathématiques. Toutefois, le sujet est très interdisciplinaire et touche, comme vous le verrez, aussi à la physique, à la mécanique des fluides, à la météorologie et à l'astrophysique. Apres une brève introduction, je vous dirai deux mots de la formulation du problème, puis je vous parlerai de transition, de chaos, d'effet papillon, de mouvement Brownien, de chou-fleur et enfin du million de dollars que M. Clay nous a promis.
Le mot « turbulence » signifiait a l'origine « mouvements désordonnés d'une foule » (en latin turba signifie foule). Au Moyen Âge « turbulences » était utilisé comme synonyme de « troubles ». C'est ainsi que, sur un manuscrit en vieux français exposé au musée J. Paul Getty à Los Angeles, j'ai trouvé récemment un « Seigneur, délivrez nous des turbulences ». Comme vous le voyez, le sens a ensuite évolué.
Tout d'abord, la turbulence fait partie de l'expérience quotidienne : nul besoin d'un microscope ou d'un télescope pour observer les volutes de la fumée d'une cigarette, les gracieuses arabesques de la crème versée dans le café, ou les enchevêtrements de tourbillons dans un torrent de montagne [figure 1]. Ce que nous voyons, c'est très complexe, c'est très désordonné mais c'est très loin d'être le désordre total. Quand on regarde un écoulement turbulent, même en instantané, sur une photo, ce que l'on voit est autrement plus fascinant que l'espèce de chaos total obtenu, par exemple, en projetant une poignée de sable sec sur une feuille de papier. La turbulence, quand vous l'observez, est pleine de structures, en particulier de « tourbillons », entités connues depuis l'Antiquité, étudiées et peintes par Léonard de Vinci (qui fut sans doute le premier à utiliser le mot de turbulence – turbolenza en Italien – pour décrire les mouvements complexes de l'eau ou de l'air). Je crois que c'est ce mélange intime d'ordre et de désordre qui en fait a la fois le charme et, il faut bien le dire, une des principales difficultés.
2
Figure 1
Il est très facile d'obtenir de la turbulence. En fait, chaque fois qu'un fluide s'écoule autour d'un obstacle, par exemple dans le sillage d'un bateau, et si la vitesse est suffisante, eh bien, on aura de la turbulence. On trouve donc de la turbulence un peu partout : la circulation du sang à l'intérieur des vaisseaux sanguins, les écoulements de l'air autour d'une automobile ou d'un avion – responsable des fameuses « turbulences » pour lesquelles on nous demande d'attacher nos ceintures –, ou encore les mouvements de l'atmosphère en météorologie, les mouvements du gaz constituant les étoiles comme notre Soleil, et enfin les fluctuations de densité de l'Univers primitif donnant naissance ultérieurement aux grandes structures de l'Univers actuel, comme les amas de galaxies [figure 2]. Sans toute cette turbulence, la pollution urbaine persisterait pendant des millénaires, la chaleur produite par les réactions nucléaires dans les étoiles ne pourrait pas s'en échapper sur une échelle de temps acceptable et les phénomènes météorologiques deviendraient prévisibles à très long terme.
3
Figure 2 : Amas de galaxies simulé par la Collaboration Virgo en 1996. Il s’agit d’une simulation tri-dimensionnelle comportant 256X256X256 particules.
Les équations qui gouvernent les mouvements des fluides, qu'ils soient turbulents ou non, ont été écrites pour la première fois par Claude Navier en 1823. Elles sont souvent appelées équations de Navier-Stokes en raison des perfectionnements apportes ultérieurement par George Stokes. En fait il s'agit essentiellement des équations de Newton, qui relient la force et l'accélération, équations qu'il faut appliquer à chaque parcelle du fluide ce qui fut fait pour la première fois par Léonard Euler il y a trois siècles. L'apport crucial de Navier a été d'ajouter aux équations d'Euler un terme de friction entre les diverses couches de fluide proportionnel au coefficient de viscosité et aux variations de vitesse [figure 3]. Ces équations, que l'ont sait par exemple résoudre a l'ordinateur, comportent encore des défis majeurs sur lesquels je vais revenir.
4
Figure 3
La turbulence est devenue une science expérimentale vers la fin du XIXe siècle quand l'anglais Osborne Reynolds a pu observer la transition du régime laminaire au régime turbulent. Vous savez que, dans un tuyau, si l'eau passe lentement, on aura des filets bien réguliers, c'est-à-dire un écoulement laminaire. Si elle va trop vite, il apparaît un très grand nombre de tourbillons et les pertes de charges dans le tuyau vont être très différentes. Reynolds put mettre en évidence des lois assez simples relatives à n'importe quel tuyau pour cette transition vers la turbulence ; il introduisit un nombre, appelé depuis nombre de Reynolds, qui n'est autre que le produit du diamètre du tuyau D et de la vitesse moyenne de l'écoulement dans le tuyau V, le tout divisé par la viscosité du fluide ν (viscosité de l’air environ 0,1 cm2/S, viscosité de l’eau 0,01 cm2/S) soit R = DV/ν. Reynolds a montré que lorsque ce nombre dépasse une certaine valeur critique, de l'ordre de quelques milliers, alors tout d'un coup, l'écoulement devient turbulent. Des transitions analogues mais plus spectaculaires s'observent dans des écoulements ouverts derrière un cylindre [figure 4]. Léonard avait déjà vu le phénomène d'allée tourbillonnaire et l'avait représente de façon presque correcte [figure 5].
Figure 4 : L’allée tourbillonnaire de von Kármán.
Figure 5 : Recirculations à l’aval d’un élargissement brusque par Léonard de Vinci.
Une caractéristique très importante de ces écoulements turbulents, qui apparaît dès la transition, est leur caractère chaotique. De façon plus précise, les écoulements turbulents apparaissent comme non prédicibles. Qu'est-ce que cela veut dire, non prédicibles? Supposons que l'on connaisse de façon détaillée la configuration de l'écoulement à un instant donné. Alors, bien que cet écoulement soit régi par des équations bien déterminées, déterministes comme on dit, dans la pratique, il n'est pas possible de prédire l'évolution ultérieure pour des temps longs. Cette théorie du chaos, qui doit beaucoup à Henri Poincaré, à David Ruelle, à Edward Lorenz et à l'École russe de Kolmogorov et de ses élèves Vladimir Arnold et Yacov Sinai, a des implications très importantes en météorologie. Imaginons que, pour prévoir le temps, on mesure, à un instant donné, le vent, la pression, la température en tous les points de la planète et que l'on essaie de prédire l'évolution ultérieure du temps par un calcul à l'ordinateur. En fait, au bout d'un temps relativement court, vous ne pourrez plus prédire de façon détaillée dans quel état se trouve l'atmosphère, et cela quelle que soit la puissance des ordinateurs. On dit que la turbulence atmosphérique est non prédicible, elle finit par être sensible au moindre éternuement ou à un battement d'aile d'un papillon, comme l'a suggère le météorologue américain E. Lorenz. Son « effet papillon » est illustré sur la
5
6 figure 6 où les courbes représentent non pas la trajectoire d'un papillon mais – de
façon symbolique – la trajectoire du point représentatif de l'ensemble du système étudié. La courbe noire correspond au cas sans papillon et la courbe rouge à la trajectoire modifiée par la présence initiale d'un battement d'aile d'un papillon. Les deux trajectoire restent d'abord proches (pour le montrer j'ai répété la trajectoire noire en pointillé) puis s'écartent assez vite. Dans la pratique il n'est pas possible de prédire en détail le temps qu'il fera au-delà d'environ une dizaine de jours. Toutefois des progrès récents, qui doivent beaucoup aux travaux de Michael Ghil, Bernard Legras et Robert Vautard, rendent concevables des prévisions un peu plus grossières à l'échelle de plusieurs semaines, voire de plusieurs mois dans les régions tropicales.

Figure 6 : L’effet papillon.
En géophysique et en astrophysique des nombres de Reynolds gigantesques de centaines de millions et bien au-delà sont monnaie courante. Un point très intéressant est que, lorsqu'on augmente le nombre de Reynolds, ce qui peut se faire par exemple en diminuant sa viscosité, il apparaît de plus en plus de tourbillons de petite taille comme vous le voyez sur la figure 7 qui présente un jet turbulent. Chaque tourbillon est un peu comme une espèce de molécule. C'est ce que l'on appelle des « degrés de liberté ». Donc un grand nombre de Reynolds, cela veut dire qu'il y a beaucoup de degrés de liberté; c'est ce que l'on appelle le régime de turbulence développée. Il est facile d'observer ce régime dans une soufflerie de grande taille comme celles où l'on teste les maquettes d'autos et d'avions. On peut aussi maintenant réaliser des souffleries sur table qui exploitent les propriétés très particulières de l'Hélium à basse température, comme l'ont montré les travaux de Bernard Castaing à Grenoble et de Patrick Tabeling à Paris. Si on examine le comportement en fonction du temps de la vitesse en un point d'un tel écoulement mesuré par une sonde, on est frappé de l'analogie avec la courbe du mouvement Brownien [figure 8]. Cette dernière peut être imaginée comme le relevé en fonction du temps de la position d'un ivrogne arpentant la grand rue d'un village
7 aux innombrables bistrots, ivrogne qui déambulerait tantôt dans un sens tantôt dans
l'autre sans jamais se souvenir du sens précédent de sa marche au hasard. Il est facile de voir que le déplacement typique d'un tel ivrogne pendant un certain intervalle de temps est proportionnel non pas au temps écoulé mais à sa racine carrée (la même loi que celle qui régit les erreurs dans les sondages d'opinion). Dans un écoulement turbulent développe on trouve que la variation de la vitesse pendant un certain intervalle de temps est proportionnelle, non à la racine carrée mais à la racine cubique du temps écoulé. Cette loi en racine cubique, obtenue en fait par un argument dimensionnel lié à la conservation de l'énergie, fut prédite en 1941 par le mathématicien russe Andrei Kolmogorov et a été assez largement validée par des expériences et des simulations à l'ordinateur. En fait, des 1922 l'anglais Lewis Fry Richardson, avait pressenti ce qui se passait en présentant sa vision de la cascade d'énergie des grandes vers les petites échelles d'un écoulement turbulent, vision directement inspirée d'un poème du poète anglais Jonathan Swift :
« So, nat'ralists observe, a flea
Hath smaller fleas that on him prey; And these have smaller yet to bite 'em, And so proceed ad infinitum. »
8
Figure 7 : Jet d’eau turbulent (d’après Dimotakis, Lye et Papantoniou, 1981).
9
Figure 8 : Mouvement brownien.
Plutôt que de me hasarder à traduire, je vous demande d'imaginer une grosse puce en train de sucer le sang de votre chien, sang qui va ici jouer le rôle que l'énergie cinétique joue en turbulence. Maintenant, imaginez que la grosse puce est à son tour assaillie de puces plus petites qui lui sucent le sang et ainsi de suite jusqu'a atteindre des puces tellement petites que le sang y est décomposé par des processus moléculaires. Il est clair que le monstre ainsi sorti de l'imagination de Swift constitue ce que Benoît Mandelbrot a appelé une fractale. Ces fractales peuvent être caractérisées par une dimension qui n'est pas un nombre entier. Les objets de dimension entière 0, 1, 2, 3 sont, par exemple, des points, des lignes, des surfaces et des volumes. Pour imaginer un objet de dimension fractale entre 2 et 3 pensez par exemple à un chou-fleur. La dimension fractale de la turbulence – plus précisément ce que les mathématiciens appellent la dimension de Hausdorff de la dissipation d'énergie – est très proche de trois. Si c'était vraiment trois, la théorie proposée par Kolmogorov en 1941 serait exacte, ce qui explique le succès qu'a rencontré cette théorie dans l'élaboration de modèles empiriques pour les calculs des ingénieurs.
Le calcul de telles dimensions à partir des équations fondamentales de la mécanique des fluides reste un problème ouvert. Toutefois des progrès importants ont été faits ces dernières années en utilisant des outils mathématiques empruntés à la théorie quantique des champs, appliqués à un modèle simplifié dû à l'américain Robert Kraichnan. Dans ce modèle on suppose l'écoulement turbulent connu et l'on cherche à caractériser les propriétés d'un traceur transporté par cette turbulence, comme illustré par la figure 9 de Antonio Celani, Alain Noullez et Massimo Vergassola, représentant un instantané de la concentration d'un traceur obtenu par simulation a l'ordinateur. On peut imaginer par exemple qu'il s'agit de la concentration d'un polluant lâché dans l'océan, On sait maintenant calculer les propriétés fractales de tels polluants, mais il faudra sans doute des années avant de pouvoir mener à bien une entreprise comparable pour les propriétés fractales de la turbulence elle-même.
10
Figure 9 : Concentration d’un scalaire passif (polluant) transporté par un écoulement turbulent bi-dimensionnel du type que l’on trouve dans l’atmosphère et l’océan, simulé
numériquement sur une grille 2048x2048. Le scalaire est fortement intermittent et possède des propriétés d’échelle « anomales » qui ne peuvent être prédites par l’analyse dimensionnelle. Concentrations les plus faibles en bleu et les plus fortes en jaune.
Figure de Celani (A.), Noullez (A.) et Vergassola (M.), Observatoire de la Côte d’Azur, laboratoire G.-D. Cassini , UMR 6529 ; simulations à l’IDRIS, CNRS.
Dans un écoulement turbulent, si la variation temporelle de la vitesse en un point est généralement bien donnée par la loi en racine cubique de Kolmogorov, on sait depuis longtemps que ce n'est pas toujours vrai. Déjà en 1843 Adhémar Barré de Saint Venant observe que « les écoulements dans les canaux de grande section, ceux dont nous dirions aujourd'hui qu'ils possèdent un grand nombre de Reynolds présentent des ruptures, des tourbillonnements et autres mouvements compliques ». Le point intéressant ce sont les ruptures. C'est un fait expérimental que la vitesse de l'écoulement peut, à l'occasion, varier de façon considérable entre deux points voisins. Si par hasard l'échelle de cette variation devenait comparable à la distance parcourue par les molécules du fluide entre deux collisions successives, alors il faudrait repenser les fondements mathématiques des équations de Navier- Stokes. La façon traditionnelle d'obtenir ces équations suppose en effet une forte séparation entre le monde microscopique des molécules et le monde, appelé « macroscopique » où le fluide est traite comme un milieu continu.
Cela m'amène au grand défit mathématique qui fait l'objet d'un des sept prix d'un montant d'un million de dollars annoncés récemment par la fondation Clay au Collège de France. Le problème est de montrer que les équations de Navier-Stokes conduisent à un
11
problème « bien posé ». Cela veut dire que si l'on connaît le mouvement du fluide à
un instant initial on veut pouvoir montrer qu'il y a une solution unique à tout instant ultérieur. Notez que cette fois le problème n'est pas celui des erreurs mais de l'unicité de la solution. Ce problème a été résolu dans les années trente par Jean Leray dans le cas de deux dimensions d'espace (ce qui est pertinent en météorologie et en océanographie). Le problème est beaucoup plus difficile en dimension trois. Je vais essayer maintenant de donner un tout petit aperçu de la difficulté, sans utiliser de formalisme mathématique. Tout d'abord il faut noter que dans un fluide qui n'est pas en mouvement uniforme les filets fluides frottent les uns contre les autres, en raison de la viscosité, ce qui tend à ralentir leur mouvement relatif. À faible vitesse, donc à faible nombre de Reynolds (ce dernier est proportionnel à la vitesse), les effets du frottement visqueux sont très importants pour tous les tourbillons présents dans l'écoulement. Ce frottement rabote tout et l'on sait démontrer – ce n'est pas très difficile – que le problème est bien posé. En revanche, à grand nombre de Reynolds, les effets du frottement visqueux sont limités aux plus petits tourbillons et le problème est proche du problème du fluide parfait dans lequel la viscosité est ignorée. On sait montrer que ce dernier problème est bien posé pendant un temps court mais pas au-delà. En gros, le mieux qu'on sait démontrer pour l'instant, c'est que le fluide parfait ne se comporte pas mieux qu'un mobile dont l'accélération serait proportionnelle au carré de la vitesse, hypothèse qui conduit à une augmentation catastrophique de la vitesse qui peut devenir infinie au bout d'un temps assez court [figure 10]. Certaines simulations numériques à l'ordinateur suggèrent que le fluide parfait est en réalité bien plus sage, n'explose pas, et conduit de ce fait à un problème bien posé pour des temps arbitrairement longs. Il est possible aussi que le fluide parfait explose rapidement mais que l'effet du frottement visqueux empêche cette explosion. C'est précisément ce qui se passe dans la théorie de 1941 de Kolmogorov, mais pas nécessairement dans la réalité.
Figure 10 : L’accélération est proportionnelle au carré de la vitesse : la vitesse explose au bout d’un temps fini.
En conclusion, je voudrais souligner que la turbulence a un statut très particulier dans la physique contemporaine. Elle est souvent considérée comme un des grands problèmes
12
ouverts de la physique, mais contrairement à d'autres problèmes frontières de la physique, les phénomènes auxquels on s'intéresse en turbulence ne se situent ni dans l'infiniment petit ni, en général, dans l'infiniment grand. Ces phénomènes sont parfaitement décrits par la mécanique de Newton, sans qu'il soit nécessaire de faire intervenir la mécanique quantique ou la mécanique relativiste, c'est-à-dire les idées modernes de la physique sur l'espace, le temps et la matière. Comme vous le voyez, la physique, dite « classique », celle qui est enseignée au lycée, comporte encore quelques grands mystères.

 

   VIDEO     canal U       LIEN   
 

 
 
 
 

CRYPTOGRAPHIE MULTIVARIABLE

 

 

 

 

 

 

 

Pierre Vandeginste dans mensuel 420
daté juin 2008 -

Depuis vingt ans, on parle de la cryptographie multivariable comme d'un candidat bien placé à la succession du plus utilisé des algorithmes de cryptage : RSA. Mais son histoire est jalonnée d'attaques. On l'a cru morte plusieurs fois, elle a toujours su rebondir. Affaiblie, elle réagit encore...

Pendant près de vingt ans, on a vu en elle un successeur potentiel du célèbre algorithme RSA, peut-être la solution d'avenir de la cryptologie, celle qui nous sauverait quand les physiciens auront mis au point leur ordinateur quantique. Malgré son nom difficile à porter, la cryptographie multivariable était promise à un glorieux futur. Mais aujourd'hui de plus en plus de spécialistes de la science du secret lui prédisent un horizon limité, voire plus d'avenir du tout ! Voici la chronique mouvementée, tout en hauts et bas, de cette approche du chiffrement.
Un tournant dans l'histoire de la cryptographie se situe en 1994 quand l'Américain Peter Shor, des laboratoires ATT, propose un algorithme capable de factoriser - c'est-à-dire de décomposer en facteurs premiers - un nombre entier en un temps très raisonnable à l'aide d'un ordinateur quantique [1]. Dès lors, le petit monde de la cryptologie comprend que le fameux algorithme RSA, le plus utilisé dans le domaine, n'est pas immortel. Car un élément essentiel de sa cuirasse est précisément la difficulté de factoriser. Et l'ordinateur quantique, croit-on, craint-on à tort ou à raison, finira bien par arriver.

Cette menace, même hypothétique, oblige les spécialistes à s'interroger sur ce que va devenir la cryptographie à clé publique. D'autant qu'elle ne sert pas seulement à chiffrer des messages, mais également à résoudre un autre problème classique en cryptographie, la signature numérique. Ici, il ne s'agit plus de brouiller un message pour préserver sa confiden-tialité, mais de permettre au destinataire de vérifier qu'il provient bien de l'émetteur indiqué. Le message est alors chiffré par ce dernier à l'aide de sa clé secrète et déchiffré avec sa clé publique par le destinataire. En associant une « fonction de hachage » qui fournit un « résumé » compact d'un document à transmettre à certains schémas de cryptographie à clé publique, on obtient un procédé de signature électronique efficace, et qui démontre en plus l'intégrité du message, sa non-altération.

Système d'équations
La cryptographie s'est rendue indispensable dans notre société numérique. On comprend alors l'urgence d'en savoir plus sur ce qui pourrait bien détruire l'édifice : c'est ainsi que la « Post quantum Cryptography » devient un thème de recherche à part entière et fait l'objet de workshops réputés.
Par quoi donc remplacer RSA, puisqu'il est menacé ? Parmi les solutions envisagées, une a longtemps été présentée comme la plus prometteuse : la cryptographie multivariable. De quoi s'agit-il ? Essentiellement, cette nouvelle façon de chiffrer repose sur la résolution d'un système comportant de nombreuses équations contenant un grand nombre de variables. Voici un exemple simple avec trois variables, trois équations du second degré quadratiques :
y1 = x1 x1 + x1 x3 + x2 x3 + x3 x3
y2 = x1 x2 + x2 x2 + x3 x3
y3 = x1 x1 + x1 x2 + x2 x3 + x3 x3
Les xi représentent le message à chiffrer. Il est facile de calculer les yi. Mais il est en revanche beaucoup plus difficile de retrouver les xi, à partir des yi. Dans la pratique, on utilise jusqu'à une centaine d'équations souvent quadratiques portant sur une centaine de variables souvent binaires.
Quels sont les avantages de la cryptographie multivariable ? Tout d'abord, aucun algorithme quantique n'a jamais été proposé pour la démolir. Ensuite, elle présente l'avantage, en théorie en tout cas, de reposer sur un problème dit « NP-complet » lire « Le "pire des cas" chez les mathématiciens », p. 32, une classe de problèmes mathématiques réputés les plus « coriaces ». Enfin, elle vient enrichir la palette des algorithmes de cryptographie : utile et nécessaire en raison de besoins très variés en la matière. Télévision cryptée, transmissions militaires, cartes à puce, sécurisation des transactions sur Internet et protection des mots de passe sur un disque dur..., autant d'applications disparates qui demandent à être satisfaites. On exige ici des clés compactes, là des temps de calcul infimes, ailleurs, les deux à la fois.

Puissance limitée
La cryptographie multivariable est bien adaptée aux situations où l'on dispose d'une puissance de calcul limitée. Elle est particulièrement efficace pour le chiffrement et la vérification de signature en particulier. Cela parce que ses algorithmes manipulent des « petits » objets, typiquement des nombres codés sur 100 bits, contre 1 000 pour RSA.
1988, congrès européen de cryptographie Eurocrypt. Deux Japonais, Tsutomu Matsumoto et Hideki Imai, proposent un premier schéma exploitant le principe de cryptographie multivariable, qui restera connu sous le nom « Matsumoto-Imai » MI, ou encore sous le sigle C*. Dans leur approche, le degré des équations est, comme dans notre exemple, limité à deux : on a donc parlé à ce sujet de cryptographie multivariable quadratique MQ. Le schéma MI utilise tout d'abord une fonction Y = FX = Xe dans un corps* fini. Dans un second temps, il « enferme » cette fonction entre deux applications linéaires changements de variables T et S. On obtient ainsi la fonction de chiffrement T o F o S, dans laquelle T et S sont secrètes.

« Huile et vinaigre »
Le schéma MI tient bon sept ans. Jusqu'à ce qu'une équipe française entre dans la danse ! Jacques Patarin, à l'époque chez Bull CP8 mais actuellement au laboratoire Prism de l'université de Versailles, casse en 1995 le schéma « Matsumoto-Imai » [2]. Son papier, présenté la même année à Crypto, le congrès mondial du domaine, fait sensation.
Est-ce là la fin de la cryptographie multivariable ? Pas vraiment. Car dans la foulée de sa cryptanalyse victorieuse, J. Patarin a proposé de nouveaux schémas de cryptographie multivariable. À Eurocrypt 96, le Français présente un algorithme qui s'éloigne, en la généralisant le monôme devient un polynôme, de la proposition de Matsumoto et d'Imai : HFE « Hidden Field Equations ». Une approche particulièrement économe en temps de calcul... J. Patarin détient depuis lors un brevet sur HFE, qui a déjà subi de nombreuses attaques, mais qui résiste pour le moment.
Le chercheur poursuit en 1997 en proposant un algorithme de signature, très proche du schéma « Matsumoto-Imai ». Il le nomme « Oil and Vinegar » OV. Cela parce qu'il sépare les variables de son système d'équations en deux variétés : les hi pour « huile » et les vi pour « vinaigre ». Les équations OV comportent des produits « vinaigre »-« vinaigre » et « huile »-« vinaigre », mais pas de « huile »-« huile »...
Mais « Oil and Vinegar » va chuter. Au congrès Crypto 98, il est « cassé » par les Israéliens Adi Shamir et Aviad Kipnis. J. Patarin le répare aussitôt pour obtenir « Unbalanced Oil and Vinegar » avec cette fois beaucoup plus de variables « vinaigre » que d'« huile », qu'il publiera d'ailleurs avec Louis Goubin et Aviad Kipnis en 1999.

Deux ans plus tard, s'appuyant sur HFE, J. Patarin publie « SFLASH [3] », avec Nicolas Courtois et Louis Goubin, de l'université de Versailles. Il s'agit d'un algorithme de signature numérique très convaincant, notamment parce qu'il est remarquablement économe en puissance de calcul. Il connaîtra un vrai succès d'estime. La crédibilité de la cryptographie multivariable s'en trouve requinquée. L'initiative européenne « Nessie », visant à homologuer un certain nombre d'outils de cryptographie réputés fiables, étudie la candidature de SFLASH et finit par le sélectionner en 2003. L'une de ses grandes qualités : la puissance de calcul requise est aussi raisonnable pour calculer la signature que pour la vérifier, ce qui en fait une bonne solution pour les cartes à puce les moins chères. La cryptographie multivariable semble avoir enfin réussi à s'imposer, au moins dans cette niche de la signature dite « spartiate ».

Pression croissante
Un contretemps, pourtant, manque de gâcher la fête. Henri Gilbert, de France Télécom, a en effet publié lors d'Eurocrypt 2002 une attaque contre SFLASH. Celle-ci ne remet pas en question les fondements de l'algorithme mais oblige à réviser ses paramètres. Le « prix à payer » pour la grande rapidité de calcul de SFLASH est, à la base, la taille des clés publiques nécessaires. Elles sont en effet plus longues que celles de RSA qui font 1 024 bits : un sérieux inconvénient dans un environnement « spartiate » de carte à puce. Dans le SFLASH original, la clé avait été fixée à 2,2 kilo-octets. Pour contrer l'attaque, J. Patarin publie un SFLASH v2 dont la clé publique est portée à 15,4 kilo-octets. Grâce à quoi cette solution retrouve un niveau de sécurité appréciable. Il publiera même en 2003 une troisième version, SFLASH v3, dont la clé publique est portée à 112 kilo-octets. C'est un peu lourd pour une carte à puce économique actuelle, mais cela peut être acceptable pour une future génération de cartes. En tout cas, si la v2 venait à être menacée, la réponse serait prête.
2003, congrès Crypto, nouvelle attaque contre la cryptographie multivariable. Un assaut sur HFE, jugé sévère, est porté par les Français Jean-Charles Faugère et Antoine Joux. Le climat s'alourdit.
En 2005, encore un coup dur. Cette fois, l'attaque est lancée contre le schéma PMI « Perturbated Matsumoto-Imai », variation du thème lancé par Matsumoto et Imai. PMI a été introduit un an plus tôt par Jintai Ding, de l'université de Cincinnati. Dans le rôle des casseurs, une équipe de l'École normale supérieure ENS, dirigée par Jacques Stern avec Pierre-Alain Fouque et Louis Granboulan. Elle a adopté une stratégie d'attaque, dénommée « cryptanalyse différentielle ».
C'est presque la même équipe Vivien Dubois, P.-A. Fouque et J. Stern de l'ENS qui s'attaque ensuite à un SFLASH affaibli par des « paramètres modifiés ». Il s'agit là d'une démarche classique en cryptanalyse que de s'en prendre, dans un premier temps, à une version dégradée du schéma que l'on veut casser. Et ça marche ! Une première publication est acceptée pour Eurocrypt 2007 [4]. SFLASH est en train de tomber de son piédestal.
De passage à l'ENS, Adi Shamir le « S » de RSA, l'un des papes du domaine s'intéresse au sujet. Après avoir étudié les résultats obtenus, il estime que l'approche employée devrait également faire chuter SFLASH dans sa version normale. Peu de temps après, J. Stern trouve le point faible. Et fin novembre 2006, SFLASH lui-même est cassé. La technique employée démolit aussi bien les deux premières versions que la fameuse v3 qui devait prolonger l'existence du schéma. Ce travail va évidemment faire beaucoup de bruit à Crypto 2007

[5].

HFE résiste
« S'il n'y avait pas eu le précédent de PMI, nous n'aurions sans doute jamais songé à attaquer SFLASH, estime P.-A. Fouque. Ce premier succès aura servi de marchepied. Notre Graal, c'est désormais l'attaque contre HFE, qui résiste encore, malgré quelques assauts qui ont obligé à modifier ses paramètres. Il est déjà évident que certaines clés HFE sont faibles... »
Peut-on aller jusqu'à dire que la cryptographie multivariable est désormais « finie » ? Attention à ne pas jeter le bébé avec l'eau du bain... P.-A. Fouque admet qu'elle a « du plomb dans l'aile », mais, dans le même temps, estime qu'elle reste « très intéressante ». J. Patarin est, quant à lui, plus optimiste sur la survie de cette approche : « Adi Shamir pense que la base de la cryptographie multivariable est saine. Il essaie de casser HFE depuis un an, sans succès. »
Et si elle résiste à ce demi-dieu de la cryptographie... L'équipe de J. Patarin présentera bientôt à Pékin un nouveau schéma multivariable sur lequel il fonde de grands espoirs. Il n'en dit pas grand-chose, sauf le nom, qui fait saliver : « barre de chocolat ».

En deux mots À la fin des années 1980, deux Japonais proposent un type de cryptographie à clé publique, prometteur car efficace et peu gourmand en calculs. D'autres s'en inspirent, notamment en France, où est conçu un algorithme de signature numérique, SFLASH, qui connaîtra son heure de gloire. Mais la robustesse de ce que l'on appelle la cryptographie multivariable pose question. Elle n'a cessé de subir les assauts des cryptanalystes, ces « casseurs » de codes, et a fini par céder du terrain. Il reste aujourd'hui quelques algorithmes notamment celui dévoué au chiffrement, HFE, qui résiste tant bien que mal depuis une douzaine d'années.

[1] P. Shor, Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer, FOCS'94, IEEE, 1994. Révision : arXiv:quant-ph/9508027v2.
[2] J. Patarin, Crypto'95, p. 248, Springer-Verlag, 1995.
[3] J. Patarin et al., CT-RSA 2001, LNCS 2020, p. 298, Springer-Verlag, 2001.
[4] V. Dubois et al., LNCS 4515, p. 264, Springer-Verlag, 2007.
[5] V. Dubois et al., Crypto'07, LNCS 4622, p. 1, Springer-Verlag, 2007.

NOTES
*Un corps est un ensemble muni de deux lois de composition respectant un certain nombre de critères.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE

 

Course effrénée à l’intelligence artificielle
Juin 2016
Toujours plus puissants et plus « intelligents », les ordinateurs ne se réduisent plus à la simple exécution de tâches répétitives. Devenus irremplaçables dans les calculs et les opérations logiques, le traitement et la transmission d’informations,  la manipulation d’images, le pilotage de robots… ils sont aujourd’hui capables d’apprendre par eux-mêmes grâce à des réseaux de neurones artificiels calqués sur le cerveau humain.

Qu’est-ce que l’intelligence artificielle ?
L’intelligence artificielle (IA) est une discipline scientifique dont le but est de faire faire par une machine des tâches que l'homme accomplit en utilisant son intelligence.

Cette discipline est née en 1956 avec les travaux du mathématicien Alan Turing, qui s’intéressa à la « conscience » des machines. Il pensait que celles-ci seraient un jour capables de nous imiter (nous, les humains) et de dialoguer avec nous. Il était entre autre persuadé qu’un programme d’échecs serait capable de battre un champion du monde. Sa prophétie se réalisa en 1997 lorsque Kasparov fut battu par Deep Blue.

À l’origine des travaux de recherche, l’intelligence artificielle se fonde sur :

les mathématiques ;
les algorithmes, c’est-à-dire les programmes qu’un ordinateur exécute grâce à des langages de programmation ;
la sémantique, c’est-à-dire l’étude du langage et du sens des mots.

Depuis quelques années, l’IA puise de nouvelles sources d'inspiration dans le fonctionnement du cerveau humain. Le laboratoire  Google X, travaille sur les réseaux neuronaux artificiels profonds. Les chercheurs ont mis en place un réseau de plusieurs millions de neurones artificiels connectés à des milliers de processeurs, qui permet aux machines d’apprendre en partie par elles-mêmes.

Avec cette nouvelle capacité qu’ont les machines, l’avancement de l’IA progresse très rapidement. Les ordinateurs étaient capables :

de résoudre des problèmes mathématiques ;
d’analyser des données en vue de les modéliser : cartes météo, par exemple ;
de raisonner de manière logique : exemple des jeux de stratégie.
Ils peuvent désormais :

traduire des langues de manière automatique ;
reconnaître une voix : exemple des assistants vocaux comme Siri ou Cortana ;
comprendre la parole et le langage naturel, avec l'exemple des logiciels de dictée vocale : je parle et l’ordinateur écrit ce que je dis ;
reconnaître les formes, les visages, les images ;
acquérir des connaissances et apprendre par l’expérience : le système apprend par lui-même et progresse en permanence, exemple du robot Icub.

L’apprentissage en profondeur
L'objectif des chercheurs et des entreprises qui travaillent sur l’intelligence artificielle est que les logiciels puissent un jour comprendre toutes les données qu’un humain peut traiter. Il s'agit aussi bien de ce que l'humain perçoit (grâce aux informations que nos sens nous fournissent), que de la compréhension des données et du raisonnement.

Déjà, les assistants personnels intelligents - tels Siri, Cortana ou Google now - se pilotent et obéissent à la voix une fois que certaines informations nous concernant ont été entrées dans leur mémoire. Ils rendent des services pour gérer un agenda, créer des rappels, dicter un sms ou une recherche à effectuer sur le Web, lancer un itinéraire, trouver l’adresse d’un restaurant et répondre même à certaines questions. Siri est ainsi capable d’identifier un morceau de musique  et de nous donner son titre et le nom de son interprète grâce à son moteur de reconnaissance musicale.

Le géant américain Google dispose de milliards de données collectées par ses robots qui analysent en permanence les innombrables bases qui stockent des pages Web, des livres numérisés, des images et des vidéos ; celui lui permet, avec son projet "Google Brain", de poursuivre le développement d’une intelligence artificielle fondée sur l’apprentissage en profondeur des machines.

À l’instar du cerveau humain qui apprend à reconnaître une image et sait distinguer un chat d’un chien, ou sait faire la différence entre un « sot », un « seau » et un « saut »,  l’objectif de ce projet de recherche est d’améliorer la compréhension des machines pour que nous puissions un jour dialoguer avec elles en langage « naturel ». 


Zoom sur quelques projets de recherche en intelligence artificielle
Les machines sont aujourd’hui plus performantes que nous pour raisonner de manière logique : preuve en est le programme AlphaGo de Google qui a remporté 4 parties sur 5 contre un des meilleurs joueurs mondiaux de go en mars dernier. Cette victoire montre la puissance et la capacité d’apprentissage des programmes d’IA car le jeu de go propose un nombre incommensurable de combinaisons à explorer pour trouver la meilleure tactique.

Par ailleurs, le programme d’IA Deep Dream du même géant américain a pour but d’apprendre aux machines à générer de l’art et à développer la créativité des machines. On « nourrit » leur mémoire de milliards d’images pour leur apprendre à classifier des formes, des motifs, des couleurs. Une fois entraîné, le réseau de neurones est capable d’analyser et de distinguer des formes dans une image, puis par association de formes, il peut trouver des images similaires : lorsqu’on lui montre l’image d’un ciel avec des nuages, Deep Dream peut y voir des oiseaux, des anges, des arbres, des palais, et toute sorte d’images issues de l’imaginaire humain. Le programme imite ainsi notre capacité à reconnaître des visages, des corps ou des animaux dans des formes.


La Géode vue par le générateur Deep Dream
Depuis que le code source du projet est à disposition des développeurs, des milliers d’images ont été soumises à Deep Dream, qui a généré des images loufoques et psychédéliques, bourrées de têtes de chiens ou d’animaux étranges. Ces images produites par des machines font même l’objet d’un mouvement artistique appelé « inceptionisme » ! Ces machines, aussi intelligentes soient-elles, ne sont pourtant pas des artistes : les productions qu’elles génèrent sont issues de programmes et non pas de leur imagination et de leur sensibilité.

Il est clair que l’intelligence artificielle n’en est qu’à ces balbutiements et n’a pas fini de nous ébahir. Elle peut nous rendre bien des services et nous aider à vivre mieux. Mais gardons toujours à l’esprit qu’une intelligence froide et sans conscience peut nous conduire à notre perte. Alors, servons-nous de notre intelligence d’humain et  prenons le temps de cogiter la formule de Rabelais : « Science sans conscience n’est que ruine de l’âme ».

 

DOCUMENT       cite-sciences.fr        LIEN

 
 
 
 

LES FLUIDES PERDENT LA MÉMOIRE

 


MATHÉMATIQUES
Les fluides perdent la mémoire


mathématiques - par Propos recueillis par Philippe Pajot dans mensuel n°454 daté juillet 2011 à la page 18 (592 mots) | Gratuit
L'étude statistique des fluides nécessite que les systèmes étudiés ne dépendent pas de leur état initial. Cette hypothèse est maintenant justifiée mathématiquement sur plusieurs équations utilisées par les physiciens pour décrire des systèmes réels.

Qu'est ce que l'hypothèse ergodique ?

M.H. Imaginée par Ludwig Boltzmann à la fin du XIXe siècle pour les besoins de la physique statistique naissante, cette hypothèse stipule que, dans un gaz que l'on laisse évoluer, l'état observé après un temps suffisamment long ne dépend pas de l'état de départ. Autrement dit, un système ergodique perd la mémoire de sa condition initiale. Mathématiquement, cela revient à remplacer les moyennes temporelles par des moyennes d'ensemble.

Cette hypothèse est-elle importante en physique ?

M.H. Elle est fondamentale lorsque l'on souhaite décrire statistiquement un système physique, et pas seulement les gaz. Partant d'un système dans un état précis et qui évolue de manière plus ou moins déterministe, l'hypothèse ergodique permet de le décrire de manière statistique, en termes d'évolution de probabilités de l'état du système. Les physiciens font souvent cette hypothèse de manière implicite, mais sans justification mathématique. Nos travaux ont apporté cette justification dans plusieurs domaines, notamment des situations de transition de phase dans des alliages.

À quels systèmes vous êtes-vous intéressé ?

M.H. Nous avons d'abord voulu justifier cette hypothèse fondamentale dans un modèle simplifié de turbulence dans un fluide. Partant d'un fluide où l'on injectait de l'énergie à une longueur fixe de manière stationnaire - comme si on le remuait avec une cuillère de taille donnée -, nous voulions vérifier à quelle condition le système était ergodique. Pour cela, nous avons étudié la turbulence à l'aide de l'équation de Navier-Stokes, l'équation de base qui décrit le mouvement d'un fluide. Il s'agit d'une équation dissipative que nous avons restreint à la géométrie la plus simple que l'on puisse imaginer : le fluide est confiné à la surface d'un tore un tore est équivalent à un rectangle dont les bords sont joints deux à deux.

Qu'avez-vous démontré ?

M.H. Nous avons pu démontrer, ce qu'on suspectait depuis longtemps, que de manière générique, le système est ergodique [1] .

La seule situation où l'ergodicité disparaît, c'est lorsque l'injection d'énergie le « forçage » est périodique avec une période plus petite que la taille du système. Ce résultat, publié en 2006, a été bien reçu, d'autant que, dans la communauté qui travaille sur les équations aux dérivées partielles stochastiques, d'autres groupes essayaient de l'obtenir.

Qu'est-ce qui vous a permis de débloquer la situation ?

M.H. Il nous fallait notamment comprendre comment la force qui maintient le système dans un état turbulent se transmet dans tout le système. La difficulté est qu'on a une évolution dans un espace de dimension infinie l'espace de fonction de l'équation et qu'en mélangeant on introduit du hasard dans un nombre fini de directions. Nous avons donc dû comprendre comment cet aléa se transmet aux autres directions et établir mathématiquement le critère d'ergodicité lire « Équations dissipatives », ci-dessus.

À quels autres systèmes avez-vous étendu ce résultat ?

M.H. D'abord à la sphère, et à des géométries différentes. Puis nous avons montré que d'autres équations aux dérivées partielles dissipatives sont ergodiques. Récemment, nous y sommes parvenus pour les équations d'Allen-Cahn, qui décrivent la dynamique des transitions de phase dans les alliages métalliques [2] . En revanche, il n'est pas question d'attaquer les équations de Navier-Stokes tridimensionnelles, car ces équations sont si mal connues qu'on ignore même si leur solution est unique. C'est l'un des « problèmes du millénaire », pour la résolution desquels l'institut Clay a promis un million de dollars.

Par Propos recueillis par Philippe Pajot

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google