ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

UN SUPERCONDENSATEUR

 

Paris, 17 février 2013


Explorer la structure d'un supercondensateur… et l'améliorer !


En freinant, le bus le recharge et à l'arrêt, il peut fournir l'électricité permettant d'ouvrir les portes du bus : voilà une des utilisations du supercondensateur ! Bien qu'utilisé dans la vie courante, cet appareil de stockage de l'électricité a une organisation et un fonctionnement moléculaires qui n'avaient jamais été observés jusqu'à aujourd'hui. Des chercheurs du CNRS et de l'Université d'Orléans ont exploré pour la première fois les réarrangements moléculaires à l'œuvre dans des supercondensateurs commerciaux en fonctionnement. Le procédé imaginé par les scientifiques offre une nouvelle clé pour optimiser et améliorer les supercondensateurs du futur. Ces résultats sont publiés le 17 février 2013 sur le site de la revue Nature Materials.
Les supercondensateurs sont des appareils de stockage de l'électricité différents des batteries. Contrairement à ces dernières, leur charge est beaucoup plus rapide (le plus souvent en quelques secondes) et ils ne subissent pas d'usures aussi rapides liées aux charges/décharges. En revanche, à taille égale et bien qu'offrant une plus grande puissance, ils ne peuvent pas stocker autant d'énergie électrique que les batteries (les supercondensateurs à base de carbone fournissent une densité d'énergie d'environ 5 Wh/Kg et les batteries lithium-ion de l'ordre de 100 Wh/kg). On retrouve les supercondensateurs dans la récupération de l'énergie de freinage de nombreux véhicules (voitures, bus, trains), ou encore pour assurer l'ouverture d'urgence de l'avion A380.

Un supercondensateur stocke l'électricité grâce à l'interaction entre des électrodes en carbone nanoporeux et des ions, porteurs des charges positives et négatives, qui se déplacent dans un liquide appelé électrolyte (voir schéma explicatif ci-dessous). Lors de la charge, les anions (ions chargés négativement) sont remplacés par des cations (ions chargés positivement) dans l'électrode négative et inversement. Plus cet échange est important et plus la surface de carbone disponible est élevée, plus la capacité du supercondensateur grandit.

Grâce à la spectroscopie par Résonance magnétique nucléaire (RMN), les chercheurs sont allés plus loin dans cette description et chose unique, ils ont pu quantifier dans quelle proportion se font les échanges de charges sur deux supercondensateurs utilisant des carbones commerciaux. En comparant deux carbones nanoporeux, ils ont pu ainsi mettre en avant que le supercondensateur comportant le carbone avec une structure la plus désordonnée offrait une meilleure capacité et une meilleure tolérance aux tensions les plus élevées. Ceci serait dû à une meilleure répartition des charges électroniques au contact des molécules de l'électrolyte.

Ces résultats sont le fruit de la collaboration de deux équipes orléanaises : l'une au CEMHTI1 du CNRS, spécialiste de la RMN et membre du Réseau français sur le stockage électrochimique de l'énergie (www.energie-rs2e.com), l'autre au Centre de recherche sur la matière divisée (CNRS/Université d'Orléans), qui est centrée sur l'étude de nouveaux matériaux carbonés pour les supercondensateurs. Cette complémentarité permet aujourd'hui la mise au point d'une technique qui offre tant aux laboratoires de recherche qu'aux entreprises un véritable outil pour l'optimisation des matériaux du supercondensateur.

 

DOCUMENT              CNRS                LIEN

 
 
 
 

UN SUPERCOURANT À TRAVERS UN ATOME

 

Paris, 17 juillet 2013


Du supercourant à travers un atome


Un supercourant peut traverser un contact constitué d'un seul atome entre deux électrodes supraconductrices. Une expérience de spectroscopie, réalisée par le Service de physique de l'état condensé (CEA/CNRS), a mis en évidence les états quantiques électroniques qui transportent ce supercourant. L'expérience, d'une portée générique pour l'électronique supraconductrice, est décrite dans la revue Nature du 18 juillet.

 

DOCUMENT                  CNRS                LIEN

 
 
 
 

LES DELs

 

Paris, 25 avril 2013


Pourquoi les DELs perdent leur efficacité lumineuse lorsque l'intensité du courant augmente


Le mystère de la diminution du rendement des diodes électro-luminescentes (DELs) vient d'être résolu par une équipe du Laboratoire de physique de la matière condensée (CNRS/ École polytechnique), en collaboration avec l'Université de Californie à Santa Barbara. Ce phénomène constitue un verrou limitant l'expansion de ces sources de lumière efficaces et économes en énergie. L'équipe franco-américaine vient de montrer que dans une DEL, l'énergie électrique ne sert pas uniquement à émettre de la lumière, mais qu'elle contribue également à exciter des électrons dans la matière. Ces travaux, publiés le 25 avril 2013 dans la revue Physical Review Letters, pourraient permettre de contrer cet effet pour obtenir des DELs plus performantes, fournissant une intensité lumineuse beaucoup plus importante.
L'efficacité d'une DEL correspond à son rendement de transformation de l'énergie électrique en lumière. Or, les chercheurs savent que, lorsque l'intensité du courant qui traverse la DEL dépasse un certain seuil, son efficacité diminue. De ce fait, pour maintenir un rendement élevé, les DELs fabriquées commercialement fonctionnent à des densités de courant relativement faibles. Elles sont, par conséquent, à l'unité, moins intenses que d'autres sources de lumière pourtant moins efficaces, comme les lampes à incandescence. Pour obtenir des intensités lumineuses fortes, les industriels doivent accumuler les DELs dans chaque lampe, ce qui augmente considérablement les coûts. Le phénomène de diminution de l'efficacité des DELs constitue donc un frein important à leur expansion dans des domaines tels que l'illumination d'environnements industriels.  

Lorsqu'un courant électrique traverse une DEL, des paires électron-trou1 sont injectées dans la structure. Des photons sont émis lorsqu'une paire électron-trou se recombine et cède son énergie en émettant de la lumière. C'est ainsi que s'opère la conversion de l'énergie électrique en lumière, dont malheureusement  l'efficacité diminue lorsque l'intensité du courant dépasse un certain seuil. Cette baisse était connue depuis 1999, mais son origine demeurait incertaine. L'équipe franco-américaine vient de montrer de façon directe que l'effet Auger est le principal responsable de cette diminution.

L'effet Auger se manifeste lorsque la densité d'électrons traversant le semi-conducteur est grande. Alors, une paire électron-trou peut ne pas se recombiner en émettant un photon, mais en excitant un deuxième électron sous forme d'énergie cinétique. Ce dernier est appelé électron Auger. Son énergie excédentaire est dissipée sous forme de chaleur. Pour observer l'effet Auger, les chercheurs ont fait passer un courant dans une DEL, puis mesuré l'énergie des électrons après leur émission dans le vide. Ils ont ainsi observé des pics d'électrons à énergie élevée qui apparaissent dès que le seuil de diminution d'efficacité d'émission lumineuse de la DEL est atteint et dépassé. Ces électrons énergétiques correspondent aux électrons Auger. Cette expérience rappelle celle de Heinrich Hertz en 1887 menant à la découverte de l'effet photoélectrique, effet expliqué en 1905 par Einstein par la quantification de la lumière sous forme de quanta de lumière, les photons.

Cette première preuve expérimentale de l'effet Auger dans une diode électroluminescente devrait lancer les recherches pour tenter d'enrayer ce phénomène et éviter la diminution de l'efficacité des DELs. Ceci devrait permettre d'obtenir des DELs beaucoup plus lumineuses, capables de remplacer toutes les sources de lumière des environnements commerciaux et industriels, y compris les tubes néon. L'enjeu est considérable, puisque l'on pourrait ainsi économiser environ 50% de l'électricité utilisée pour l'éclairage, secteur qui représente entre 15 et 22% de la consommation électrique totale suivant les pays.

 

DOCUMENT              CNRS              LIEN

 
 
 
 

LA RÉVOLUTION NUMÉRIQUE

 

Texte de la 170e conférence de l’Université de tous les savoirs donnée le 18 juin 2000.



Les ondelettes et la révolution numérique
par Yves Meyer


La mode des ondelettes
Les ondelettes sont à la mode et c'est pourquoi on m'a demandé d'en parler à l’Université de tous les savoirs.
Les ondelettes sont à la mode, car elles sont utilisées dans les « nouvelles technologies » (multimédia, nouveau standard de compression des images numériques, etc.). Nous y reviendrons.
La mode des ondelettes est un phénomène international. En ouvrant le dernier numéro (mai 2000) des Notices of the American Mathematical Society, on y découvre, à la page 571, Ingrid Daubechies, recevant un prix pour ses travaux sur les ondelettes et, à la page 570, Ronald Coifman décoré par le Président Clinton pour ses contributions à l'analyse par ondelettes.
Les ondelettes sont à la mode, comme l'ont été le chaos, les fractales, la théorie des catastrophes. Dans tous ces exemples, les recherches sont motivées par certains phénomènes complexes, que l'on observe réellement dans la nature, et qu'il s'agit d'étudier et d'analyser.
Ici nous opposons volontairement « nature » à « laboratoire ». Prigogine écrit dans Les lois du chaos : « Ce qui nous intéresse aujourd'hui, ce n'est pas nécessairement ce que nous pouvons prévoir avec certitude. La physique classique s'intéressait avant tout aux horloges, la physique d'aujourd'hui plutôt aux nuages. »
La physique dont parle Ilya Prigogine a pour finalité d'élucider les phénomènes naturels. Benoît Mandelbrot dit à peu près la même chose : « Le monde qui nous entoure est très complexe. Les instruments dont nous disposons pour le décrire sont limités ». Les formes des nuages conduiront Mandelbrot aux fractales.
Le mathématicien René Thom se propose d'explorer la morphogenèse, l'apparition de formes ou celle d'évènements imprévus à l'aide de la « théorie des catastrophes ». Certains chercheurs pensent que cette théorie est aussi utile à la linguistique qu'à l'étude de l'apparition des révoltes dans les prisons.
David Ruelle a, en un sens, été l'auteur de la « théorie du chaos déterministe » qu'il applique, avec succès, à l'étude de la turbulence, autre phénomène naturel très mal compris. La turbulence concerne l'apparition des tourbillons dans l'écoulement d'un fluide ou celle des tornades dans l'écoulement atmosphérique.
Ces mêmes remarques conviennent aux ondelettes. La « théorie des ondelettes » est elle aussi motivée par l'étude des phénomènes naturels. Les motivations concernent le signal de parole, la musique, l'image, les processus de la vision humaine, etc.
Le succès de ces théories auprès du grand public vient de ce qu'elles étudient la complexité du monde familier qui nous entoure : elles nous parlent du temps, de l'espace, de la causalité, de l'avenir effrayant et imprévisible, des formes des nuages, de la structure des langues et de tant d'autres choses qui nous touchent.
Le chercheur n'est plus retranché dans sa tour d'ivoire où, solitaire, il se penchait sur des artefacts qu'il avait lui-même créés. Certains scientifiques, comme Pierre-Gilles de Gennes, se félicitent de cette évolution de la science vers des choses immédiates, simples en apparence, mais fort complexes au demeurant.
Cependant ces quatre théories (ondelettes, chaos, etc.) n'ont pas une bonne réputation auprès de certains scientifiques , car elles parlent davantage la langue de la poésie que celle de la science. Nous retrouverons cependant cette langue de la poésie ou même de la prophétie dans le programme scientifique de Joseph Fourier, décrit plus loin. On objecte aussi que ces théories ouvrent des perspectives trop étendues et, que, le plus souvent, les schémas intellectuels qu'elles suggèrent ne dépendent pas du contexte scientifique et sont les mêmes pour toutes les disciplines, ce qui paraît suspect. En outre, beaucoup de travaux utilisant ces nouveaux schémas sont de qualité très moyenne.
David Ruelle écrit dans Hasard et Chaos : « Revenons au succès qu'a eu la théorie du chaos. Ce succès a été bénéfique pour les mathématiques où la théorie des systèmes dynamiques a profit des idées nouvelles sans dégradation de l'atmosphère de la recherche (la difficulté technique des mathématiques rend la tricherie difficile). En physique du chaos, malheureusement, le succès a été de pair avec un déclin de la production de résultats intéressants, et cela malgré les annonces triomphalistes de résultats fracassants ».
Ces remarques s'appliquent aux ondelettes. Alors le chercheur se méfie. Il se méfie des constructions intellectuelles dont le propos est de tout expliquer. Il se méfie des ondelettes. Tout cela devient fort inquiétant, il faut en savoir plus et nous sommes amenés à nous poser les quatre questions suivantes sur le statut des ondelettes :
- Les ondelettes sont-elles une invention pratique, comme celle de la roue ? (Il n'y a évidemment pas de science de la roue, mais, depuis qu'elle a été inventée, son usage n'a jamais cessé.)
- Les ondelettes sont-elles une théorie ? Si c'est le cas, à quel secteur scientifique cette théorie appartient-elle ? Comment la théorie des ondelettes peut-elle être vérifiée ou infirmée ?
- Une troisième possibilité existe. Le succès des ondelettes serait, comme celui des fractales et du chaos, dû à un malentendu. Par un effet pernicieux de la vulgarisation, un outil scientifique dont l'usage devrait être limité à un certain contexte est mis « à toutes les sauces ». Doit-on parler d'imposture ?
- En sens inverse, certains succès obtenus par les ondelettes illustreraient-ils ce que les anglo-saxons appellent la « fertilisation croisée » ?
Quelques mots d'explication : il arrive que certains secteurs de la science moderne soient fécondés par des greffes de méthodes ou de concepts provenant d'une discipline différente. Par exemple, la vitesse issue de la mécanique est devenue la « dérivée » des mathématiciens et sert aujourd'hui à étudier toute modification d'un phénomène dépendant d'un ou de plusieurs paramètres. Il n'y a ici aucune supercherie.
Ces problèmes étant posés, nous allons essayer de les résoudre en utilisant une approche historique. Les travaux contemporains sur les ondelettes sont, en fait, issus de trois programmes scientifiques. En analysant ces programmes, nous aurons la surprise d'y découvrir cette même ambition d'aborder tous les savoirs que certains critiquent dans la « théorie des ondelettes ». On y trouve les mêmes enjeux, les mêmes défis et les mêmes risques d'imposture que dans les quatre théories précédentes.
Nous remonterons d'abord à Joseph Fourier. Il a proposé un programme scientifique interdisciplinaire que nous analyserons de façon détaillée dans la section suivante.
Nous examinerons ensuite le programme de l’Institute for the Unity of Science. Aussi prophétique que celui de Fourier et encore plus ambitieux, ce programme englobait ce qui s'appelle aujourd'hui les sciences cognitives et a conduit à la conception, puis la construction, des premiers ordinateurs. La réflexion théorique a précédé la technique !
Nous en viendrons enfin au remue-ménage déclenché par Jean Morlet. En 1981, alors qu'il était encore ingénieur de recherche chez Elf-Aquitaine, il a proposé les ondelettes « temps-échelle » comme un outil permettant de mieux analyser certains signaux sismiques.
L'étude des chemins qui ont conduit, à travers l'histoire, aux travaux contemporains nous permettra de répondre enfin aux quatre questions que nous avions posées. Ce sera notre conclusion.
Le programme de Fourier
Il importe de débuter par le programme de Fourier, car la découverte des ondelettes se situe dans la logique même de ce texte visionnaire.
En 1821, il y a presque deux siècles, Joseph Fourier écrivait dans son célèbre Discours préliminaire :
« L'étude approfondie de la nature est la source la plus féconde des découvertes mathématiques. Non seulement cette étude, en offrant aux recherches un but déterminé, a l'avantage d'exclure les questions vagues et les calculs sans issue : elle est encore un moyen de former l'analyse elle-même, et d'en découvrir les éléments qu'il nous importe le plus de connaître...
Considérée sous ce point de vue, l'Analyse mathématique est aussi étendue que la nature elle-même ; elle mesure le temps, les forces, les températures... Son attribut principal est la clarté ; elle n'a point de signes pour exprimer les notions confuses. Elle rapproche les phénomènes les plus divers et découvre les analogies les plus secrètes qui les unissent.
Si la matière nous échappe, comme celle de l'air et de la lumière par son extrême ténuité, si les corps sont placés loin de nous, dans l'immensité de l'espace, si l'homme veut connaître le spectacle des cieux pour des époques successives que séparent un grand nombre de siècles, si les actions de la gravité et de la chaleur s'exercent dans l'intérieur du globe solide à des profondeurs qui seront toujours inaccessibles, l'Analyse mathématique peut encore saisir les lois de ces phénomènes. Elle nous les rend présents et mesurables, et semble être une faculté de la raison humaine destinée à suppléer à la brièveté de la vie et à l'imperfection des sens ; et, ce qui est plus remarquable encore, elle suit la même marche dans l' étude de tous les phénomènes ; elle les interprète par le même langage, comme pour attester l'unité et la simplicité du plan de l'Univers, et rendre plus manifeste cet ordre immuable qui préside à toutes les causes naturelles. »
Il faut observer que Fourier donne aux mathématiques un rôle très original. Loin de placer les mathématiques au-dessus des autres sciences, il demande, au contraire, que la recherche en mathématique soit nourrie par des problèmes scientifiques. Cette position s'oppose à celle de Richard Dedekind, reprise par Jean Dieudonné, où les mathématiques sont isolées des autres sciences et étudiées pour « l'honneur de l'esprit humain ».
Un des usages les mieux connus de l'analyse de Fourier est l'analyse et la synthèse des sons, à l'aide des sons purs. Un son est caractérisé par sa hauteur, son intensité et son timbre. L'utilisation des séries de Fourier permet de décomposer les sons en sons purs et, ce faisant, d'en déterminer et calculer les caractéristiques. Le timbre d'un son est caractérisé par l'intensité relative de ses harmoniques. Le rôle de l'analyse de Fourier est de déterminer ces harmoniques et, pour cette raison, l'analyse de Fourier est souvent appelée analyse harmonique.
Ces sons purs sont définis à l'aide d'un seul paramètre, à savoir la fréquence. Ce sont des vibrations parfaites, éternelles, sans début ni fin, émises depuis l'origine des temps et qui dureront toujours. Si l'on admet les formules de Fourier, exactes pour le mathématicien, mais contestables pour l'acousticien, alors les commencements et les interruptions des sons que l'on entend seraient dus à des interférences destructives, créant le silence à partir d'une opposition exacte de phases.
On pourrait représenter l'analyse de Fourier comme un orchestre idéal dont chaque instrumentiste jouerait indéfiniment la même note ; le silence serait alors obtenu par des sons qui s'annuleraient exactement les uns les autres et non par l'absence de son. Bien entendu, ce n'est pas ainsi qu'un orchestre joue ou cesse de jouer et la variable temporelle doit avoir un rôle beaucoup plus actif et dynamique.
Cette décomposition des sons en sons purs est donc imparfaite, car elle ne rend pas compte, dans le cas de la musique, des sons complexes produits par l'attaque de l'instrument, par la recherche de la note et, plus généralement, elle est inadaptée à l'étude des sons transitoires et des bruits divers. L'analyse de Fourier n'est réellement efficace que si elle est limitée à l'étude des phénomènes périodiques ou, plus généralement, stationnaires.
C'est pour prendre en compte d'autres phénomènes qui ne sont pas stationnaires et, plus particulièrement, des phénomènes transitoires que l'analyse de Fourier a été modifiée, améliorée et c'est ainsi que les ondelettes « temps-fréquence » sont nées.
Elles s'opposent aux ondes parce qu'elles ont, comme les notes d'une partition de musique, un début et une fin. L'analyse par ondelettes a donc pour modèle la partition musicale où la durée des notes est indiquée en même temps que leur hauteur. Mais l'analyse par ondelettes a pour ambition d'être une description exacte et non symbolique de la réalité sonore. En ce sens elle est plus proche du disque compact audio que de la partition car la synthèse qui fait partie de l'analyse par ondelettes est automatique et n'a pas besoin d'être interprétée.
Les ondelettes qui conviennent au signal audio avaient été recherchées, dès 1945, par Léon Brillouin, Dennis Gabor et John von Neumann et nous reviendrons sur ces recherches dans la section suivante. Mais ces pionniers avaient fait des choix arbitraires, basés sur des a priori contestables. Les ondelettes de Gabor ou « gaborettes » sont des signaux ondulatoires (c'est-à-dire des cosinus ou sinus), amplifiés ou atténués par une enveloppe gaussienne. On les déplace par des translations qui sont adaptées aux fréquences utilisées. Si l'on utilise seulement des fréquences entières, en progression arithmétique, alors les translations doivent nécessairement être des multiples entiers de 2Πr. Ces choix arithmétiques sont ceux des séries de Fourier. Mais Roger Ballan et Francis Law démontrèrent que ce système ne permettait pas de représenter des fonctions arbitraires. Les ondelettes que l'on utilise aujourd'hui sont plus subtiles. Elles sont nées, en 1987, des travaux de Kenneth Wilson (prix Nobel de physique pour ses travaux sur la renormalisation et les phénomènes critiques). Elles ont été perfectionnées, en 1989, par Ingrid Daubechies, Stéphane Jaffard et Jean-Lin Journé, puis par Ronald Coifman et moi-même en 1990. Signalons aussi les travaux d'Henrique Malvar. Ces ondelettes sont utilisées dans le son numérique Dolby qui aujourd'hui accompagne la plupart des films. Nous reviendrons sur ces avancées technologique.
L'analyse de Fourier n'est pas seulement utilisée pour analyser les sons, elle s'applique aussi au traitement des images, elle intervient de façon cruciale dans la cristallographie, dans la biochimie et dans des champs de la connaissance si divers et variés qu’il est impossible d'en dresser une liste exhaustive. Fourier en avait l'intuition et sa prophétie s'est réalisée.
Le programme de 1’Institute for the Unity of Science
En 1944, avant même que les ordinateurs n'existent, des mathématiciens comme John Von Neumann, Claude Shannon, Norbert Wiener, des physiciens comme Léon Brillouin, Dennis Gabor, Eugène Wigner et d'autres chercheurs ont proposé et déclenché un programme scientifique dont le but était d'étendre aux sciences cognitives (qui n'existaient pas encore sous ce nom) le formidable mouvement d'unification que les sciences physiques avaient opéré à la fin du XIXe siècle.
Il s'agit de l'unification des problématiques de la mécanique statistique, de la thermodynamique et du calcul des probabilités. De cette unification est née la notion d'entropie. Grâce au concept d'entropie, on put reformuler le second principe de la thermodynamique, à savoir la dégradation irréversible de l'énergie au cours des transformations d'un système supposé isolé. Il y a dégradation parce que l'entropie, mesurant le désordre, augmente inéluctablement.
Dès les années 45, Claude Shannon eut l'idée d'appliquer ce concept d'entropie à la théorie des communications, en identifiant l'ordre mesuré par l'entropie (en fait, l'ordre est l'entropie affectée d'un signe moins) à la quantité d'information contenue dans un message.
Une seconde découverte majeure de Shannon dans le domaine des télécommunications concerne le débit d'un canal de transmission. Un tel canal, qui préfigure les autoroutes de l'information, est défini par ce que l'on appelle une fréquence de coupure. L'existence de la fréquence de coupure vient des limitations de la technologie. La fréquence de coupure du canal auditif humain est 20 000 hertz. Shannon calcule le volume maximum d'information que l'on peut transmettre par seconde, à l'aide d'un canal dont la fréquence de coupure est fixée, en présence d'un léger bruit.
Le problème de l'encombrement des autoroutes de l'information était ainsi posé. La question suivante est l'utilisation optimale du canal. Comment faire circuler harmonieusement, sans heurt, cette information ? Comme nous l'avons indiqué dans la section précédente, les pères fondateurs (Shannon, Gabor, Von Neumann, Brillouin) abordèrent ce problème et les solutions qu'ils découvrirent sont appelées les « ondelettes de Sannon » et les « ondelettes de Gabor ». L'utilisation de ces ondelettes était limitée au traitement de la parole. C'est pourquoi ces ondelettes s'appelaient des « logons » ou éléments de discours. Ces premières solutions ont été améliorées, ce qui a conduit aux bases orthonormées d'ondelettes « temps-fréquence » déjà mentionnées.
Ces recherches étaient motivées par les problèmes posés par les communications téléphoniques. Le traitement de l'image n'était pas au programme de l’Institute for the Unity of Science.
À partir de là l'élan était donné et le programme de l'Institute for the Unity of Science consistait à relier les avancées les plus récentes effectuées dans le domaine des « sciences dures » aux progrès de l'étude de l'organisation structurale des langues naturelles et du vivant. Les sciences dures incluaient toute la physique, la mécanique statistique, l'électronique, la logique mathématique, les premiers balbutiements de la robotique et les premiers essais de compréhension de ce qui allait devenir l’étude de la complexité.
Norbert Wiener publiait, en 1950, un essai intitulé Speech, language and learning où il utilisait ses découvertes sur les rétro-actions ou feedbacks. Le 19 janvier 1951, Wiener et Rosenblith lançaient le programme Cybernique et Communications dans le cadre de l’Institute for the Unity of Science. Il s'agissait, en particulier, d'interpréter les modes de fonctionnement du langage et même du cerveau et de la pensée humaine à partir de modèles issus de la logique ou de l'intelligence artificielle. Il s'agissait de comprendre les mécanismes régulateurs de la biologie à l'aide des rétroactions découvertes et étudiées par N. Wiener.
L'Institut était une structure souple, un institut sans mur, permettant de financer et de fédérer les travaux des scientifiques qui travaillaient sur ces programmes. Les ordinateurs n'existaient pas encore et leur conception, puis leur réalisation seront directement issus des réflexions de John Von Neumann et de Norbert Wiener. Par exemple, Wiener fit le 14 février 1945 une conférence sur « le cerveau et les machines à calculer ».
L’Institute for the Unity of Science est créé en 1946 et cette date n'est pas innocente. Tout d'abord Gabor, Von Neumann et Wigner sont tous les trois nés à Budapest. Tous trois ont dû fuir la barbarie nazie.
En outre, le programme de travail de l'Institute for the Unity of Science doit beaucoup aux découvertes sur le management scientifique, issues de l'effort de guerre. Par exemple, Wiener fut conduit à l’étude des rétroactions et de la prédiction statistique dans le cadre de l'aide à la décision des servants des batteries antiaériennes. Il s'agissait de pointer la pièce d'artillerie sur la position anticipée du bombardier nazi. Ces travaux ont aidé à gagner la bataille de Londres.
Une autre conséquence de l'effort de guerre a été la recherche sur les problèmes posés par la communication et le bruit, à bord des bombardiers alliés. L'Institut pour l'Unité de la Science allait naturellement continuer cet effort et son programme de recherche dans le domaine de la communication portera sur les thèmes suivants : message, signal, information, canal de transmission, circuit, réseau, reconnaissance, bruit. Cette liste est aussi celle des problèmes où les ondelettes ont joué un rôle essentiel.
La découvert, par Jean Morlet, des ondelettes « temps-échelle »
Les ondelettes « temps-échelle » ont vu le jour grâce à un objet et un organisme qui ont joué un rôle fédérateur semblable à celui de l’Institute for the Unity of Science décrit ci-dessus. L'objet est une photocopieuse et l'organisme est un laboratoire propre du CNRS, le Centre de Physique Théorique de Marseille-Luminy, admirablement situé près des calanques. Cette photocopieuse, qui aurait dû recevoir une médaille du CNRS, était utilisée à la fois par les chercheurs du département de mathématiques et par ceux du département de physique théorique de l'École Polytechnique. Jean Lascoux, un physicien d'une culture universelle, photocopiait tout ce qui lui paraissait digne d'être diffusé. Au lieu de manifester de l'impatience pour son usage un peu personnel et excessif de cet instrument de travail collectif, j'aimais attendre qu'il ait fini en discutant avec lui. En septembre 1984, il me demanda ce que j'avais fait pendant les vacances et, après ma réponse, il comprit aussitôt que le travail qu'il était en train de photocopier pouvait m'intéresser. Il s'agissait d'un document de quelques pages écrit par un physicien, spécialiste de la mécanique quantique, Alex Grossmann, et par un ingénieur visionnaire, Jean Morlet, travaillant pour Elf-Aquitaine. Je pris le premier train pour Marseille afin de rencontrer Grossmann, au centre de physique théorique de Luminy, et c'est ainsi que tout a commencé et que les ondelettes furent créées.
Les programmes scientifiques des premiers congrès sur les ondelettes qui se tenaient à Luminy, près des calanques, étaient aussi ambitieux que celui de l'Institute for the Unity of Science. Nous disposions d'un nouvel instrument d'analyse, capable de plonger au cœur même des signaux transitoires et d'en explorer la complexité : on pense ici à l'attaque d'une note, aux quelques millisecondes où le son se cherche, c'est-à-dire à tout ce qui échappe à l'analyse de Fourier (et aussi aux ondelettes « temps-fréquence »). Cet instrument, nous l'utilisions pour analyser des électroencéphalogrammes, des électrocardiogrammes, des signaux acoustiques, etc. et nous espérions y découvrir ce que personne n'avait su voir. Lors de ces premiers congrès, nous discutions avec des médecins, des musiciens, des physiciens, des ingénieurs et arrivions à recréer l'atmosphère des années 1945, sans même avoir conscience d'imiter l'Institute for the Unity of Science (dont nous ignorions l'existence).
Nous pensions faire des progrès scientifiques décisifs en établissant une atmosphère propice à l'interaction pluridisciplinaire et à la fertilisation croisée. Cette fertilisation croisée n'était pas, à nos yeux, la recherche d'un niveau pauvre, vague et imprécis de communication entre les sciences. Bien au contraire, il s'agissait, pour nous, d'une sorte de mouvement intellectuel où les différentes thématiques scientifiques puissent s'enrichir mutuellement. En relisant les actes de ces congrès, on mesure à quel point nous étions naïfs. Nous étions naïfs, car nous pensions que le nouveau jouet dont nous disposions pouvait résoudre de nombreux problèmes. Aujourd'hui la liste des problèmes résolus par cet outil est un peu plus courte.
Un des problèmes résolus concerne le traitement de l'image . Ces nouvelles ondelettes sont à l'origine du nouveau standard de compression des images fixes (JPEG-2000). Dans la construction de ces nouvelles ondelettes, interviennent un paramètre d'échelle et un paramètre de fréquence. L'un est l'inverse de l'autre et ceci explique les succès rencontrés en traitement de l'image où cette loi était essentielle.
Si nous avons comparé le climat fiévreux qui a entouré la naissance des ondelettes à celui qui accompagna la création de l’Institute for the Unity of Science, il convient cependant d'être modeste et de souligner que nos travaux étaient beaucoup moins révolutionnaires. En effet, la découverte des ondelettes « temps-fréquence » peut aujourd'hui apparaître comme une simple remarque corrigeant une erreur commise par Gabor et von Neumann. L'usage des ondelettes « temps-échelle » était une aventure plus singulière, car elle ne reposait pas sur une heuristique admise dans la communauté du traitement du signal. Le fait d'analyser un signal unidimensionnel en comparant différentes copies faites à des échelles différentes n'est certainement pas une démarche intuitive.
En revanche, en ce qui concerne l'image, cette même démarche est tout à fait légitime et on a l'habitude d'écrire que l'inverse d'une échelle est une fréquence. En outre, il faut savoir qu'indépendamment des travaux de Morlet et en travaillant dans un contexte tout à fait différent, David Marr a aussi découvert les ondelettes « temps-échelle ». Le traitement de l'image et ses liens avec la vision humaine et la vision artificielle ne faisaient pas partie du programme de l'Institute for the Unity of Science et David Marr a consacré les dix dernières années de sa vie à essayer de comprendre ces problèmes.
Professeur à Cambridge (Royaume-Uni), Marr fut ensuite nommé au MIT (Massachusetts) pour rejoindre une équipe travaillant sur le problème de la vision artificielle qui se révélait crucial pour la robotique. Il s'agit de l'élaboration de décisions à partir des données fournies par les caméras équipant le robot. Les ingénieurs croyaient naïvement que les problèmes seraient simplement résolus en multipliant le nombre des senseurs, mais Marr démontra que la vision est un processus intellectuel complexe, basé sur des algorithmes dont la mise en oeuvre nécessite une science nouvelle.
Son livre, intitulé Vision, A computational investigation into the human représentation and processing of visual information, est en fait, un livre posthume, écrit pendant les derniers mois de sa lutte contre la leucémie. Marr nous confie son programme scientifique en s'adressant à nous comme à un ami. Chemin faisant, il anticipe les ondelettes de Morlet, il en fournit une représentation analytique précise et prévoit le rôle qu'elles vont jouer en traitement de l'image. Cette partie de l’œuvre de David Marr sera reprise et modifiée par Stéphane Mallat.
Les ondelettes inventées par David Marr et Jean Morlet étaient destinées à remplacer la FFT (fast Fourier transform) en traitement de l'image. Mais il fallait pour cela que l'analyse et la synthèse puissent s'effectuer à l'aide d'algorithmes rapides. Ingrid Daubechies et Stéphane Mallat allaient s'illustrer dans la découverte de ces algorithmes qui jouent un rôle essentiel dans les problèmes de la compression et du débruitage.
Aujourd'hui les applications des ondelettes « temps-échelle » couvrent des domaines très variés et, dans une interview au journal Le Monde du jeudi 25 mai 2000, S. Mallat cite, en vrac, le nouveau standard de compression des images fixes, l'imagerie satellitaire, Internet, etc.
Un des grands succès des ondelettes concerne le débruitage des sons et des images. Ce succès s'explique de la façon suivante.
Les ondelettes partagent avec le langage une souplesse d'utilisation et de création tout à fait remarquables et qui expliquent leurs succès. Cette souplesse signifie que l'on peut changer de façon presque arbitraire l'ordre des termes sans changer la signification de ce que l'on écrit. Dans le langage des mathématiciens, on dira que les ondelettes forment une base inconditionnelle. Ceci se relie aux travaux de deux analystes dont je voudrais évoquer la mémoire. Il s'agit d'Alberto Calderón et d'Antoni Zygmund. L’œuvre de Calderón et Zygmund revit aujourd'hui grâce aux belles découvertes d'Albert Cohen sur les coefficients d'ondelettes des fonctions à variation bornée, découvertes qui fondent l'utilisation des ondelettes dans la compression et le débruitage des images fixes. Les applications des ondelettes aux statistiques ont été un des grands succès de cette théorie. Eliminer le bruit dans un signal était l'une des obsessions des pionniers de 45. C'est maintenant une réalité scientifique grâce aux travaux de David Donoho et de ses collaborateurs.
La révolution numérique
Comme nous venons de l'indiquer, les ondelettes ont une relation privilégiée avec le traitement de l'image. Par exemple, le nouveau standard de compression des images fixes, le célèbre JPEG-2000, est basé sur l'analyse par ondelettes. Ceci nous amène à parler des enjeux de la « révolution numérique ». La révolution numérique envahit notre vie quotidienne, elle modifie notre travail, notre relation aux autres, notre perception des sons et des images. En ouvrant un magazine, on a toutes les chances d'y trouver une apologie des caméras numériques ; ces publicités sont en général bien faites et nous fournissent une première définition de la finalité de la révolution numérique : la possibilité d'agir, d'intervenir sur les images et les sons (les enregistrements sonores, les photographies ou les films dans le cas de la caméra numérique), de les manipuler, de les améliorer etc. Le son numérique Dolby qui accompagne la plupart des films contemporains est directement issu de la révolution numérique.
Voici quelques autres exemples. Tout d'abord le téléphone est aujourd'hui digital. Digital s'oppose à analogique. En simplifiant, une copie analogique peut être comparée au tirage d'une gravure, d'une eau-forte, à l'aide de la planche de cuivre qui a été burinée par le graveur. On pense aussi au disque microsillon. Dans le cas du téléphone, la copie de la voix s'effectuait à l'aide d'un courant électrique dont les vibrations reproduisaient exactement les vibrations acoustiques émises par le locuteur. La transmission, sur de longues distances, de ce signal électrique se payait par une certaine altération due aux lois de la physique.
Il en résultait des grésillements qui nous renseignaient sur la distance parcourue par le courant lectrique, mais qui étaient très désagréables. En revanche, le son numérique ou digital est inaltérable, tout comme le disque compact est inusable.
Reste à savoir comment le son analogique devient digital. Le son digital est un exemple de la numérisation d'une information analogique. Numériser signifie que l'on est capable de coder les vibrations acoustiques (qui constituent un signal continu) à l'aide de longues suites de 0 et de 1. Ce codage s'effectue en deux temps. La première étape est l'échantillonnage qui est une sorte de lecture où l'on ne retiendrait qu'un point sur dix. En principe, sans hypothèse sur le signal continu, il est impossible de se contenter de cette « lecture rapide ». Comme nous l'avons signalé dans la section précédente, Claude Shannon a cependant résolu ce problème au niveau théorique. Mais cette première « lecture rapide » fournit encore un volume trop grand pour pouvoir circuler sans peine sur les « autoroutes de l'information ».
Il faut alors « comprimer » et ce nouveau défi pourrait être comparé au remplissage optimal d'une valise à la veille d'un voyage. Se pose alors le problème de construire les meilleurs codes de compression et de comprendre comment la nécessaire comparaison entre différents codes doit être effectuée. C'est dans ce choix d'un bon code que les ondelettes entrent en jeu.
Un second exemple de la révolution digitale est le disque compact audio, lancé en 1982. En quatre ans, il a détroné les disques microsillons en vinyle. Ce disque compact audio a été suivi par le CD-Rom dont l'utilisation a bouleversé le multimédia. Le son et l'image peuvent désormais être enregistrés sur le même support. Aujourd'hui le DVD (Digital Versatile Disc) rencontre un succès foudroyant. Malgré un ruineux combat d'arrière garde des laboratoires de recherche de Thomson, l'image numérique envahit la télévision contemporaine.
D'autres applications actuelles ou prévisibles concernent l'imagerie médicale (l'archivage des mammographies utilisera des algorithmes de compression numérique, basés sur les ondelettes), l'imagerie satellitaire, les images fournies par le télescope Hubble, etc. Bien entendu le multimédia, le web, sont des produits directs de la révolution numérique.
Pour le grand public, la révolution numérique semble faire partie des technologies de pointes, mais, en se penchant sur son histoire, on voit qu'elle était, en un sens, une composante du programme scientifique de l'Institute for the Unity of Science.
Conclusion
Nous pouvons maintenant répondre aux questions posées dans l'introduction.
Les ondelettes ne sont pas une invention pratique, comparable à la roue, mais elles font partie de ce que l'on appelle aujourd'hui le logiciel, le software. Elles jouent un rôle important dans la révolution numérique. Les ondelettes sont aujourd'hui devenues un outil. L’ « outil ondelettes » sera peut-être remplacé par un outil plus maniable dans les années à venir. Cet outil ne sera jamais infirmé. De plus l’outil ondelettes est, en réalité, une boîte à outils, comportant des instruments très différents. En outre cette boîte à outils s'enrichit continuellement.
Les ondelettes ont été une théorie, mais ce n'est plus le cas aujourd'hui. Les recherches théoriques sur les ondelettes ont cessé. Pendant près de six ans (1984-1990), Ronald Coifman, Ingrid Daubechies, Stéphane Mallat et moi-même avons réussi à unifier plusieurs lignes de recherche venant de disciplines très différentes : il s'agissait (1) de travaux conduits en traitement du signal, sous le nom de codage en sous-bandes, (2) d'une méthodologie de la physique mathématique appelée « états cohérents », (3) des anticipations de Gabor et de Shannon dans le cadre de l'Institute for the Unity of Science et, finalement, (4) d'une technique de calcul d'usage universel, celle de bases orthonormées. Ces recherches ont conduit à l'écriture de divers logiciels utilisés dans la technologie du traitement du signal et de l'image.
Cette unification a été un grand succès, mais a aussi eu des effets négatifs. Elle a entraîné une croyance presque religieuse dans la pertinence des méthodes basées sur l'analyse en ondelettes. Il y a un usage intempestif des ondelettes, mais cela n'est pas propre aux ondelettes. Comme nous l'avons déjà observé, il y a un usage intempestif des résultats de toutes les grandes aventures intellectuelles.
Certains outils intellectuels peuvent convenir à toutes les sciences, sans pour autant perdre leur précision. Citons en vrac, vitesse, accélération, fréquence, etc. Le sens de ces mots ne dépend pas du contexte utilisé. Les ondelettes pourraient faire partie de cette liste. En effet, comme c'est le cas pour l'analyse de Fourier, l'analyse par ondelettes n'est jamais fausse, elle ne dépend pas du contexte, elle exprime une vérité universelle, mais elle peut manquer de pertinence. Cette vérité universelle est constituée par un ensemble de résultats mathématiques autonomes et rigoureux. Ces résultats s'appliquent donc, en principe, à tous les signaux, quelle que soit leur origine physique. Ceci n'implique évidemment pas que cette application soit pertinente.
Notre étude historique nous a appris que l'analyse par ondelettes a des racines historiques profondes, qu'elle est le fruit d'une longue évolution. Ce lent processus évolutif continuera, alors même que les ondelettes auront cessé d'être à la mode, car les problèmes que nous essayons aujourd'hui de résoudre à l'aide des ondelettes existeront toujours.

 

VIDEO               CANAL  U             LIEN


 (si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google