ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

MARCHER COMME NOUS

 

 

 

 

 

 

 

Marcher comme nous : un rêve de robot
Gautier Cariou dans mensuel 497
daté mars 2015 -

Grâce aux progrès de la mécanique et des algorithmes, les robots bipèdes ont acquis un meilleur équilibre et une plus grande agilité. La clé de leur succès ? Imiter la façon de marcher de l'homme.
Le 11 mars 2011, un tsunami dévaste la centrale nucléaire de Fukushima, au Japon. Des volontaires s'activent pour éteindre l'incendie, au mépris des radiations. L'idéal aurait été qu'ils soient remplacés par des robots. Dont acte.
Pour stimuler la recherche dans le domaine de la robotique humanoïde, un an après la catastrophe, l'Agence américaine pour les projets de recherche avancée de défense (Darpa) lance une compétition internationale, la Darpa Robotics Challenge (DRC). L'objectif ? Concevoir des robots capables de se déplacer dans des zones dangereuses afin qu'ils réalisent des manoeuvres d'urgence. La finale est prévue les 5 et 6 juin 2015, en Californie. Les robots, jugés sur leur agilité, leur puissance, leur adaptabilité et leur autonomie, devront traverser des décombres, monter des escaliers, ouvrir des vannes, et même conduire une voiture. Sur onze robots en lice, neuf sont bipèdes.
Pour les roboticiens, la cause est entendue : la marche bipède permet de donner une mobilité sans précédent à leurs machines, à l'image de Petman et d'Atlas, deux robots aux proportions humaines conçus par Boston Dynamics, une entreprise américaine rachetée par Google en 2013. Loin des clichés de l'humanoïde maladroit aux mouvements lents et saccadés, ces deux robots marchent sur des terrains plats ou accidentés. Ils retrouvent leur équilibre lorsqu'on les pousse violemment. Le tout avec une agilité déconcertante et une gestuelle très proche de celle de l'homme.
Ce n'est pas un hasard si les roboticiens s'inspirent de l'anatomie humaine pour construire leurs machines : la présence d'un tronc, d'un bassin, de bras, de pieds et de jambes articulés leur assure une gamme de mouvements bien adaptés à des environnements humains. Chaque articulation est dotée de moteurs analogues aux muscles et de capteurs pour contrôler en permanence la position des membres. Un peu comme le ferait l'oreille interne, un instrument intégré dans le bassin, appelé « centrale inertielle », mesure le mouvement du centre de gravité à l'aide de gyroscopes et d'accéléromètres.

Gérer l'instabilité
Au niveau des pieds, des capteurs de pression rendent compte des forces de contact avec le sol. Selon les informations qu'il reçoit de ces capteurs, un ordinateur embarqué dans le robot calcule en temps réel les mouvements à produire au niveau de chaque articulation pour générer une marche efficace. Ces calculs sont exécutés par des algorithmes de commande, suites d'instructions en langage informatique, eux-mêmes fondés sur des modèles physiques simplifiés de la marche.
Avant de mettre au point de tels algorithmes, roboticiens et biomécaniciens ont d'abord étudié les mécanismes généraux de la marche bipède chez l'homme. « Cette marche est assez paradoxale, explique Thomas Robert, du laboratoire de biomécanique et mécanique des chocs, à l'université Claude-Bernard, à Lyon. Elle est stable sur un ensemble de pas, mais instable ponctuellement. Ainsi, un marcheur qui se figerait sur un pied tomberait à coup sûr. Cette instabilité de chaque instant s'explique par un décalage entre le point de contact avec le sol, situé sous le pied d'appui, et un second point dont la position dépend de la vitesse et de la position du centre de gravité*. Pour maintenir un équilibre permanent, il faut que ces deux points restent toujours alignés sur un même axe vertical. Or, ce n'est pas le cas pendant la marche. À chaque pas, nous chutons du côté opposé à notre pied d'appui avant de nous rattraper avec l'autre pied. En définitive, la marche bipède est une succession de chutes libres contrôlées. »
La stabilité dépend donc de la position des pieds sur le sol. En 1968, Miomir Vukobratovic, un ingénieur serbe pionnier de la robotique humanoïde, définit pour la première fois les conditions de stabilité de la marche bipède [1]. Un des éléments importants, connu depuis longtemps des biomécaniciens, est le « centre de pression », un point particulier du sol dont la position dépend de la répartition des forces de contact entre le pied d'appui et le sol. Pendant la marche, ce point reste en permanence dans les limites de la surface délimitée par le pied d'appui. Or, Miomir Vukobratovic établit que plus le centre de pression se rapproche des limites de cette surface plus la probabilité de déséquilibre augmente, pour les hommes comme pour les robots. Aujourd'hui encore, c'est un concept fondamental pour obtenir des marches bipèdes stables de la part des robots.

Calculer chaque mouvement
Au début des années 1980, tous les robots marchent de façon « statique », c'est-à-dire avec le centre de gravité et le centre de pression alignés en permanence sur le même axe vertical. Cela donne une démarche extrêmement lente et saccadée. En 1984, Ichiro Kato, roboticien à l'université de Waseda, au Japon, rompt avec ce modèle de marche archaïque. Il présente WL-10RD, le premier robot capable de se déplacer sur un sol plat en adoptant une marche dynamiquement stable [2]. Cette démarche est, à l'époque, la plus humaine jamais reproduite par une machine. WL-10RD avance à raison d'un pas toutes les 1,3 seconde, en plaçant ses pieds de façon à maintenir le centre de pression dans la surface critique.
Pour calculer le mouvement des jambes, Ichiro Kato raisonne sur un modèle complet du robot, qui prend en compte les masses de chaque membre et pas seulement la position du centre de gravité. Il en découle des équations non linaires, trop complexes pour être traitées en temps réel par un algorithme, ni même résolues de façon exacte. Si bien que chaque mouvement des jambes doit être calculé à l'avance avant d'être rejoué dans la réalité par le robot. Pour WL-10RD, l'imprévu n'a pas sa place : la moindre irrégularité du sol mène à une perte d'équilibre.
En 2003, Shuuji Kajita, roboticien à l'Institut national des sciences et technologies industrielles avancées (AIST), au Japon, résout le problème [3]. Il propose un algorithme de commande fondé sur un modèle du robot dans lequel seule la masse totale, ramenée au centre de gravité est prise en compte [Fig. 1]. Cette simplification permet à l'algorithme de résoudre les équations liées aux mouvements des membres en temps réel et avec exactitude, tout en respectant le critère de stabilité du centre de pression [Fig. 2].
Cet algorithme a été mis au point à partir du modèle physique du « pendule inversé », déjà utilisé par les biomécaniciens pour décrire la marche humaine. Dans ce modèle, le robot est équivalent à un pendule retourné dont toute la masse est concentrée à son extrémité haute (correspondant au bassin), tandis que son extrémité basse (correspondant au pied d'appui), sans masse et de longueur variable, est en contact avec le sol. Pour prouver l'efficacité de son algorithme, Shuuji Kajita l'implante sur l'humanoïde HRP-2, né dans les laboratoires de l'AIST dans les années 2000 : il parvient à marcher de façon dynamique et stable. Aujourd'hui encore, de nombreux roboticiens l'utilisent ou s'en inspirent pour faire marcher leur robot.
En 2006, Jerry Pratt, chercheur en robotique à l'Institute for Human and Machine Cognition, en Floride, propose un autre algorithme de commande baptisé « capture point ». Ce dernier est fondé sur une version revisitée du modèle du pendule inversé dans lequel le roboticien intègre l'inertie liée aux mouvements de rotation du bassin [4]. L'inertie est la résistance naturelle qu'oppose un corps à un changement de vitesse. En prenant en compte cet effet, l'algorithme détermine les zones dans lesquelles un robot doit poser son pied pour s'arrêter en un seul pas. Le robot est donc contrôlé de manière à rester en permanence dans les limites de ette zone de stabilité. Il en résulte une marche dynamique et stable à chaque instant.

Anticiper d'un ou deux pas
« Toutefois, l'algorithme de capture point n'est valable que sur des sols plats et non glissants, souligne Pierre-Brice Wieber, roboticien à Inria, à Grenoble. Dans des travaux récents, Jerry Pratt essaie de le généraliser pour des environnements plus complexes mais ce problème n'est pas encore résolu. »
Pour augmenter la stabilité des robots, une approche dans la lignée des travaux de Shuuji Kajita, inspirée de la locomotion humaine, est d'anticiper le mouvement d'un ou deux pas. En robotique, ce contrôle particulier du mouvement a été baptisé « commande prédictive ». Elle consiste à prédire une séquence de pas dans une simulation numérique et de la confronter à la réalité. En pratique, le robot exécute les mouvements prédits par la simulation puis il compare sa position et sa posture réelles, mesurées par ses capteurs internes, au résultat de la simulation. S'il constate un écart, il génère une nouvelle prédiction. Et cela toutes les millisecondes ! De cette façon, un robot, réajuste en permanence ses mouvements et s'adapte aux irrégularités du sol ou même à une poussée violente, à condition que ses moteurs soient suffisamment puissants (lire « Des moteurs puissants pour une démarche naturelle », ci-dessous). Cette méthode, testée avec succès sur le robot HRP-2, permet également d'intégrer des obstacles dans la simulation numérique.

Plier les genoux
Tous ces algorithmes de commande, aussi différents soient-ils, ont un point commun : ils imposent aux robots de marcher les genoux pliés. « Lorsque les jambes ou les bras d'un robot sont complètement tendus, il apparaît des aberrations mathématiques pendant que l'algorithme exécute ses calculs, explique Pierre-Brice Wieber. En effet, pour déterminer les mouvements articulaires que doit générer le robot, on utilise une matrice, un outil mathématique, qui, lorsque les jambes sont complètement tendues, devient non inversible. » Mathématiquement, cela revient à réaliser une division par zéro.
Ce problème identifié sous le terme de « singularité » est un vrai cauchemar pour les roboticiens. « Pour l'éviter, nous imposons donc aux robots d'avoir toujours les genoux pliés, en exagérant parfois le trait. Toutefois, on n'est pas si éloigné de la réalité : des études biomécaniques sur l'homme ont montré que nous tendons rarement les jambes pendant la marche, ce qui garantit une certaine souplesse et nous aide à mieux contrôler nos forces. »
Depuis environ cinq ans, les roboticiens cherchent également à améliorer l'interaction des robots avec leur environnement en utilisant une commande dite « en couple ». La plupart des robots bipèdes actuels sont contrôlés par une commande en « position ». Concrètement, cela signifie que les algorithmes qui pilotent la marche utilisent des informations sur la position des membres à chaque instant, fournies par des capteurs placés au niveau de chaque articulation. Toutefois, ces capteurs ne mesurent pas les effets des perturbations externes (obstacle, poussée...) sur l'ensemble des articulations du robot. Si bien que, si le pied d'un robot rencontre une marche sur son chemin, il ne s'adaptera pas du tout à cet imprévu. Au contraire, il augmentera la puissance de ses moteurs dans l'objectif d'atteindre la position théorique prévue par son algorithme. Cette obstination peut l'endommager.

Franchir les obstacles
La commande « en couple » consiste à calculer les mouvements du robot à partir des forces qui s'appliquent sur ses articulations, mesurées à l'aide de capteurs. Un roboticien peut alors mettre au point un algorithme de commande qui oblige la machine à ne plus solliciter ses articulations au-delà d'une certaine force. Résultat : lorsque le pied d'un robot rencontre un obstacle, il ne forcera pas au-delà de la limite imposée par l'algorithme. En jouant sur les nombreux degrés de liberté de ses articulations, il générera un nouveau mouvement stable et poursuivra sa marche sans casse.

« Avec une commande en couple, il est également possible d'adapter la raideur des articulations en intervenant directement dans l'algorithme de commande, précise Auke Ispeert, de l'École polytechnique fédérale de Lausanne, en Suisse. L'algorithme en question peut en effet contrôler la force des moteurs de façon à ce qu'ils simulent le comportement d'un ressort. Cela donne des démarches plus souples, plus humaines et mieux adaptées à des terrains accidentés. »
Les robots qui utilisent cette technologie sont encore peu nombreux car l'intégration des capteurs de force dans les articulations est difficile à mettre en oeuvre. En outre, la commande en couple nécessite la mise au point d'un modèle virtuel du robot réunissant toutes ses caractéristiques dynamiques intrinsèques : la masse de chaque membre, les forces de frictions, l'élasticité des articulations, etc. L'optimisation de ces simulations constitue l'un des grands axes de recherche de la robotique bipède. Aujourd'hui, les robots les plus prometteurs qui utilisent la commande en couple sont Coman, le robot électrique de l'Institut de technologie italien ou encore Toro, présenté en 2013 par l'Agence spatiale allemande. Mais le plus emblématique reste sans aucun doute Atlas, grand favori de la finale du Darpa Robotics Challenge.
*LE CENTRE DE GRAVITÉ est un point qui se déplace comme si toute la masse du marcheur y était concentrée. Sa position dépend de la répartition des masses dans le corps.

L'ESSENTIEL
- EN 1968, un critère de stabilité établit que l'équilibre d'un marcheur bipède dépend de la position d'un point particulier du sol appelé « centre de pression ».
- EN 1984, WL-10RD est le premier robot bipède capable de marcher de façon dynamique et stable en respectant ce critère.
- EN 2006, un algorithme parvient pour la première fois à calculer les mouvements d'un robot en temps réel pour le faire marcher.

UN MAXIMUM DE KILOMÈTRES AVEC UN MINIMUM D'ÉNERGIE
Après 186 000 enjambées et 65 kilomètres parcourus sur une piste d'athlétisme, Cornell Ranger a finalement épuisé sa batterie. Ce robot marathonien, conçu en 2011 par les chercheurs du laboratoire de biorobotique et de locomotion, à l'université de Cornell, aux États-Unis, utilise le principe de marche semi-passive pour se déplacer. Introduite par le roboticien américain Tad McGeer, dans les années 1990, cette démarche particulière est à ce jour la moins gourmande en énergie. Et pour cause, les bipèdes semi-passifs ne possèdent pas de haut du corps et n'utilisent que deux moteurs pour actionner leurs jambes, contre plus d'une vingtaine chez les humanoïdes ! D'un point de vue physique, le pied posé sur le sol évolue selon la dynamique d'un pendule inversé, tandis que l'autre jambe suit la dynamique d'un pendule simple. Mais cette marche, aussi économique soit-elle, n'est valable que sur des surfaces planes et se dérègle dès que l'on dote le robot d'un bassin, d'un tronc et de bras.

DES MOTEURS PUISSANTS POUR UNE ALLURE NATURELLE
Les progrès des algorithmes n'expliquent pas à eux seuls l'agilité croissante des robots. La souplesse impressionnante des bipèdes de Boston Dynamics tels que Atlas (ci-dessus) provient aussi en grande partie de leurs moteurs hydrauliques. Alimentés par une réserve d'eau sous-pression, ils confèrent aux robots une puissance telle que ceux-ci peuvent réaliser des pas de côté et des sauts, mouvements inaccessibles à la plupart des robots électriques, dont les moteurs sont trop faibles. À une exception près. En 2010, les roboticiens Junichi Urata et Yuto Nakanishi, de l'université de Tokyo, au Japon, mettent au point des moteurs électriques cent fois plus puissants que leurs prédécesseurs, s'approchant un peu plus des performances des systèmes hydrauliques [1]. Leur technologie consiste à refroidir les moteurs à l'aide de circuits de refroidissement pour les exploiter au-delà de leur puissance nominale. Cette technologie a été utilisée avec succès sur le robot électrique Schaft, grand vainqueur des épreuves qualificatives de la Darpa Robotics Challenge, une compétition internationale de robotique organisée par l'Agence américaine pour les projets de recherche avancée de défense.
[1] J. Urata et al., IEEE/RSJ, Conf. on Intelligent Robots and Systems, 4497-4502,2010.

 

 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

Première pierre du Centre de nanosciences et de nanotechnologies

 

 

 

 

 

 

 

Paris, 28 juin 2016
Première pierre du Centre de nanosciences et de nanotechnologies


Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.
L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France.

Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016).

Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.

Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia.

Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).

 

DOCUMENT       cnrs        LIEN

 
 
 
 

Energie renouvelable : des nanotubes pour tirer le meilleur de l'énergie osmotique

 



 

 

 

 

 

Paris, 27 février 2013


Energie renouvelable : des nanotubes pour tirer le meilleur de l'énergie osmotique


La différence de salinité entre l'eau douce et l'eau de mer est l'une des voies explorées pour obtenir de l'énergie renouvelable. Néanmoins, les faibles rendements des techniques actuelles constituent un frein à son utilisation. Ce verrou pourrait être en train d'être levé. Une équipe menée par des physiciens de l'Institut Lumière Matière (CNRS / Université Claude Bernard Lyon 1), en collaboration avec l'Institut Néel (CNRS), a découvert une nouvelle piste pour récupérer cette énergie : l'écoulement osmotique à travers des nanotubes de Bore-Azote permet de générer un courant électrique géant avec une efficacité plus de 1 000 fois supérieure à celle atteinte jusqu'ici. Pour parvenir à ce résultat, les chercheurs ont développé un dispositif expérimental très original permettant, pour la première fois, d'étudier le transport osmotique des fluides à travers un nanotube unique. Leurs résultats sont publiés le 28 février dans la revue Nature.
Les phénomènes osmotiques se manifestent lorsque l'on met en contact un réservoir d'eau salée avec un réservoir d'eau douce par l'intermédiaire de membranes semi-perméables adaptées. Il est alors possible de produire de l'électricité à partir des gradients salins. Ceci, de deux façons différentes : d'un côté, la différence de pression osmotique entre les deux réservoirs peut faire tourner une turbine ; de l'autre, l'utilisation de membranes qui ne laissent passer que les ions permet de produire un courant électrique.

Concentrée au niveau des embouchures des fleuves, la capacité théorique de l'énergie osmotique au niveau mondial serait d'au moins 1 Térawatt, soit l'équivalent de 1000 réacteurs nucléaires. Cependant, les technologies permettant de récupérer cette énergie présentent d'assez faibles performances, de l'ordre de 3 Watts par mètre carré de membrane. Les physiciens de l'Institut Lumière Matière (CNRS / Université Claude Bernard Lyon 1), en collaboration avec l'Institut Néel (CNRS), pourraient être parvenus à lever ce verrou.

Leur but premier était d'étudier la dynamique de fluides confinés dans des espaces de taille nanométrique tels que l'intérieur de nanotubes. En s'inspirant de la biologie et des recherches sur les canaux cellulaires, ils sont parvenus, pour la première fois, à mesurer l'écoulement osmotique traversant un nanotube unique. Leur dispositif expérimental était composé d'une membrane imperméable et isolante électriquement. Cette membrane était percée d'un trou unique par lequel les chercheurs ont fait passer, à l'aide de la pointe d'un microscope à effet tunnel, un nanotube de Bore-Azote de quelques dizaines de nanomètres de diamètre extérieur. Deux électrodes plongées dans le liquide de part et d'autre du nanotube leur ont permis de mesurer le courant électrique traversant la membrane.

En séparant un réservoir d'eau salée et un réservoir d'eau douce avec cette membrane, ils ont généré un courant électrique géant à travers le nanotube. Celui-ci est dû à l'importante charge négative que présentent les nanotubes de Bore-Azote à leur surface, charge qui attire les cations contenus dans l'eau salée. L'intensité du courant traversant le nanotube de Bore-Azote est de l'ordre du nanoampère, soit plus de mille fois celui produit par les autres méthodes cherchant à récupérer l'énergie osmotique.

Les nanotubes de Bore-Azote permettent donc de réaliser une conversion extrêmement efficace de l'énergie contenue dans les gradients salins en énergie électrique directement utilisable. En extrapolant ces résultats à une plus grande échelle, une membrane de 1 mètre carré de nanotubes de Bore-Azote aurait une capacité d'environ 4 kW et serait capable de générer jusqu'à 30 MegaWatts.heure 1 par an. Ces performances sont trois ordres de grandeur au-dessus de celles des prototypes de centrales osmotiques en service aujourd'hui. Les chercheurs veulent à présent étudier la fabrication de membranes composées de nanotubes de Bore-Azote, et tester les performances de nanotubes de composition différente.



Notes :
1 Un Watt.heure correspond à l'énergie consommée ou délivrée par un système d'une puissance de 1 Watt pendant une heure.
Références :
Giant osmotic energy conversion measured in a single transmembrane boron-nitride nanotube, Alessandro Siria, Philippe Poncharal, Anne-Laure Biance, Rémy Fulcrand, Xavier Blase, Stephen Purcell, and Lydéric Bocquet, Nature. 28 février 2013.
Contacts :
Chercheur l Lydéric Bocquet l T 04 72 44 82 53 l lyderic.bocquet@univ-lyon1.fr
Alessandro Siria l alessandro.siria@univ-lyon1.fr
Presse CNRS l Priscilla Dacher l T 01 44 96 46 06 l priscilla.dacher@cnrs-dir.fr

 

 DOCUMENT       cnrs        LIEN

 
 
 
 

Dilater le temps pour mieux prédire les évènements extrêmes

 

 

 

 

 

 

 

Paris, 19 décembre 2016
Dilater le temps pour mieux prédire les évènements extrêmes

Dilater les échelles de temps pour explorer les évènements extrêmes de la nature semblait impossible… Cette prouesse est désormais envisageable grâce à une équipe de l'Institut FEMTO-ST (CNRS/UFC/UTBM/ENSMM) qui a utilisé une technique innovante de détection permettant de capturer en temps réel de tels évènements. Cette technique, appliquée pour le moment à la photonique, pourrait aider à la prédiction de vagues scélérates1 à la surface des océans ou d'autres évènements naturels extrêmes. Ces travaux, menés en collaboration avec des chercheurs finlandais, irlandais et canadiens, sont publiés dans la revue Nature Communications du 19 décembre 2016.
Les instabilités et le chaos dans les systèmes physiques sont des phénomènes aléatoires naturels, généralement très sensibles aux fluctuations des conditions initiales, si petites soient-elles. Pour comprendre ces phénomènes complexes et omniprésents dans la nature, les chercheurs ont récemment eu recours à des expériences impliquant la propagation d'ondes lumineuses et menant à la formation d'impulsions de durée extrêmement brève, de l'ordre de la picoseconde (un millionième de millionième de seconde). En effet, l'étude de ces phénomènes en optique présente l'avantage de se faire sur des échelles de temps très courtes, permettant ainsi de mesurer un échantillon représentatif d'évènements et de caractériser de manière fiable ses propriétés statistiques. Cependant, bien qu'ayant permis des progrès sur la compréhension des dynamiques liées aux événements extrêmes, ces études ont été faites jusqu'à présent de manière indirecte, en raison du temps de réponse des détecteurs actuels, trop lents pour capturer ces évènements rares.

Des expériences récentes menées à l'Institut Femto-ST à Besançon ont permis de dépasser cette limite. Basée sur le principe d'une lentille temporelle2 qui dilate l'échelle de temps d'un facteur 100 tout en augmentant la résolution, cette nouvelle méthode a permis aux chercheurs d'observer en temps réel des impulsions géantes de lumière, avec une intensité plus de 1000 fois supérieure à celle des fluctuations initiales de la source lumineuse, un laser. Ils ont utilisé pour cela un effet papillon connu en optique sous le nom d'instabilité modulationnelle qui amplifie, dans une fibre optique de télécommunications, le faible bruit intrinsèquement présent dans le faisceau laser.

Ces résultats ont une portée qui va bien au-delà du domaine de la photonique, puisque ce type de bruit de fond est généralement considéré comme l'un des mécanismes qui pourrait être à l'origine des vagues scélérates destructrices qui  apparaissent de manière soudaine à la surface des océans, mais également de bien d'autres systèmes comme la dynamique du plasma dans l'univers primitif. La capacité à dilater les échelles de temps en optique ouvre donc une nouvelle voie pour l'exploration et la compréhension des nombreux systèmes de la nature pour lesquels il est encore très difficile d'étudier les instabilités de manière directe et ainsi d'obtenir des échantillons statistiques fiables.

Ces travaux impliquent des chercheurs du laboratoire Femto-ST: Franche-Comté électronique mécanique thermique et optique - sciences et technologies (CNRS/Université Franche-Comté/Université de technologie de Belfort-Montbéliard/Ecole Nationale Supérieure de Mécanique et des Microtechniques de Besançon). L'UTMB, l'ENSMM et l'université de Franche-Comté appartiennent à la communauté d'universités et d'établissements « Université Bourgogne Franche-Comté ».

 

DOCUMENT         cnrs        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google