ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

INTERACTIVITÉ ...

 

Jean-Michel Prima - 8/07/2014
Plus d'interactivité dans l'apprentissage par réalité virtuelle


Comment faire en sorte qu'un être humain interagisse vraiment avec son collègue virtuel ? C'est la question clé à résoudre pour pouvoir développer la prochaine génération de logiciels de formation professionnelle. À travers le projet Corvette, un groupe d'entreprises et de laboratoires de recherche académique vient d'introduire une série de méthodes innovantes qui propulsent l'interactivité à des niveaux jusqu'alors inconnus.
Sur une presse à injection plastique, le changement de moule est l'une des opérations de maintenance les plus fréquentes. Ce déroulé de gestes techniques exige deux opérateurs travaillant en symbiose et partageant une bonne connaissance de la machine.  Cet exercice est l'un des deux scénarios de formation professionnelle virtuelle récemment implémentés par Corvette.
Financé par l'Agence nationale de la recherche, Corvette vise à faire progresser les environnements virtuels collaboratifs. “C'est encore de la recherche exploratoire , prévient le scientifique Bruno Arnaldi, coordinateur du projet. Nous proposons un modèle abstrait d'interaction entre un humain —réel ou virtuel—  et l'environnement 3D. ”  Les expériences se déroulent dans Immersia, la salle immersive de dernière génération située sur le campus scientifique de Beaulieu, à Rennes.
“L'apprenti perçoit son environnement en interaction colocalisée. Il synchronise ses actions sur celles de son collaborateur virtuel qui en fait de même. L'action de l'un déclenche la réaction de l'autre. L'apprenti peut dialoguer avec ce collaborateur virtuel pour savoir ce qu’il a fait, ce qu’il fait ou ce qu’il va faire. Ces éléments combinés lui permettent de progresser collaborativement dans la formation. ”
Une série d'innovations
Tout ceci est rendu possible grâce à une série d'innovations qui font tomber plusieurs verrous scientifiques. Parmi ces nouveautés figurent “un collaborateur virtuel autonome  fusionnant les modèles cinématiques, cinétiques et dynamiques ” ainsi qu'un “modèle de communication parlée entre l'humain et son collègue virtuel ”. Les chercheurs introduisent également “un modèle abstrait d'interaction pour l'humain réel et l'humain virtuel permettant la synchronisation et le séquencement des actions. ”

 Ce dernier paradigme s'appelle the Shell. Grâce à lui, les utilisateurs et les êtres virtuels vont pouvoir travailler en symbiose. “Prenons un exemple impliquant un apprenti, un formateur et un collaborateur virtuel. Imaginons que, pour une raison quelconque, cet apprenti ne parvienne pas à effectuer la tâche assignée. Le formateur décide de prendre la main. Il passe virtuellement dans l'enveloppe de l'apprenant et entreprend de débloquer la situation. ” Ce qui constitue toute l'originalité de ce changement de rôle, c'est que désormais “le formateur récupère aussi les connaissances de l'autre. Et cela, c'est primordial  ! ” Pourquoi ? “Parce qu'il ne suffit pas de se glisser dans la représentation, dans l'avatar de quelqu'un. Il faut pouvoir embarquer et exploiter toute sa connaissance. Autrement dit : accéder à ce qu'il sait et ce qu'il a vu de l'exercice. Autant d'éléments qui vont énormément aider le formateur pour résoudre le problème. ” Cette transmission de la connaissance s'avère par ailleurs nécessaire pour assurer la continuité de l'action.
Un produit largement déployable
Les deux scénarios implémentés durant les expériences ont permis aux scientifique de démontrer “la maturité des concepts et leur pertinence. Une future intégration industrielle devrait permettre d'en faire un produit largement déployable. ” Comme l'observe la chercheuse Valérie Gouranton, “Corvette constitue en fait l'aboutissement d'environ 10 ans de recherches. Lors des phases précédentes, nous avions introduit STORM. Il s'agit d'un modèle servant à décrire des comportements réutilisables pour les objets 3D et les interactions entre ces objets. Nous avons aussi créé LORA, un langage de scénarios qui permet aux utilisateurs de définir des procédures de maintenance. Ces contributions ont été ensuite intégrées avec succès dans GVT, un outil générique de formation virtuelle commercialisée par Nexter Training, la branche ingénierie pédagogique du groupe Nexter. ”
La nouvelle vague de résultats issus de Corvette pourrait engendrer une amélioration majeure de ce type de logiciel. Mais comme le fait remarquer Bruno Arnaldi, “nos modèles sont tellement génériques que leur potentiel s'étend bien au-delà de la formation professionnelle. En ce moment, par exemple, nous travaillons avec Technicolor sur les logiciels de prévisualisation et les effets spéciaux cinématographiques ‘on-set’. ” À terme, la technologie pourrait aussi s'inviter dans le jeu vidéo.

 

DOCUMENT           inria.fr         LIEN

 
 
 
 

VOLCANS ET CLIMAT ...

 

Paris, 25 mars 2015


Les éruptions volcaniques influencent durablement le climat dans l'Atlantique nord

Les particules émises lors d'éruptions volcaniques majeures refroidissent l'atmosphère par un effet "parasol", réfléchissant les rayons du soleil. Ces particules volcaniques ont un effet direct assez bref, deux à trois ans, dans l'atmosphère. Pourtant, elles modifient pendant plus de 20 ans la circulation océanique de l'Atlantique nord, qui relie courants de surface et courants profonds, et module le climat européen. C'est ce que viennent de découvrir des chercheurs du CNRS, de l'IRD, du CEA et de Météo‐France1 en combinant, pour la première fois, des simulations climatiques, des mesures océanographiques récentes et des informations issues d'archives naturelles du climat. Ces résultats2 sont publiés le 30 mars 2015 dans Nature Communications.
L'océan Atlantique est le siège de variations de la température de surface qui s'étendent sur plusieurs décennies et qui influencent le climat de l'Europe. Cette variabilité lente est due à des modifications de la circulation océanique, qui relie les courants de surface aux courants profonds, et qui transporte la chaleur depuis les tropiques jusqu'aux mers de Norvège et du Groenland. Cependant, sa cause reste mal connue.

Afin d'en décrypter les mécanismes, les chercheurs ont tout d'abord utilisé des informations couvrant le dernier millénaire et issues d'archives naturelles du climat. Ainsi, l'étude de la composition chimique de l'eau des carottes de glace du Groenland permet d'y estimer les changements passés de température. Ces données montrent le lien étroit entre la température de surface de l'océan Atlantique et la température de l'air au-dessus du Groenland, et révèlent que la variabilité du climat dans cette région est un phénomène périodique dont certains cycles, ou oscillations, durent environ vingt ans.

En utilisant des simulations numériques de plus de vingt modèles de climat différents, les chercheurs ont également mis en évidence que des éruptions volcaniques majeures, comme celle de l'Agung, en Indonésie en 1963, ou du Pinatubo, aux Philippines, en 1991, pouvaient modifier en profondeur la circulation océanique de l'Atlantique nord. En effet, les grandes quantités de particules émises par ces éruptions vers la haute atmosphère réfléchissent une partie du rayonnement solaire par un effet similaire à celui d'un parasol, ce qui entraîne un refroidissement du climat à la surface de la Terre. Ce refroidissement, qui ne dure que deux à trois ans, provoque alors une réorganisation de la circulation océanique dans l'océan Atlantique nord. Quinze ans environ après le début de l'éruption, cette circulation s'accélère, puis ralentit au bout de vingt-cinq ans, et accélère à nouveau trente-cinq ans après le début de l'éruption volcanique. Les éruptions volcaniques semblent ainsi fonctionner, sur la circulation océanique de l'Atlantique nord, à la manière d'un "pace-maker" qui met en route une variabilité sur 20 ans.

Les scientifiques ont confirmé ces résultats en les comparant avec des observations de la salinité océanique, facteur déterminant pour la plongée des eaux et donc de la circulation océanique. Ils ont décelé, dans les simulations numériques et dans ces observations océanographiques modernes, des variations similaires au début des années 1970 et 1990 liées à l'éruption du volcan Agung. Grâce à des observations issues de carotte de glace groenlandaise, à des observations effectuées sur des coquillages bivalves, âgés de plus de cinq cent ans et vivant au nord de l'Islande, et à une simulation du climat du dernier millénaire, les chercheurs ont systématiquement identifié une accélération de la circulation océanique quinze ans après cinq éruptions volcaniques ayant eu lieu il y a plusieurs centaines d'années.

Enfin, les chercheurs ont mis en évidence les interférences produites par les trois dernières éruptions volcaniques majeures, Agung en 1963, El Chichon, au Mexique en 1982 et Pinatubo en 1991, expliquant pour la première fois la variabilité récente des courants de l'océan Atlantique nord. Ils concluent qu'une éruption majeure dans un futur proche pourrait avoir une incidence pendant plusieurs décennies sur les courants de l'océan Atlantique nord et donc sur la capacité de prévoir la variabilité du climat européen. Ils souhaitent désormais consolider ces résultats en multipliant les sources de données, notamment en paléoclimatologie.


Notes :
1Du laboratoire Environnements et paléo environnements océaniques et continentaux (CNRS/Université de Bordeaux), du Centre national de recherches météorologiques - groupe d'étude de l'atmosphère météorologique (CNRS/Météo France), du Laboratoire d'océanographie et du climat : expérimentations et approches numériques (CNRS/UPMC/MNHN/IRD) et du Laboratoire des sciences du climat et de l'environnement (CNRS/CEA/UVSQ) appartenant tous deux à l'Institut Pierre Simon Laplace.
2Ce projet a été financé par l'Agence Nationale de la Recherche via le projet « Groenland vert » du programme Changements Environnementaux Planétaires et Société (2011-2015).

 

 DOCUMENT         CNRS         LIEN

 
 
 
 

ATOMES ER LASERS

 

Texte de la 211e conférence de l’Université de tous les savoirs donnée le 29 juillet 2000.


La vie des molécules biologiques en temps réel : Laser et dynamique des protéines
par Jean-Louis Martin


En aval des recherches autour des génomes, alors que le catalogue des possibles géniques et protéiques est en voie d’achèvement, nous sommes entrés dans l’ère fonctionnelle qui doit nous conduire à comprendre comment toutes les molécules répertoriées interviennent pour « faire la vie ». Le profit qui sera fait de cette masse d’informations, dépend de notre capacité à intégrer ces données moléculaires dans des schémas fonctionnels sous-tendant la constitution et l’activité des cellules voire des organes et des organismes.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie des systèmes intégrés.
Au niveau cellulaire, l’approche fonctionnelle est déjà très avancée, en partie parce qu’elle s’appuie sur des compétences, des technologies et des concepts, largement communs à ceux développés par la génétique et la biologie moléculaire. Elle est toutefois, à ce jour, encore loin d’aboutir à une mise en cohérence du rôle fonctionnel des différents acteurs dont elle identifie le rôle au sein de la cellule : récepteurs, canaux ioniques, messagers, second messagers… Les progrès dans ce domaine vont être intimement liés à notre capacité à développer des outils autorisant à la fois un suivi in situ des différents acteurs, et une manipulation à l’échelle de la molécule.
Les développements technologiques spectaculaires dans le domaine des lasers impulsionnels a déjà permis le développement d’une nouvelle microscopie en trois dimensions : la microscopie confocale non linéaire. Associée à la construction de protéines chimères fluorescentes, cet outil a déjà permis de progresser significativement dans la localisation d’une cible protéique ou dans l’identification de voies de trafic intracellulaire.
Cependant, le décryptage in situ et in vivo du rôle fonctionnel des différents acteurs, en particulier protéique, ou plus encore, la compréhension des mécanismes sous-jacents, constituent des défis que peu d’équipes dans le monde ont relevés à ce jour. Il s’agit ici d’associer des techniques permettant de donner un sens à une cascade d’évènements qui s’échelonnent sur des échelles de temps allant de la centaine de femtoseconde1 à plusieurs milliers de secondes.
Le fonctionnement des protéines en temps réel
Le fonctionnement des macromolécules biologiques – protéines, acides nucléiques – est intimement lié à leur capacité à modifier leurs configurations spatiales lors de leur interaction avec des entités spécifiques de l’environnement, y compris avec d’autres macromolécules. Le passage d’une configuration à une autre requiert en général de faibles variations d’énergie, ce qui autorise une grande sensibilité aux variations des paramètres de l’environnement, associée à une dynamique interne des macromolécules biologiques s’exprimant sur un vaste domaine temporel.
Dans une première approche, on peut considérer qu’une vitesse de réaction biologique est la résultante du « produit » de deux termes: une dynamique intrinsèque des atomes et une probabilité de transition électronique. C’est en général ce dernier facteur de probabilité qui limite la vitesse d’une réaction. Une réaction biochimique est généralement lente non pas comme conséquence d’évènements intrinsèquement lents, mais comme le résultat d’une faible probabilité avec laquelle certains de ces évènements moléculaires peuvent se produire.
Plus précisément, une réaction biologique qui implique, par exemple, une rupture ou une formation de liaison, est tributaire de deux classes d’évènement : d’une part un déplacement relatif des noyaux des atomes et d’autre part une redistribution d’électrons parmi différentes orbitales. Ces deux catégories d’évènements s’expriment sur des échelles de temps qui leur sont propres et qui dépendent de la structure électronique et des masses atomiques des éléments constituant la molécule. Ainsi la dynamique des atomes autour de leur position d’équilibre est, en première approximation, celle d’oscillateurs harmoniques faits de masses ponctuelles couplées par des forces de rappels. Dans le cas des macromolécules biologiques, les milliers d’atomes que comporte le système évoluent sur une hyper-surface d’énergie dont la dimension est déterminée par le nombre de degrés de liberté de l’ensemble du complexe.
Le « travail » que doit effectuer une protéine est de nature très variée : catalyse dans le cas des enzymes, transduction de signal dans le cas de récepteurs, transfert de charges de site à site, transport de substances … mais il existe une caractéristique commune dans le fonctionnement de ces protéines : la sélection de chemins réactionnels spécifiques au sein de cette surface de potentiel. À l’évidence le système biologique n’explore pas l’ensemble de l’espace conformationnel : le coût entropique serait fatal à la réaction… et à l’organisme qui l’héberge.
L’identification de ce chemin réactionnel au sein de l’édifice constitue l’objectif essentiel des expériences de femto-biologie.
L’approche expérimentale : produire un séisme moléculaire et le suivre par stroboscopie laser femtoseconde
Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée.
Comment réussir à caractériser la dynamique conduisant à une conformation intermédiaire qui est elle-même à la fois très fugace et peu probable ?
La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc s’attendre à des mouvements dans les domaines femtoseconde et picoseconde2. Pour espérer avoir quelques succès dans cette investigation, il est par ailleurs impératif d’utiliser un système moléculaire accessible à la fois à l’expérimentation et à la simulation, la signature spectrale de la dynamique des protéines n’apportant que des informations indirectes. De plus, la réaction étudiée doit pouvoir être induite de manière « synchrone » pour un ensemble de molécules. Il est donc nécessaire de perturber de manière physiologique un ensemble moléculaire dans une échelle de temps plus courte que celle des mouvements internes les plus rapides, donc avec une impulsion femtoseconde.
Cette approche « percussionnelle » est commune à la plupart des domaines de recherche utilisant des impulsions femtosecondes. La biologie ne se distingue sur ce point, que dans l’adaptation de la perturbation optique pour en faire une perturbation physiologique. Le problème est naturellement résolu dans le cas des photorécepteurs pour lesquels le photon est « l’entrée » naturelle du système. Ceci explique les nombreux travaux en photosynthèse : transfert d’électron dans les centres réactionnels bactériens, transfert d’énergie au sein d’antennes collectrices de lumière dans les bactéries, mais aussi les études transferts de charges au sein d’enzyme de réparation de l’ADN ou responsable de la synchronisation des rythmes biologiques avec la lumière solaire, ainsi que les travaux sur les premières étapes de la vision dans la rhodopsine.
Il existe par ailleurs des situations favorables où la protéine comporte un cofacteur optiquement actif qui peut servir de déclencheur interne d’une réaction: c’est la cas des hémoprotéines comme l’hémoglobine que l’on trouve dans les globules rouges ou les enzymes impliquées dans la respiration des cellules comme la cytochrome oxydase. Dans ces hémoprotéines il est possible de rompre la liaison du ligand (oxygène, NO ou CO) avec son site d’ancrage dans la moléculen par une impulsion lumineuse femtoseconde.On se rapproche ici des conditions physiologiques, la transition optique permettant de placer le site actif de l’hémoprotéine dans un état instable entrainant la rupture de la liaison site actif-ligand en moins de 50 femtosecondes. Cette méthode aboutit à la synchronisation de l’ensemble des réactions d’un grand nombre de molécules. Il est alors possible de suivre leur comportement pendant la réaction et d’identifier les changements de conformation lors du passage des cols énergétiques. On peut faire une analogie sportive : en suivant l’évolution de la vitesse d’un « peloton » de coureurs cyclistes lors d’une étape du tour de France, on peut retracer le profil de cols et de vallées de l’étape, à condition que les coureurs partent au même instant. Pour un « peloton » de molécules, c’est le Laser femtoseconde qui joue le rôle du « starter » de l’étape.
Le paysage moléculaire dans les premiers instants d’une réaction : la propagation d’un séisme moléculaire
Dans les premiers instants qui suivent la perturbation (dissociation de l’oxygène de l’hème, par exemple), les premiers évènements moléculaires resteront localisés à l’environnement proche du site actif. À une discrimination temporelle dans le domaine femtoseconde, correspond donc une discrimination spatiale au sein de la molécule. Il devient ainsi possible de suivre la propagation du changement de conformation au sein de la molécule. Pour donner un ordre de grandeur, celui-ci s’effectue en effet en première approximation à la vitesse d’une onde acoustique ( environ 1200m/s) qui, traduite à l’échelle de la molécule, est 1200x10-12 soit 12 Å par picoseconde. En 100 fs la perturbation initiale est donc essentiellement localisée au site actif. Nous sommes au tout début du séisme moléculaire. En augmentant progressivement le retard de l’impulsion analyse par rapport à l’impulsion dissociation, il est possible de visualiser les chemins de changement conformationnel de la protéine et d’identifier les mouvements associés au fonctionnement de la macromolécule.
Ce simple calcul montre que la spectroscopie femtoseconde se distingue de manière fondamentale des techniques à résolution temporelle plus faible: il ne s’agit plus d’ obtenir des constantes de réaction avec une meilleur précision, mais l’intérêt majeure des « outils femtosecondes » provient du fait que pour la première fois il est possible de décomposer les évènements à l’origine de ces réactions ou induits par la réaction.
Cette discrimination spatiale associée à une résolution temporelle femtoseconde a un autre intérêt qui est de « simplifier » un système complexe sans avoir à utiliser une approche réductionniste (par coupure chimique) qui peut conduire le biophysicien moléculaire à étudier un sous-ensemble d’un complexe moléculaire dont les propriétés n’auront que peu de choses à voir avec la fonction biologique de l’ensemble.
La compréhension d’un automate moléculaire
Dès le début des années 80, l’approche percussionnelle dans le régime femtoseconde a été développée dans le domaine de la dynamique fonctionnelle des hémoprotéines et en particulier pour l’étude de l’hémoglobine. Cette protéine qui comporte quatre sites de fixation de l’oxygène, les hèmes, est capable d’auto-réguler sa réactivité à l’oxygène : c’est une régulation dite « allostérique ». La régulation allostérique de l’hémoglobine se traduit par le fait que la dissociation ou la liaison d’une molécule d’oxygène entraine une modification d’un facteur 300 de l’affinité des autres hèmes pour l’oxygène. La structure de l’hémoglobine est connue à une résolution atomique à la fois dans l’état ligandé (ou oxyhémoglobine) et dans l’état déligandé (désoxyhémoglobine). De ces travaux on sait que l’hémoglobine possède deux structures stables qui lui confèrent soit une haute affinité (état R) soit une basse affinité (état T) pour l’oxygène. Il s’agissait de déterminer le mécanisme, qui partant de la rupture d’une simple liaison chimique entre oxygène et fer induit un changement conformationel de l’ensemble du tétramère conduisant à distance à une modulation importante de l’affinité des autres sites de liaison.
Le débat de l’époque concernant la transition allostérique dans l’hémoglobine n’avait pas encore décidé du choix entre cause et conséquence au sein de l’édifice moléculaire. Nous connaissions les deux structures à l’équilibre avec une résolution atomique, grâce aux travaux de Max Perutz. Il était connu, même si cela n’était pas encore unanimement admis, que la dissociation de l’oxygène de l’hème entrainait « à terme » un changement conformationnel de ce dernier par déplacement de l’atome de fer en dehors du plan des pyrroles. Deux modèles s’opposaient: ce déplacement était-il la cause ou la conséquence du changement conformationnel impliquant la structure tertiaire et quaternaire de l’hémoglobine ? Dans la première hypothèse, cet évènement était crucial puisque le déclencheur de la communication hème-hème au sein de l’hémoglobine, c’est à dire le processus qui traduisait une perturbation très locale ( rupture d’une liaison chimique en un « basculement » de la structure globale vers un autre état). En discriminant temporellement les évènements consécutifs à la rupture de la liaison ligand-fer, il a été montré que le premier évènement est le déplacement du fer en dehors du plan de l’hème en 300 femtosecondes. Cet événement ultra-rapide constitue une étape cruciale dans la réaction de l’hémoglobine avec l’oxygène. Il contribue à donner à l’hémoglobine les propriétés d’un transporteur d’oxygène en autorisant une communication d’un site de fixation de l’oxygène à un autre. Un événement excessivement fugace et à l’échelle nanoscopique a donc retentissement au niveau des grandes régulations physiologiques : ici l’oxygénation des tissus.
À ce jour, l’essentiel du scénario consécutif à cet événement initial, qui conduit à la communication hème-hème, reste à découvrir. Pour cela il est nécessaire de faire appel à des outils permettant de suivre la propagation de ce « séisme initial » au sein de l’édifice et d’identifier ainsi les mouvements atomiques contribuant au chemin réactionnel. Des nouveaux outils restent à découvrir, certains sont en cours de développement : diffraction RX femtoseconde, spectroscopie infra-rouge dans le domaine THz sont probablement les outils adaptés.
La catalyse enzymatique : la caractérisation des états de transition
Dans son commentaire sur le prix Nobel en « femtochimie », l’éditeur de Nature3 écrit dans le dernier paragraphe : « It seems inevitable that ultrafast change in biological systems will receivre increasing attention ».
Sur quoi se fonde une telle certitude ?
Pour une part, sur une réflexion qui date d’un demi-siècle : celle de Linus Pauling qui était essentiellement de nature théorique. Pauling a proposé que le rôle des enzymes est d’augmenter la probabilité d’obtenir un état conformationnel à haute énergie très fugace ou, en d’autres termes, de stabiliser l’état de transition c’est-à-dire l’état conformationnel conduisant à la catalyse. En d’autres termes, il s’agit d’optimiser l’allure du « peloton » au sommet du Tourmalet. Dans les enzymes comme pour les coureurs, c’est à cet endroit que l’avenir de la réaction se joue, et c’est ici que les enzymes interviennent !
Le préalable à la compréhension du fonctionnement des enzymes est donc la caractérisation des états de transition. Une démonstration expérimentale indirecte a été la production d’anticorps catalytiques- ou abzymes- par Lerner et coll. dans le début des années 80. En effet, suivant le raisonnement de Pauling, les anti-corps « reconnaissent » leur cible épitopique dans leur état fondamental ( c’est à dire au minimum de la surface de potentiel, dans la vallée énergétique) alors que les enzymes reconnaissent leur cible, le substrat, dans son état de transition, au col énergétique. Les anticorps deviendont catalytiques si, produits en réponse à la présence d’une molécule mimant l’état de transition d’un substrat, ils sont mis en présence de ce dernier... : ça marche... plus ou moins bien, mais ceci est une autre histoire.
La caractérisation de cet état de transition est donc un préalable à la compréhension des mécanismes de catalyse mais aussi à la conception d’effecteurs modifiant la réactivité. Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée, l’interprétation des spectres ne pouvant plus être directe, comme dans le cas des molécules diatomiques. La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc, ici aussi, s’attendre à des mouvements dans le domaine femtoseconde.
Il existe une classe d’enzymes pour laquelle la structure de l’état de transition est connue grace à des approches théoriques : ce sont les protéases dont on sait qu’elles favorisent la configuration tétrahédrique du carbone de la liaison peptidique.Cette connaissance de l’état de transition a autorisé une approche rationnelle dans la conception de molécules « candidat-médicament »: les inhibiteurs de protéase. Il n’est donc pas surprenant qu’à ce jour, les seuls médicaments sur le marché -et non des moindres- issus d’une démarche scientifique véritablement rationnelle soient des inhibiteurs de protéases ou de peptidases : inhibiteurs de l’enzyme de conversion (IEC), inhibiteurs de protéase du virus HIV, base de « la tri-thérapie ».
En donnant l’espoir de photographier les états de transition, la femto-biologie ouvre la perspective d’une démarche rationnelle dans la conception d’inhibiteurs spécifiques. Avant qu’une telle possibilité ne soit offerte, il reste néanmoins à surmonter de sérieuses difficultés: le développement d’une méthode plus directe de visulisation des conformations, en particulier par diffraction RX femtoseconde, mais aussi la mise au point de méthodes de synchronisation à l’échelle femtoseconde de réactions enzymatiques au sein d’un cristal.
Filmer les molécules à l’échelle femtoseconde a permis de mettre en évidence un comportement inattendu d’enzymes de la respiration : l’utilisation de mouvements de balancier des atomes au profit d’une grande efficacité de réaction
La vie de tous les organismes aérobies – dont nous sommes – dépendent d’une classe d’enzyme : les oxydases et plus particulièrement pour les eucaryotes, de cytochromes oxydases. Cette enzyme est la seule capable de transférer des électrons à l’oxygène en s’auto-oxydant de manière réversible. Elle est responsable de la consommation de 90 % de l’oxygène de la biosphère.
Un dysfonctionnement de cette enzyme a un effet délétère sur la cellule, en particulier par production du très toxique radical hydroxyle °OH. Au delà d’un certain seuil de production, les systèmes de détoxification sont débordés. Le stress oxydatif qui en résulte peut se traduire par diverses pathologies. On retrouve une telle situation en période post-ischémique dans l’infarctus du myocarde, mais aussi dans des maladies neurodégénératives ou lors du vieillissement.
Cette enzyme catalyse la réduction de l’oxygène en eau à partir d’équivalents réducteur cédés par le cytochrome c soluble. Cette réduction à quatre électrons est couplée à la translocation de quatre protons à travers la membrane mitochondriale. L’oxygène et ses intermédiaires restent liés à un hème (l’hème a3) dans un site très spécifique. Ce site comprend, outre l’heme a3, un atome de cuivre, le CuB. Cet atome joue un rôle important dans le contrôle de l’accès des ligands vers ce site ou vers le milieu. Des ligands diatomiques (O2, NO, CO) peuvent établir des liaisons soit avec le Fer de l’hème a3, soit avec le CuB, mais le site actif parait trop encombré pour accommoder deux ligands.
Des études récentes en dynamique femtoseconde ont permis d’élucider le mécanisme de transfert de ligand (monoxyde de carbone (CO)), de l’hème a3 vers le CuB. Le CO est une molécule de transduction du signal produite en faible quantité par l’organisme, qui inhibe la cytochrome c oxidase par formation d’un complexe heme a3-CO stable. En suivant cette réaction par spectroscopie femtoseconde, il a été possible de mettre en évidence un mécanisme très efficace, et en toute sécurité, de transfert d’une molécule dangereuse pour la vie cellulaire. L’enzyme libère la molécule de CO d’un premier site en lui donnant une impulsion qui oriente sa trajectoire vers le site suivant en la protégeant de collisions avec l’environnement.
Dans ce dernier exemple l’enzyme a atteint un degré de sophistication supplémentaire : outre le franchissement du col énergétique de façon optimale, l’enzyme évite la diffusion d’une molécule dangereuse pour la survie cellulaire, tout en l’utilisant comme messager très efficace !
Vers le décloisonnement des disciplines
Le cinema moléculaire n’en est qu’à ses débuts. Il est essentiellement muet. La filmothèque est à peine embryonnaire, le nombre de plan-séquences ne permet pas encore de révéler un véritable scénario. L’essentiel est donc à venir.
Reconstruire le film des évènements conduisant à la vie cellulaire, les intégrés dans des schémas fonctionnels, va donc constituer l’objectif des prochaines décennies.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie de la cellule ou des organes. Le transfert des outils de la physique, et au-delà, l’invention de nouveaux outils, y compris moléculaires, l’émergence de nouveaux concepts, va nécessiter le développement de synergies entre acteurs évoluant jusqu’ici dans des sphères disjointes : biologistes cellulaire et moléculaire, physiciens, chimistes, bioinformaticiens… Dans ce cadre il sera utile de créer les conditions permettant de rassembler en un seul site, l’ensemble des compétences.
1 Femtoseconde : le milliardième de millionième de seconde.
2 Picoseconde : millioniène de millionième de seconde = 1000 femtosecondes.
3 Vol 401,p. 626,14 octobre 1999.

 

VIDEO       CANAL  U         LIEN

 

 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
 

SAHARA ET AMAZONIE

 


Comment le sable du Sahara fertilise la forêt amazonienne


Malgré les milliers de kilomètres qui les séparent, le désert du Sahara et la forêt amazonienne sont liés : chaque année, un cycle naturel transporte du continent africain au continent sud-américain des millions de tonnes de sable. Un apport dont a besoin la plus grande forêt équatoriale du monde pour s'épanouir.
Le 27/02/2015 à 09:35 - Par Andréa Haug, Futura-Sciences

Chaque année, 22.000 tonnes de phosphore contenues dans du sable du Sahara traversent l'océan Atlantique pour atterrir en Amazonie, rapporte une étude états-unienne parue dans la revue Geophysical Research Letters. Il s'agit de la première quantification du transport transatlantique de cet élément chimique sur plus de 4.000 km, de l'Afrique vers l'Amérique du Sud.
Parce qu'elle se développe sur un sol pauvre, la forêt amazonienne voit sa productivité limitée par la disponibilité des nutriments comme le phosphore. En outre, les fortes précipitations accentuent chaque année la privation des sols de ces éléments.
Dans son analyse basée sur des données recueillies entre 2007 et 2013 par le satellite de télédétection CALIPSO (Cloud Aerosol Lidar and Infrared Pathfinder Satellite Observations) et le satellite radar CloudSat, l'équipe de chercheurs estime que ces pertes en phosphore sont compensées par les dépôts naturels de poussières.
Celles en provenance de la dépression du Bodélé, située dans le centre sud du désert du Sahara, dans le nord du Tchad, présente un intérêt particulier : cet ancien lit lacustre contient d'énormes dépôts de micro-organismes morts chargés en phosphore. Selon les scientifiques, le sable est soulevé sous l’emprise de tempêtes de sable jusque dans la haute atmosphère, puis il est acheminé en Amazonie grâce aux courants aériens.

La poussière influence le climat et réciproquement
Sur la période observée, la tendance est très variable. Les chercheurs ont en effet noté jusqu'à 86 % d'écart entre la quantité la plus haute (2007) et la plus faible (2011) de sable naturellement charrié. Les précipitations pourraient expliquer cette variation. Deux hypothèses sont possibles : soit les pluies favorisent la pousse de la végétation qui réduit l'érosion des sols, soit la quantité de poussières est liée aux modes de circulation des vents.
« Nous savons que la poussière est très importante à bien des égards », déclare l'auteur principal de l'étude, Hongbin Yu, chercheur au centre de vols spatiaux Goddard de la Nasa, à Greenbelt et à l'université du Maryland, à College Park (États-Unis). « C'est une composante essentielle du système Terre. La poussière aura une incidence sur le climat et, en même temps, le changement climatique aura une incidence sur la poussière », poursuit-il.
Le phosphore ne représente que 0,08 % des 27,7 millions de tonnes annuelles de « poussière migratrice ». D'autres éléments comme le potassium, le calcium ou le magnésium sont donc supposés faire partie du voyage. Cette première estimation enrichit les connaissances sur le comportement et le rôle de la poussière dans l'environnement et sur ses effets sur le climat.


DOCUMENT       futura-sciences.com     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google