|
|
|
|
|
|
ATOMES ER LASERS |
|
|
|
|
|
Texte de la 211e conférence de l’Université de tous les savoirs donnée le 29 juillet 2000.
La vie des molécules biologiques en temps réel : Laser et dynamique des protéines
par Jean-Louis Martin
En aval des recherches autour des génomes, alors que le catalogue des possibles géniques et protéiques est en voie d’achèvement, nous sommes entrés dans l’ère fonctionnelle qui doit nous conduire à comprendre comment toutes les molécules répertoriées interviennent pour « faire la vie ». Le profit qui sera fait de cette masse d’informations, dépend de notre capacité à intégrer ces données moléculaires dans des schémas fonctionnels sous-tendant la constitution et l’activité des cellules voire des organes et des organismes.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie des systèmes intégrés.
Au niveau cellulaire, l’approche fonctionnelle est déjà très avancée, en partie parce qu’elle s’appuie sur des compétences, des technologies et des concepts, largement communs à ceux développés par la génétique et la biologie moléculaire. Elle est toutefois, à ce jour, encore loin d’aboutir à une mise en cohérence du rôle fonctionnel des différents acteurs dont elle identifie le rôle au sein de la cellule : récepteurs, canaux ioniques, messagers, second messagers… Les progrès dans ce domaine vont être intimement liés à notre capacité à développer des outils autorisant à la fois un suivi in situ des différents acteurs, et une manipulation à l’échelle de la molécule.
Les développements technologiques spectaculaires dans le domaine des lasers impulsionnels a déjà permis le développement d’une nouvelle microscopie en trois dimensions : la microscopie confocale non linéaire. Associée à la construction de protéines chimères fluorescentes, cet outil a déjà permis de progresser significativement dans la localisation d’une cible protéique ou dans l’identification de voies de trafic intracellulaire.
Cependant, le décryptage in situ et in vivo du rôle fonctionnel des différents acteurs, en particulier protéique, ou plus encore, la compréhension des mécanismes sous-jacents, constituent des défis que peu d’équipes dans le monde ont relevés à ce jour. Il s’agit ici d’associer des techniques permettant de donner un sens à une cascade d’évènements qui s’échelonnent sur des échelles de temps allant de la centaine de femtoseconde1 à plusieurs milliers de secondes.
Le fonctionnement des protéines en temps réel
Le fonctionnement des macromolécules biologiques – protéines, acides nucléiques – est intimement lié à leur capacité à modifier leurs configurations spatiales lors de leur interaction avec des entités spécifiques de l’environnement, y compris avec d’autres macromolécules. Le passage d’une configuration à une autre requiert en général de faibles variations d’énergie, ce qui autorise une grande sensibilité aux variations des paramètres de l’environnement, associée à une dynamique interne des macromolécules biologiques s’exprimant sur un vaste domaine temporel.
Dans une première approche, on peut considérer qu’une vitesse de réaction biologique est la résultante du « produit » de deux termes: une dynamique intrinsèque des atomes et une probabilité de transition électronique. C’est en général ce dernier facteur de probabilité qui limite la vitesse d’une réaction. Une réaction biochimique est généralement lente non pas comme conséquence d’évènements intrinsèquement lents, mais comme le résultat d’une faible probabilité avec laquelle certains de ces évènements moléculaires peuvent se produire.
Plus précisément, une réaction biologique qui implique, par exemple, une rupture ou une formation de liaison, est tributaire de deux classes d’évènement : d’une part un déplacement relatif des noyaux des atomes et d’autre part une redistribution d’électrons parmi différentes orbitales. Ces deux catégories d’évènements s’expriment sur des échelles de temps qui leur sont propres et qui dépendent de la structure électronique et des masses atomiques des éléments constituant la molécule. Ainsi la dynamique des atomes autour de leur position d’équilibre est, en première approximation, celle d’oscillateurs harmoniques faits de masses ponctuelles couplées par des forces de rappels. Dans le cas des macromolécules biologiques, les milliers d’atomes que comporte le système évoluent sur une hyper-surface d’énergie dont la dimension est déterminée par le nombre de degrés de liberté de l’ensemble du complexe.
Le « travail » que doit effectuer une protéine est de nature très variée : catalyse dans le cas des enzymes, transduction de signal dans le cas de récepteurs, transfert de charges de site à site, transport de substances … mais il existe une caractéristique commune dans le fonctionnement de ces protéines : la sélection de chemins réactionnels spécifiques au sein de cette surface de potentiel. À l’évidence le système biologique n’explore pas l’ensemble de l’espace conformationnel : le coût entropique serait fatal à la réaction… et à l’organisme qui l’héberge.
L’identification de ce chemin réactionnel au sein de l’édifice constitue l’objectif essentiel des expériences de femto-biologie.
L’approche expérimentale : produire un séisme moléculaire et le suivre par stroboscopie laser femtoseconde
Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée.
Comment réussir à caractériser la dynamique conduisant à une conformation intermédiaire qui est elle-même à la fois très fugace et peu probable ?
La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc s’attendre à des mouvements dans les domaines femtoseconde et picoseconde2. Pour espérer avoir quelques succès dans cette investigation, il est par ailleurs impératif d’utiliser un système moléculaire accessible à la fois à l’expérimentation et à la simulation, la signature spectrale de la dynamique des protéines n’apportant que des informations indirectes. De plus, la réaction étudiée doit pouvoir être induite de manière « synchrone » pour un ensemble de molécules. Il est donc nécessaire de perturber de manière physiologique un ensemble moléculaire dans une échelle de temps plus courte que celle des mouvements internes les plus rapides, donc avec une impulsion femtoseconde.
Cette approche « percussionnelle » est commune à la plupart des domaines de recherche utilisant des impulsions femtosecondes. La biologie ne se distingue sur ce point, que dans l’adaptation de la perturbation optique pour en faire une perturbation physiologique. Le problème est naturellement résolu dans le cas des photorécepteurs pour lesquels le photon est « l’entrée » naturelle du système. Ceci explique les nombreux travaux en photosynthèse : transfert d’électron dans les centres réactionnels bactériens, transfert d’énergie au sein d’antennes collectrices de lumière dans les bactéries, mais aussi les études transferts de charges au sein d’enzyme de réparation de l’ADN ou responsable de la synchronisation des rythmes biologiques avec la lumière solaire, ainsi que les travaux sur les premières étapes de la vision dans la rhodopsine.
Il existe par ailleurs des situations favorables où la protéine comporte un cofacteur optiquement actif qui peut servir de déclencheur interne d’une réaction: c’est la cas des hémoprotéines comme l’hémoglobine que l’on trouve dans les globules rouges ou les enzymes impliquées dans la respiration des cellules comme la cytochrome oxydase. Dans ces hémoprotéines il est possible de rompre la liaison du ligand (oxygène, NO ou CO) avec son site d’ancrage dans la moléculen par une impulsion lumineuse femtoseconde.On se rapproche ici des conditions physiologiques, la transition optique permettant de placer le site actif de l’hémoprotéine dans un état instable entrainant la rupture de la liaison site actif-ligand en moins de 50 femtosecondes. Cette méthode aboutit à la synchronisation de l’ensemble des réactions d’un grand nombre de molécules. Il est alors possible de suivre leur comportement pendant la réaction et d’identifier les changements de conformation lors du passage des cols énergétiques. On peut faire une analogie sportive : en suivant l’évolution de la vitesse d’un « peloton » de coureurs cyclistes lors d’une étape du tour de France, on peut retracer le profil de cols et de vallées de l’étape, à condition que les coureurs partent au même instant. Pour un « peloton » de molécules, c’est le Laser femtoseconde qui joue le rôle du « starter » de l’étape.
Le paysage moléculaire dans les premiers instants d’une réaction : la propagation d’un séisme moléculaire
Dans les premiers instants qui suivent la perturbation (dissociation de l’oxygène de l’hème, par exemple), les premiers évènements moléculaires resteront localisés à l’environnement proche du site actif. À une discrimination temporelle dans le domaine femtoseconde, correspond donc une discrimination spatiale au sein de la molécule. Il devient ainsi possible de suivre la propagation du changement de conformation au sein de la molécule. Pour donner un ordre de grandeur, celui-ci s’effectue en effet en première approximation à la vitesse d’une onde acoustique ( environ 1200m/s) qui, traduite à l’échelle de la molécule, est 1200x10-12 soit 12 Å par picoseconde. En 100 fs la perturbation initiale est donc essentiellement localisée au site actif. Nous sommes au tout début du séisme moléculaire. En augmentant progressivement le retard de l’impulsion analyse par rapport à l’impulsion dissociation, il est possible de visualiser les chemins de changement conformationnel de la protéine et d’identifier les mouvements associés au fonctionnement de la macromolécule.
Ce simple calcul montre que la spectroscopie femtoseconde se distingue de manière fondamentale des techniques à résolution temporelle plus faible: il ne s’agit plus d’ obtenir des constantes de réaction avec une meilleur précision, mais l’intérêt majeure des « outils femtosecondes » provient du fait que pour la première fois il est possible de décomposer les évènements à l’origine de ces réactions ou induits par la réaction.
Cette discrimination spatiale associée à une résolution temporelle femtoseconde a un autre intérêt qui est de « simplifier » un système complexe sans avoir à utiliser une approche réductionniste (par coupure chimique) qui peut conduire le biophysicien moléculaire à étudier un sous-ensemble d’un complexe moléculaire dont les propriétés n’auront que peu de choses à voir avec la fonction biologique de l’ensemble.
La compréhension d’un automate moléculaire
Dès le début des années 80, l’approche percussionnelle dans le régime femtoseconde a été développée dans le domaine de la dynamique fonctionnelle des hémoprotéines et en particulier pour l’étude de l’hémoglobine. Cette protéine qui comporte quatre sites de fixation de l’oxygène, les hèmes, est capable d’auto-réguler sa réactivité à l’oxygène : c’est une régulation dite « allostérique ». La régulation allostérique de l’hémoglobine se traduit par le fait que la dissociation ou la liaison d’une molécule d’oxygène entraine une modification d’un facteur 300 de l’affinité des autres hèmes pour l’oxygène. La structure de l’hémoglobine est connue à une résolution atomique à la fois dans l’état ligandé (ou oxyhémoglobine) et dans l’état déligandé (désoxyhémoglobine). De ces travaux on sait que l’hémoglobine possède deux structures stables qui lui confèrent soit une haute affinité (état R) soit une basse affinité (état T) pour l’oxygène. Il s’agissait de déterminer le mécanisme, qui partant de la rupture d’une simple liaison chimique entre oxygène et fer induit un changement conformationel de l’ensemble du tétramère conduisant à distance à une modulation importante de l’affinité des autres sites de liaison.
Le débat de l’époque concernant la transition allostérique dans l’hémoglobine n’avait pas encore décidé du choix entre cause et conséquence au sein de l’édifice moléculaire. Nous connaissions les deux structures à l’équilibre avec une résolution atomique, grâce aux travaux de Max Perutz. Il était connu, même si cela n’était pas encore unanimement admis, que la dissociation de l’oxygène de l’hème entrainait « à terme » un changement conformationnel de ce dernier par déplacement de l’atome de fer en dehors du plan des pyrroles. Deux modèles s’opposaient: ce déplacement était-il la cause ou la conséquence du changement conformationnel impliquant la structure tertiaire et quaternaire de l’hémoglobine ? Dans la première hypothèse, cet évènement était crucial puisque le déclencheur de la communication hème-hème au sein de l’hémoglobine, c’est à dire le processus qui traduisait une perturbation très locale ( rupture d’une liaison chimique en un « basculement » de la structure globale vers un autre état). En discriminant temporellement les évènements consécutifs à la rupture de la liaison ligand-fer, il a été montré que le premier évènement est le déplacement du fer en dehors du plan de l’hème en 300 femtosecondes. Cet événement ultra-rapide constitue une étape cruciale dans la réaction de l’hémoglobine avec l’oxygène. Il contribue à donner à l’hémoglobine les propriétés d’un transporteur d’oxygène en autorisant une communication d’un site de fixation de l’oxygène à un autre. Un événement excessivement fugace et à l’échelle nanoscopique a donc retentissement au niveau des grandes régulations physiologiques : ici l’oxygénation des tissus.
À ce jour, l’essentiel du scénario consécutif à cet événement initial, qui conduit à la communication hème-hème, reste à découvrir. Pour cela il est nécessaire de faire appel à des outils permettant de suivre la propagation de ce « séisme initial » au sein de l’édifice et d’identifier ainsi les mouvements atomiques contribuant au chemin réactionnel. Des nouveaux outils restent à découvrir, certains sont en cours de développement : diffraction RX femtoseconde, spectroscopie infra-rouge dans le domaine THz sont probablement les outils adaptés.
La catalyse enzymatique : la caractérisation des états de transition
Dans son commentaire sur le prix Nobel en « femtochimie », l’éditeur de Nature3 écrit dans le dernier paragraphe : « It seems inevitable that ultrafast change in biological systems will receivre increasing attention ».
Sur quoi se fonde une telle certitude ?
Pour une part, sur une réflexion qui date d’un demi-siècle : celle de Linus Pauling qui était essentiellement de nature théorique. Pauling a proposé que le rôle des enzymes est d’augmenter la probabilité d’obtenir un état conformationnel à haute énergie très fugace ou, en d’autres termes, de stabiliser l’état de transition c’est-à-dire l’état conformationnel conduisant à la catalyse. En d’autres termes, il s’agit d’optimiser l’allure du « peloton » au sommet du Tourmalet. Dans les enzymes comme pour les coureurs, c’est à cet endroit que l’avenir de la réaction se joue, et c’est ici que les enzymes interviennent !
Le préalable à la compréhension du fonctionnement des enzymes est donc la caractérisation des états de transition. Une démonstration expérimentale indirecte a été la production d’anticorps catalytiques- ou abzymes- par Lerner et coll. dans le début des années 80. En effet, suivant le raisonnement de Pauling, les anti-corps « reconnaissent » leur cible épitopique dans leur état fondamental ( c’est à dire au minimum de la surface de potentiel, dans la vallée énergétique) alors que les enzymes reconnaissent leur cible, le substrat, dans son état de transition, au col énergétique. Les anticorps deviendont catalytiques si, produits en réponse à la présence d’une molécule mimant l’état de transition d’un substrat, ils sont mis en présence de ce dernier... : ça marche... plus ou moins bien, mais ceci est une autre histoire.
La caractérisation de cet état de transition est donc un préalable à la compréhension des mécanismes de catalyse mais aussi à la conception d’effecteurs modifiant la réactivité. Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée, l’interprétation des spectres ne pouvant plus être directe, comme dans le cas des molécules diatomiques. La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc, ici aussi, s’attendre à des mouvements dans le domaine femtoseconde.
Il existe une classe d’enzymes pour laquelle la structure de l’état de transition est connue grace à des approches théoriques : ce sont les protéases dont on sait qu’elles favorisent la configuration tétrahédrique du carbone de la liaison peptidique.Cette connaissance de l’état de transition a autorisé une approche rationnelle dans la conception de molécules « candidat-médicament »: les inhibiteurs de protéase. Il n’est donc pas surprenant qu’à ce jour, les seuls médicaments sur le marché -et non des moindres- issus d’une démarche scientifique véritablement rationnelle soient des inhibiteurs de protéases ou de peptidases : inhibiteurs de l’enzyme de conversion (IEC), inhibiteurs de protéase du virus HIV, base de « la tri-thérapie ».
En donnant l’espoir de photographier les états de transition, la femto-biologie ouvre la perspective d’une démarche rationnelle dans la conception d’inhibiteurs spécifiques. Avant qu’une telle possibilité ne soit offerte, il reste néanmoins à surmonter de sérieuses difficultés: le développement d’une méthode plus directe de visulisation des conformations, en particulier par diffraction RX femtoseconde, mais aussi la mise au point de méthodes de synchronisation à l’échelle femtoseconde de réactions enzymatiques au sein d’un cristal.
Filmer les molécules à l’échelle femtoseconde a permis de mettre en évidence un comportement inattendu d’enzymes de la respiration : l’utilisation de mouvements de balancier des atomes au profit d’une grande efficacité de réaction
La vie de tous les organismes aérobies – dont nous sommes – dépendent d’une classe d’enzyme : les oxydases et plus particulièrement pour les eucaryotes, de cytochromes oxydases. Cette enzyme est la seule capable de transférer des électrons à l’oxygène en s’auto-oxydant de manière réversible. Elle est responsable de la consommation de 90 % de l’oxygène de la biosphère.
Un dysfonctionnement de cette enzyme a un effet délétère sur la cellule, en particulier par production du très toxique radical hydroxyle °OH. Au delà d’un certain seuil de production, les systèmes de détoxification sont débordés. Le stress oxydatif qui en résulte peut se traduire par diverses pathologies. On retrouve une telle situation en période post-ischémique dans l’infarctus du myocarde, mais aussi dans des maladies neurodégénératives ou lors du vieillissement.
Cette enzyme catalyse la réduction de l’oxygène en eau à partir d’équivalents réducteur cédés par le cytochrome c soluble. Cette réduction à quatre électrons est couplée à la translocation de quatre protons à travers la membrane mitochondriale. L’oxygène et ses intermédiaires restent liés à un hème (l’hème a3) dans un site très spécifique. Ce site comprend, outre l’heme a3, un atome de cuivre, le CuB. Cet atome joue un rôle important dans le contrôle de l’accès des ligands vers ce site ou vers le milieu. Des ligands diatomiques (O2, NO, CO) peuvent établir des liaisons soit avec le Fer de l’hème a3, soit avec le CuB, mais le site actif parait trop encombré pour accommoder deux ligands.
Des études récentes en dynamique femtoseconde ont permis d’élucider le mécanisme de transfert de ligand (monoxyde de carbone (CO)), de l’hème a3 vers le CuB. Le CO est une molécule de transduction du signal produite en faible quantité par l’organisme, qui inhibe la cytochrome c oxidase par formation d’un complexe heme a3-CO stable. En suivant cette réaction par spectroscopie femtoseconde, il a été possible de mettre en évidence un mécanisme très efficace, et en toute sécurité, de transfert d’une molécule dangereuse pour la vie cellulaire. L’enzyme libère la molécule de CO d’un premier site en lui donnant une impulsion qui oriente sa trajectoire vers le site suivant en la protégeant de collisions avec l’environnement.
Dans ce dernier exemple l’enzyme a atteint un degré de sophistication supplémentaire : outre le franchissement du col énergétique de façon optimale, l’enzyme évite la diffusion d’une molécule dangereuse pour la survie cellulaire, tout en l’utilisant comme messager très efficace !
Vers le décloisonnement des disciplines
Le cinema moléculaire n’en est qu’à ses débuts. Il est essentiellement muet. La filmothèque est à peine embryonnaire, le nombre de plan-séquences ne permet pas encore de révéler un véritable scénario. L’essentiel est donc à venir.
Reconstruire le film des évènements conduisant à la vie cellulaire, les intégrés dans des schémas fonctionnels, va donc constituer l’objectif des prochaines décennies.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie de la cellule ou des organes. Le transfert des outils de la physique, et au-delà, l’invention de nouveaux outils, y compris moléculaires, l’émergence de nouveaux concepts, va nécessiter le développement de synergies entre acteurs évoluant jusqu’ici dans des sphères disjointes : biologistes cellulaire et moléculaire, physiciens, chimistes, bioinformaticiens… Dans ce cadre il sera utile de créer les conditions permettant de rassembler en un seul site, l’ensemble des compétences.
1 Femtoseconde : le milliardième de millionième de seconde.
2 Picoseconde : millioniène de millionième de seconde = 1000 femtosecondes.
3 Vol 401,p. 626,14 octobre 1999.
VIDEO CANAL U LIEN
( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U ) |
|
|
|
|
|
|
SAHARA ET AMAZONIE |
|
|
|
|
|
Comment le sable du Sahara fertilise la forêt amazonienne
Malgré les milliers de kilomètres qui les séparent, le désert du Sahara et la forêt amazonienne sont liés : chaque année, un cycle naturel transporte du continent africain au continent sud-américain des millions de tonnes de sable. Un apport dont a besoin la plus grande forêt équatoriale du monde pour s'épanouir.
Le 27/02/2015 à 09:35 - Par Andréa Haug, Futura-Sciences
Chaque année, 22.000 tonnes de phosphore contenues dans du sable du Sahara traversent l'océan Atlantique pour atterrir en Amazonie, rapporte une étude états-unienne parue dans la revue Geophysical Research Letters. Il s'agit de la première quantification du transport transatlantique de cet élément chimique sur plus de 4.000 km, de l'Afrique vers l'Amérique du Sud.
Parce qu'elle se développe sur un sol pauvre, la forêt amazonienne voit sa productivité limitée par la disponibilité des nutriments comme le phosphore. En outre, les fortes précipitations accentuent chaque année la privation des sols de ces éléments.
Dans son analyse basée sur des données recueillies entre 2007 et 2013 par le satellite de télédétection CALIPSO (Cloud Aerosol Lidar and Infrared Pathfinder Satellite Observations) et le satellite radar CloudSat, l'équipe de chercheurs estime que ces pertes en phosphore sont compensées par les dépôts naturels de poussières.
Celles en provenance de la dépression du Bodélé, située dans le centre sud du désert du Sahara, dans le nord du Tchad, présente un intérêt particulier : cet ancien lit lacustre contient d'énormes dépôts de micro-organismes morts chargés en phosphore. Selon les scientifiques, le sable est soulevé sous l’emprise de tempêtes de sable jusque dans la haute atmosphère, puis il est acheminé en Amazonie grâce aux courants aériens.
La poussière influence le climat et réciproquement
Sur la période observée, la tendance est très variable. Les chercheurs ont en effet noté jusqu'à 86 % d'écart entre la quantité la plus haute (2007) et la plus faible (2011) de sable naturellement charrié. Les précipitations pourraient expliquer cette variation. Deux hypothèses sont possibles : soit les pluies favorisent la pousse de la végétation qui réduit l'érosion des sols, soit la quantité de poussières est liée aux modes de circulation des vents.
« Nous savons que la poussière est très importante à bien des égards », déclare l'auteur principal de l'étude, Hongbin Yu, chercheur au centre de vols spatiaux Goddard de la Nasa, à Greenbelt et à l'université du Maryland, à College Park (États-Unis). « C'est une composante essentielle du système Terre. La poussière aura une incidence sur le climat et, en même temps, le changement climatique aura une incidence sur la poussière », poursuit-il.
Le phosphore ne représente que 0,08 % des 27,7 millions de tonnes annuelles de « poussière migratrice ». D'autres éléments comme le potassium, le calcium ou le magnésium sont donc supposés faire partie du voyage. Cette première estimation enrichit les connaissances sur le comportement et le rôle de la poussière dans l'environnement et sur ses effets sur le climat.
DOCUMENT futura-sciences.com LIEN |
|
|
|
|
|
|
ÉNERGIE LUMINEUSE ... |
|
|
|
|
|
Paris, 19 Janvier 2015
Un gel contractile qui stocke l'énergie lumineuse
Les systèmes vivants ont la capacité de générer des mouvements moléculaires collectifs qui se transfèrent jusqu'à l'échelle macroscopique, comme un muscle qui se contracte par l'action concertée de moteurs protéiques. Afin de reproduire ce phénomène, une équipe de l'Institut Charles Sadron du CNRS menée par Nicolas Giuseppone, professeur à l'université de Strasbourg, a créé un gel de polymères capable de se contracter grâce à des moteurs moléculaires artificiels. Activés par la lumière, ces moteurs nanométriques enroulent les chaînes de polymères du gel qui se contracte alors sur plusieurs centimètres. Autre atout : ce nouveau matériau parvient à stocker l'énergie lumineuse absorbée. Cette étude est publiée dans Nature Nanotechnology le 19 janvier 2015.
En biologie, les moteurs moléculaires sont des assemblages protéiques très complexes capables de fournir un travail en consommant de l'énergie : ils participent aux fonctions essentielles du vivant comme la copie de l'ADN, la synthèse des protéines, et sont à l'origine de tous les processus de mouvement. Pris individuellement, ces moteurs ne fonctionnent que sur des distances de l'ordre du nanomètre. Mais en s'associant par millions, ils peuvent travailler de manière parfaitement coordonnée et leur action peut se répercuter à l'échelle macroscopique.
Depuis des dizaines d'années, les chimistes cherchent à produire ce type de mouvements à partir de moteurs artificiels. Pour y parvenir, les chercheurs de l'Institut Charles Sadron ont remplacé les points de réticulation d'un gel, qui raccordent les chaînes de polymères entre elles, par des moteurs moléculaires rotatifs, constitués de deux parties qui peuvent tourner l'une par rapport à l'autre si on leur fournit de l'énergie. Pour la première fois, ils ont réussi à faire fonctionner ces moteurs de façon coordonnée et pérenne dans le temps, jusqu'à l'échelle macroscopique : dès que les moteurs sont activés par la lumière, ils enroulent les chaînes de polymères du gel sur elles-mêmes ce qui a pour effet de le contracter.
De la même façon que les systèmes vivants, ces moteurs consomment de l'énergie pour produire un mouvement continu. Cette énergie lumineuse n'est cependant pas totalement dissipée : elle est transformée en énergie mécanique, par l'intermédiaire de l'enroulement des chaînes de polymères, et stockée dans le gel. Si le matériau est exposé de manière prolongée à la lumière, la quantité d'énergie contenue dans la contraction des chaînes de polymères devient très importante, allant jusqu'à provoquer une violente rupture du gel. Les chercheurs de l'Institut Charles Sadron cherchent donc, désormais, à tirer parti de cette nouvelle forme de stockage de l'énergie lumineuse, et à la réutiliser de façon contrôlée.
Ces travaux ont bénéficié du soutien financier de l'ERC et de l'ANR.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
LES MÉTAMATERIAUX |
|
|
|
|
|
Méta-matériaux : L'invisibilité est en vue !
Rendre un objet invisible et concevoir une cape d'invisibilité comme celle portée par Harry Potter, deux rêves réservés aux amateurs de science fiction ? Plus vraiment, si l'on en croit une étude parue la semaine dernière dans l'édition en ligne de la revue Science…
Le 29/05/2006 à 17:00 - Par Christophe Olry, Futura-Sciences
23 commentaires RÉAGIR
AddThis Button BEGIN
L'invisibilité est en vue !
(Courtesy of James Davenport)
Quand la lumière "coule" autour des objets
Des chercheurs britanniques et américains avancent qu'en théorie il est désormais possible de concevoir une barrière d'invisibilité, permettant de soustraire tout objet à la vue. Cette cape d'invisibilité, ou plutôt ce bouclier d'invisibilité, étant donnée la largeur que devraient accuser les premiers prototypes, ferait dévier les rayons lumineux, de façon à ce qu'ils s'incurvent suffisamment pour éviter l'objet qu'elle dissimulerait : « C'est un peu comme si vous ouvriez un trou dans l'espace », explique David R.Smith, de la Duke's Pratt School. En théorie, la lumière « coulerait » le long de l'objet protégé par le bouclier et épouserait ses formes comme de l'eau autour d'un rocher, pour ensuite reprendre son courant « normal » en aval. Ainsi, non atteint par la lumière, l'objet deviendrait invisible.
Mais, en quoi pourraient bien être fabriqués cette cape et ce bouclier, pour qu'ils incurvent suffisamment la trajectoire de la lumière ? En méta-matériaux, des composites artificiels que l'on ne trouve pas dans la nature, explique les chercheurs.
Un modèle de déviation de la lumière, laissant apparaître un "trou d'invisibilité" dans lequel serait susceptible de se cacher un objet
(Courtesy of Leonhardt)
Les méta-matériaux
Les rayons lumineux sont déviés dès qu'ils passent d'un milieu à un autre dont l'indice de réfraction diffère. Mais dévier suffisamment la lumière pour qu'elle évite complètement une région de l'espace, tout en reprenant en aval son cours normal, est un vrai défi. Néanmoins, les méta-matériaux ont permis aux scientifiques de faire de grands progrès dans ce sens. Ces méta-matériaux sont composés de plusieurs couches d'une matrice en fibre de verre, empilées les unes sur les autres, entre lesquelles sont insérés des anneaux métalliques. Soumis à un champ électromagnétique ou à de la lumière, les méta-matériaux réagissent en induisant un champ magnétique interne, et peuvent modifier la course des rayons lumineux. En outre, ils sont même capables de présenter des indices de réfraction « négatifs » !
Les équipes de recherche dirigées par Ulf Leonhardt (université de St Andrews, Ecosse) et de John Pendry (Imperial College, Londres) ont montré que, en théorie, des méta-matériaux pourraient faire « couler » la lumière autour d'un objet donné, et être utilisés pour construire des boucliers d'invisibilité. Néanmoins, ces systèmes ne pourraient dissimuler des objets qu'aux longueurs d'ondes correspondant à la taille des composants des méta-matériaux. Aussi, pour concevoir une cape fonctionnant dans le champ visible, il conviendrait de la « tisser » aux échelles microscopique et nanoscopique. Cependant, les chercheurs pensent pouvoir contourner le problème en entourant le « trou d'invisibilité » d'un matériau à haut indice de réfraction.
Un premier prototype de bouclier d'invisibilité, fonctionnant dans les micro-ondes, devrait être présenté dans 18 mois. Nul doute que les "moldus" seront nombreux à assister à cet événement… Comme quoi, se rendre invisible comme Harry Potter, ce n'est peut-être pas sorcier !
DOCUMENT futura-sciences.com LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante |
|
|
|
|
|
|