ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

UN LIVRE ENTIER STOCKÉ DANS L'ADN

 

Un livre entier stocké dans l'ADN
Denis Delbecq dans mensuel 468


Le contenu d'un livre de 300 pages a été stocké sous forme de fragments d'ADN par une équipe américaine. La molécule support de l'hérédité remplacera-t-elle un jour les disques durs ?
Sa densité de stockage est très largement supérieure à ce qu'offrent les disques durs, les clés USB ou les DVD. Pas de trace de silicium, de magnétisme ou de laser, pourtant, dans ce dispositif. C'est dans une molécule d'ADN, support de l'hérédité, que pour la première fois une équipe américaine est parvenue à stocker le contenu d'un livre de 300 pages, illustrations comprises [1]. Le texte - un essai sur la biologie de synthèse écrit par le directeur de l'équipe lui-même - a une petite taille en regard de ce que l'on peut stocker dans un ordinateur : 650 kilo-octets, l'équivalent d'une dizaine de fichiers de traitement de texte.

Mais c'est un tour de force que viennent néanmoins de réaliser George Church et ses collaborateurs de l'université Harvard. Ces derniers ont traduit l'ouvrage en langage informatique, l'ont transposé en code génétique puis ont fabriqué des brins d'ADN correspondants. Une simple machine de séquençage, utilisée pour décrypter le génome humain, a alors suffi pour décoder le contenu... et reconstituer le livre [2].

Pionnier en génétique
George Church n'est pas un inconnu. Ce pionnier du séquençage automatique des gènes fut aussi l'un des artisans du Projet génome humain, la coopération internationale qui publia, en 2001, le premier décryptage d'un ADN humain entier. À l'époque, il avait fallu treize ans d'efforts et des centaines de millions de dollars pour décoder la molécule. Aujourd'hui, les machines de séquençage de dernière génération font la même chose en une journée pour un millier de dollars (800 euros). Et les techniques de synthèse de molécules d'ADN ont elles aussi fait des pas de géant. De là à envisager de stocker des données numériques dans l'ADN, il n'y avait donc qu'un pas. La chose, d'ailleurs, avait déjà été faite.

Dès 1994, le mathématicien américain Leonard Adleman avait démontré l'intérêt d'une analogie entre biologie et informatique en réalisant des calculs avec des brins d'ADN de synthèse [3]. Il avait été précédé, six ans plus tôt, par l'artiste américain Joe Davis, qui avait codé - avec la complicité d'une biologiste - les 35 bits* d'un petit dessin dans l'ADN de micro-organismes. En 2010, enfin, l'institut Craig Venter avait produit des bactéries dotées d'un génome fabriqué de toutes pièces, à partir des informations d'une banque génétique [4]. L'équipe avait signé son travail en insérant dans cet ADN de synthèse un code long de 7 920 bits, représentant notamment un numéro de série, une adresse Internet et la liste des auteurs. Cette fois, avec un texte qui « pèse » 5,2 millions de bits, George Church met la barre très haut... tout en assurant la promotion de la version papier de l'ouvrage qu'il vient de publier.

Pour parvenir à ce résultat, le groupe de Harvard a procédé par étapes. Les 53 426 mots et les 11 illustrations du livre ont d'abord été représentés sous une forme binaire, une succession de 0 et de 1 comme dans n'importe quelle mémoire informatique. Chaque lettre de l'alphabet était codée par une suite de 8 bits. Puis ces « mots » ont été traduits - virtuellement - selon le code de l'ADN. Ce dernier repose sur une suite de molécules, des « nucléotides » de quatre sortes nommés adénine (A), guanine (G), cytosine (C) et thymine (T). Ainsi, chaque « 0 » a indifféremment été codé par un nucléotide A ou C et chaque « 1 » a été représenté par une molécule T ou G. « Nous aurions pu affecter une valeur différente à chaque nucléotide et doubler la densité de stockage, précise Sriram Kosuri, coauteur des travaux, avec George Church et Yuan Gao. Mais nous avons choisi d'obtenir des molécules plus faciles à décoder. »

Découper les informations
Dans leur alphabet, chaque lettre pouvait être représentée par 256 motifs différents comme « ATGCACAT » ou « CTGACACT » pour le « a ».

Le contenu du livre une fois codé en langage génétique, restait à synthétiser la molécule d'ADN elle-même. Or cette synthèse est d'autant plus difficile que la séquence à coder est grande. Du coup, les biologistes ont découpé leurs millions d'informations élémentaires en 55 000 blocs d'une centaine de nucléotides chacun. Chaque bloc a été identifié par un code-barres unique, lui aussi écrit avec de l'ADN, pour ordonner les informations lors de la lecture. Cette organisation rappelle la manière dont les informations circulent sur Internet, sous forme de petits paquets soigneusement étiquetés. Une fois synthétisés, les brins d'ADN ont été dupliqués par un procédé éprouvé, la réaction en chaîne par polymérase (PCR). Après une semaine d'efforts, le résultat était là : 70 milliards d'exemplaires du livre codés dans de l'ADN, bien à l'abri dans le fond d'une éprouvette.

Mais comment les lire ? « La lecture des données est beaucoup plus simple que l'écriture », souligne Sriram Kosuri. Elle se fait en effet avec un séquenceur automatique, comme n'importe quelle analyse d'ADN, après avoir prélevé 1 % du contenu de l'éprouvette. Grâce à un fort niveau de redondance - chaque bloc d'information est encore présent à plus de 3 000 exemplaires après élimination des séquences incomplètes-, le livre reconstitué ne contient que 10 bits erronés pour les 5,2 millions de bits de départ. Un taux qui pourrait être considérablement amoindri en introduisant, dans chaque bloc, des bits de correction d'erreur comme cela se fait dans les supports informatiques traditionnels.

« Il s'agit d'une vraie preuve de concept d'un stockage d'informations biomoléculaire », commente Jérôme Bonnet, de l'université Stanford (lire ci-dessous). Le procédé ne remplacera jamais les disques durs, ni les CD et DVD réinscriptibles, puisque les brins d'ADN ne sont pas modifiables et que les processus de synthèse et de lecture nécessitent des jours d'efforts. Toutefois, « tout le monde connaît les problèmes d'obsolescence des supports de stockage. Un archivage à long terme sous forme d'ADN prend tout son sens : l'humanité saura encore le décoder dans cinq siècles. De plus, au rythme d'évolution actuel, on peut espérer que les techniques de synthèse et de séquençage auront un jour un coût proche de zéro. » Steve Benner, de la Fondation pour l'évolution moléculaire appliquée, affiche de son côté un fort scepticisme : « Il faut se méfier des extrapolations. Pour le moment, je ne vois pas de perspectives pour ces recherches. Il est difficile de lire et d'écrire l'ADN, et cette molécule est instable. Ces trois problèmes n'ont pas été résolus à ce jour. »

Conservation
Argument que réfute Jérôme Bonnet : « On a pu décoder partiellement le génome de l'homme de Neandertal, répond-il. Cet ADN naturel a été fortement dégradé par de mauvaises conditions environnementales. Mais si on lyophilise les brins et qu'on les conserve à l'abri de la lumière et de l'humidité, il est probable que leur durée de conservation se mesure au moins en centaines d'années. » Sriram Kosuri défend aussi l'idée d'un archivage biomoléculaire, tout en soulignant qu'il faudra des machines « un million de fois plus performantes pour espérer des applications concrètes. Cela correspond aux progrès réalisés au cours des dix dernières années ».

Aujourd'hui, son équipe profite d'une puce du commerce capable de porter 250 000 brins d'ADN, soit cinq fois plus que ce que supporte la puce utilisée pour les premières expériences. « Dans quelques mois, nous approcherons le million de brins », assure le chercheur. Sur le papier, il suffirait d'une dizaine de grammes d'ADN seulement pour stocker l'ensemble des données numériques produites cette année par l'humanité entière.
* LE BIT, contraction de binary unit, est l'unité de mesure d'une quantité d'informations binaires. Il a pour valeur 0 ou 1.
L'ESSENTIEL
- UNE ÉQUIPE de l'université Harvard a stocké sous forme d'ADN un texte de 5,2 millions de bits, à l'aide des outils classiques de la génomique.

- LA MULTIPLICATION des fragments d'ADN codant le texte et leur étiquetage a permis une reconstitution du texte avec un taux d'erreur infime.

- CETTE FORME de mémoire n'est pas réinscriptible mais particulièrement durable.
JÉRÔME BONNET BIO-INGÉNIEUR À L'UNIVERSITÉ STANFORD. /P>«LA CELLULE PEUT ÊTRE PROGRAMMÉE COMME UN ORDINATEUR»
Vous avez conçu une mémoire qui fonctionne dans une bactérie, quel en est le principe ?

J.B. Nous avons créé cette mémoire réinscriptible en intervenant dans le génome d'un micro-organisme. Ainsi, avec des enzymes, nous pouvons inverser -et restaurer- une séquence d'ADN associée à l'expression d'une protéine fluorescente rouge ou verte [1]. Cela correspond à un premier bit de mémoire, et nous travaillons sur le second.

Pourquoi avoir choisi l'ADN ?

J.B. Cela permet d'obtenir une mémoire stable dans la durée, dont l'état est conservé lors des divisions cellulaires. De plus, l'information est conservée sans consommation d'énergie.

À quoi pourraient servir des mémoires vivantes ?

J.B. Si on parvient à augmenter le nombre de bits, nous pourrons réaliser de petits circuits logiques. Nous espérons créer un compteur qui serait incrémenté à chaque division cellulaire. Ainsi, nous pourrions étudier le vieillissement cellulaire ou l'évolution de cellules tumorales. On pourrait aussi transformer des bactéries en détecteurs de substances chimiques pour signaler une pollution ou faire du diagnostic médical. n Propos recueillis par D.Dq

[1] J. Bonnet et al., PNAS, 109, 8884, 2012.


 DOCUMENT      larecherche.fr      LIEN

 
 
 
 

RÉPARATION DE L' A D N

 

Les clés d'un processus majeur de réparation de l'ADN

Des chercheurs de l'Institut Jacques Monod (CNRS/Université Paris Diderot), de l'Institut de biologie de l'ENS (ENS/CNRS/Inserm), et de l'Université de Bristol (Royaume-Uni) ont décrypté, pour la première fois en intégralité, comment l'ADN dégradé par les UV se répare, et quelles sont les différentes protéines impliquées dans ce processus. Leurs travaux, qui ouvrent des perspectives pour la lutte contre les cellules cancéreuses et contre certaines infections bactériennes, sont publiés dans la revue Nature le 3 août 2016.
L'ADN de nos cellules est attaqué en permanence par de nombreux agents extérieurs, comme les molécules cancérigènes contenues dans la fumée de tabac ou les rayons UV émis par le soleil. Non réparées, ces agressions provoquent des mutations qui peuvent favoriser l'apparition de cancers, d'où l'importance d'une réparation rapide et efficace de l'ADN. Pour ce faire, la cellule mobilise toute une série d'enzymes qui doivent agir de façon parfaitement coordonnée pour identifier et réparer les parties abimées de son patrimoine génétique. La complexité de ce processus a pendant longtemps empêché les chercheurs de comprendre quels étaient les mécanismes à l'œuvre.

Grâce au développement des nanotechnologies, une équipe regroupant des biologistes et des physiciens a pu filmer en temps réel des enzymes en train de réparer un ADN abimé. Leur série de travaux a été initiée en 20121, quand l'équipe s'est concentrée sur le début du mécanisme de réparation. Ils présentent aujourd'hui, pour la première fois, le processus de réparation dans son intégralité.

Grâce à un microscope spécialisé, qui permet à la fois de manipuler et d'observer des molécules d'ADN et de protéines, les chercheurs ont observé une molécule d'ADN endommagée par des ultraviolets. Ils y ont ajouté l'ARN polymérase, une enzyme qui normalement « lit » le code de l'ADN afin de débuter l'expression de son information sous forme de protéines, mais qui se « bloque » en cours de lecture lorsqu'elle arrive sur une partie endommagée de l'ADN. C'est grâce à ce blocage de l'ARN polymérase que les réparations sont effectuées. Concrètement, les chercheurs ont pu observer comment une série de protéines (Mfd, UvrA, UvrB puis UvrC) se sont succédé, chacune avec son activité spécifique, et se sont coordonnées entre elles pour interagir avec l'ARN polymérase et réparer l'ADN endommagé par les rayons UV.

En déterminant l'ordre dans lequel ces composantes agissent et en caractérisant la façon dont elles se relaient, ces travaux ont permis d'établir quelles sont les étapes critiques du processus.

Cette découverte pourrait favoriser de nouvelles applications, à la fois dans la lutte contre le cancer et dans celle contre les bactéries. En effet, lorsque les cancers sont résistants aux radiothérapies et chimiothérapies – dont l'effet est d'endommager l'ADN des cellules cancéreuses – c'est que leurs cellules ont justement activé ce mécanisme de réparation de l'ADN. On peut donc envisager de nouvelles pistes pour inhiber aux moments clés les mécanismes nécessaires à cette réparation. De plus, des bactéries comme celle responsable de la tuberculose emploient des protéines très semblables à Mfd pour proliférer. Ainsi, le fait d'avoir identifié comment ces différentes protéines interagissent les unes avec les autres pourrait également être utile dans la lutte contre des bactéries pathogènes.


Pour en savoir plus : Des protéines qui réparent l'ADN, un film de CNRS Images (2012, 7 minutes).

 

 DOCUMENT         cnrs        LIEN

 
 
 
 

« la morphogénèse des virus »

 

« la morphogénèse des virus »
Michel Wurtz dans mensuel 294


Modifier le génome d'un virus et le faire répliquer par une bactérie. Quand Alasdaïr Steven et Michel Wurtz, alors chercheurs au Biozentrum de l'université de Bâle, présentent cette « manip », dans La Recherche, l'idée est révolutionnaire. Désormais les applications de génie génétique, auxquelles ce procédé devenu banal a ouvert la voie, ont supplanté ce type de recherche fondamentale.
La découverte du perpétuel mou-vement des éléments constitutifs de la matière vivante par synthèse et destruction de molécules est l'un des grands acquis des années 1970en biologie. Les bactéries et les virus qui infectent celles-ci les bactériophages représentent alors un modèle de choix étant donné leur relative simplicité et la rapidité de leur multiplication. En 1977, nous avions ainsi décrit la production et l'assemblage de nouveaux virus dans les bactéries infectées. Les résultats ont depuis été affinés et la méthodologie que nous avions mise en oeuvre à l'époque travail pluridisciplinaire génétique-biochimie-microscopie a été appliquée comme prévu à d'autres systèmes.

Quatre évolutions importantes sont intervenues après 1977 qui ont modifié le contexte des recherches dans ce domaine :

- les nouveaux microscopes à haute résolution physique fournissent plus d'informations sur les structures biologiques du spécimen examiné avec moins d'électrons, ce qui permet de moins l'abîmer ;

- l'adoption de méthodes de préparation plus respectueuses de l'environnement physique des structures a aussi contribué à préserver l'objet de l'observation ;

- la mise au point de techniques de congélation des spécimens et l'utilisation de la cryomicroscopie électronique à transmission ou à balayage qui fournit une image numérique ;

- l'apparition d'ordinateurs incomparablement plus performants a permis un traitement de ces images, plus rapide et plus efficace1.

Ces évolutions techniques étaient peu ou prou prévisibles. Il était en revanche difficile d'imaginer que ce qui n'avait été qu'effleuré dans notre article allait devenir une réalité industrielle : l'utilisation de virus pour l'introduction de gènes étrangers dans des bactéries et la fabrication de protéines par cette voie sont désormais la routine en génie génétique...

Le matériel génétique des virus est abrité dans une coque de protéines, la capside. La connaissance des paramètres déterminant l'encapsidation est donc le préalable à toute manipulation. La mise au jour de ces paramètres, que nous présentions en partie dans La Recherche , ont permis de développer des kits qui sont encore commercialisés aujourd'hui par Vector Cloning System par exemple2. Ces kits permettent d'intégrer des fragments d'ADN dans le génome du virus le phage lambda , grâce à la mobilisation d'enzymes dites de restriction, puis d'encapsider le tout in vitro , pour infecter une bactérie Escherichia coli .

Avec le recul, il apparaît que la maîtrise de cette méthode a joué un rôle considérable dans l'avènement du génie génétique ; rôle qui a été reconnu par l'attribution du prix Nobel de médecine en 1978, à Werner Arber, alors professeur au Biozentrum de Bâle. Mais cette méthode n'est plus la seule aujourd'hui pour mettre en oeuvre des gènes étrangers : on utilise également des levures ou même des cellules supérieures.

« C'est [...] anticiper que d'extrapoler ces systèmes à la biogenèse des organes complexes, comme les mitochondries, les membranes biologiques et même les cellules » écrivions-nous en conclusion de notre article. Nous aurions en fait pu anticiper sur certains développements, car la même approche a permis de comprendre la morphogenèse d'autres constituants cellulaires chloroplastes, ribosomes, membranes biologiques. En revanche, l'étude des bactériophages - et de la plupart des virus, VIH excepté -, avec les outils de l'ultracentrifugation et de la microscopie électronique, n'est plus à la mode : bon nombre de laboratoires dans le monde ont abandonné leurs recherches dans ce domaine pour leur préférer les applications du génie génétique3. L'article que j'ai publié en 1992 pour passer en revue les travaux sur la structure des bactériophages peut être considéré comme un chant du cygne...4

En même temps que les applications de ces travaux, dont nous avons été parmi les artisans, naissent les interrogations sur les conséquences économiques, écologiques et sociales. Certaines posent, on le sait, d'épineux problèmes éthiques dont les conséquences ne seront perceptibles que dans l'avenir comme, par exemple, la libération dans l'environnement d'espèces génétiquement modifiées ou la mise en oeuvre de thérapies génétiques.
1 J. Dubochet et al. , « Cryoelectron microscopy of vitrified specimens », in Cryotechniques in Biological Electron Microscopy, R.A. Steinbrecht, K. Zierold, ed., p. 114-131, Springer, Berlin et Heidelberg, 1987.

2 S.M. Rosenberg, « EcoK restriction during packaging of coliphage lambda DNA », Gene, 39, 313, 1985.

3 E. Kellenberger, « History of phage research as viewed by an European », F EMS Microbiology Review, 17 , 7, 1995.

4 M. Wurtz, « Bacteriophage structure », Electron Microscopy Review , 5 , 283, 1992.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

HASARD ET SÉLECTION ...

 


Éloge du hasard et de la sélection


l'origine des formes - dans mensuel n°305 daté janvier 1998 à la page 50 (3229 mots)
La forme d'un être vivant résulte de l'expression d'une instruction génétique : telle est l'hypothèse de travail la plus couramment adoptée en biologie moléculaire. Hélas ! du gène à la protéine, de la protéine à la cellule et de la cellule à l'organisme, une foule d'exemples montre la nécessité d'introduire le hasard dans ce processus ! Le modèle instructionniste a-t-il atteint ses limites ?

En biologie, le concept de forme est défini de manière circulaire à l'aide des concepts d'information in-form-ation et de fonction : on considère d'abord que la fonction d'un organe, d'une cellule ou d'une protéine est une conséquence de sa forme ; ensuite que cette forme est produite par une information qui prend sa source au niveau des gènes. La circularité apparaît - avec les problèmes ! - dès qu'on réalise que cette information est elle-même censée être portée par des formes. Même si le terme « forme » laisse place à ceux, plus habituels en biologie, de « structure » ou de « phénotype », les questions comme celles de la construction des organismes et de leurs constituants, ou de la façon dont ils accomplissent une fonction, concernent toujours l'origine des formes et la nature des interactions entre formes différentes.

Les premières théories susceptibles d'expliquer l'origine d'une forme biologique impliquaient un acte créateur. Ce dernier pouvait être accompli par une entité supérieure ou, ce qui revient à peu près au même, être la conséquence de lois préexistantes à l'objet. Si l'on ajoute le postulat selon lequel les formes sont créées dans leur état définitif fixisme, le problème des formes est définitivement résolu. Il reste alors à se préoccuper de la nature des lois ou de l'acte créateur originel. L'étape ultérieure a été le transformisme, c'est-à-dire l'idée que les formes évoluent après leur création. Dans ce contexte, l'hypothèse de la génération spontanée était d'ailleurs souvent préférée à celle de la création. Les travaux des naturalistes du XVIIIe et du XIXe siècles ont démontré la force explicative du transformisme et des théories de l'évolution. Schématiquement, deux types d'hypothèses peuvent expliquer cette transformation des objets biologiques au cours du temps et l'apparition de systèmes ordonnés : ils reposent sur le principe de l' instruction ou sur celui de la sélection .

Le principe de l'instruction considère qu'un objet biologique, protéine, cellule ou organisme, se modifie en réponse aux instructions émises par un autre objet ou ensemble d'objets. Sur une échelle de temps courte, cette modification permet la construction de l'objet biologique ; sur une échelle de temps plus longue, on parle en général d'évolution de cet objet. Cette conception comporte un certain nombre de corollaires importants. Elle impose notamment un postulat de fixité, de stabilité des systèmes biologiques puisqu'elle sous-entend qu'en l'absence d'instruction le système reste constant1. De plus, l'instruction transmise doit être suffisamment spécifique pour orienter le système d'un état initial vers un état final. Etant donné le grand nombre d'états finaux possibles, ceci requiert la mise en oeuvre de systèmes extrêmement précis de transfert et de déchiffrage de l'information.

Ainsi l'acte d'instruction, d'une certaine façon, s'apparente-t-il à un acte de création, même si l'instruction ne crée pas la matière mais seulement la forme. De plus, l'instruction est seule capable de rompre la fixité « naturelle » du système fig. 1. Au sein des modèles instructionnistes, on retrouve donc la trace des postulats de fixité et de création qui existaient dans les modèles traditionnels ou religieux, ce qui ne va pas, bien sûr, sans soulever de nouveaux problèmes2. En effet, puisque tout objet n'acquiert sa forme qu'en réponse à la forme préexistante d'un autre objet, les modèles instructionnistes, de proche en proche, butent nécessairement sur la question de l'origine du tout premier objet. Par exemple, la question de l'origine de l'organisme est aujourd'hui remplacée par celle de l'origine des gènes, qui reste incomprise. Un problème analogue se pose en physique depuis que l'on a pris conscience que l'Univers a lui aussi une histoire et subit une évolution. Là aussi l'événement créateur le Big Bang a remplacé l'acte créateur.

Qu'en est-il des modèles sélectifs ? Le premier d'entre eux a été proposé de manière détaillée par Darwin et par Wallace, à partir d'idées qui commençaient à faire leur chemin chez les naturalistes pour répondre au problème de l'évolution des espèces et de leur adaptation à des environnements variés. Plus récemment, des modèles sélectifs ont été adoptés en immunologie pour expliquer la capacité de l'organisme à réagir à toutes sortes d'agents étrangers antigènes en fabriquant des anticorps capables de s'y associer avec une forte affinité. Au contraire des modèles instructionnistes, les modèles sélectifs postulent que les systèmes biologiques possèdent une variabilité et une instabilité naturelles. Cette variabilité est aléatoire, au sens où elle n'oriente pas l'organisme vers un état final particulier fig. 1. Les modèles sélectifs ne recourent donc pas à une information et à un ordre préexistants, ni à des systèmes sophistiqués susceptibles de transférer cette information. Au contraire, les variations aléatoires, c'est-à-dire un certain niveau de désordre, préexistent, et les interactions avec l'extérieur ne contiennent pas d'information de forme. Si l'on prend l'exemple caricatural de l'allongement du cou de la girafe au cours de l'évolution, l'interprétation instructionniste considère que la girafe ne change pas, sauf si la hauteur des arbres allonge spécifiquement son cou. Au contraire, l'interprétation sélective postule que la girafe varie spontanément. Les variations favorables seront maintenues par la sélection naturelle, qui n'agit pas directement ni spécifiquement sur la forme du cou : elle est seulement liée à l'accès aux ressources nutritives. De même, dans le cas des anticorps, on sait que la diversité préexiste et fait l'objet d'une sélection, et que ce n'est pas l'antigène qui transmet une instruction de forme moulage à l'anticorps.

La biologie moléculaire est l'étude du fonctionnement des gènes et des mécanismes qui permettent à ce que l'on appelle le programme génétique de se réaliser. Curieusement, si l'évolution des espèces, la génétique des populations ou l'immunologie s'appuient sur des modèles de hasard-sélection, ce n'est pas le cas de la biologie moléculaire. Dans le cadre de cette théorie, seule la structure des gènes subit des variations aléatoires : mutations, recombinaisons, etc. Leur fonctionnement est quant à lui conçu sur le mode de l'instruction. Le dogme central de la biologie moléculaire peut donc se résumer ainsi : le système biologique est stable dans l'inactivité, dans l'attente d' instructions spécifiques, prenant leur source au niveau des gènes, qui le fabriquent et le mobilisent. En termes plus techniques, l'ADN des chromosomes porte les instructions permettant la transcription des ARN messagers, qui portent les instructions nécessaires à la synthèse des protéines, lesquelles déterminent l'état de différenciation cellulaire qui instruit la structure finale de l'organisme.

La conception actuelle de ce programme génétique est intimement liée à la notion de spécificité. Ce sont, en effet, des interactions supposées spécifiques qui permettraient les transferts d'instructions nécessaires à sa réalisation. Ainsi, par exemple, sont fréquemment évoquées l'information spécifique qui oriente la différenciation d'une cellule, celle qui cible une molécule vers un compartiment cellulaire, ou celle, contenue dans une séquence d'acides aminés, qui permet le repliement d'une protéine et son activité. L'information spécifique corres-pond, physiquement, à une reconnaissance exclusive et une interaction entre deux molécules, baptisée stéréospécificité. Dans sa compréhension habituelle, ce mécanisme de reconnaissance moléculaire ne laisse aucune place à la variabilité à cause du caractère univoque de cette reconnaissance entre deux molécules. Il est utile de revenir à la formalisation énoncée par Jacques Monod à propos de la stéréospécificité :

« La formation du complexe stéréospécifique, préludant à l'acte catalytique lui-même, peut donc être considérée comme remplissant à la fois deux fonctions :

1. le choix exclusif d'un substrat, déterminé par sa structure stérique ;

2. la présentation du substrat selon une orientation précise qui limite et spécifie l'effet catalytique des groupes inducteurs.

La notion de complexe stéréospécifique non covalent ne s'applique pas seulement aux enzymes ni même seulement, comme on le verra, aux protéines. Elle est d'une importance centrale pour l'interprétation de tous les phénomènes de choix, de discrimina- tion élective, qui caractérisent les êtres vivants... ». En ce qui concerne les phénomènes de différenciation cellulaire, Jacques Monod ajoute : « Il n'en reste pas moins que la construction d'un tissu ou la différenciation d'un organe, phénomènes macroscopiques, doivent être considérés comme la résultante intégrée d'interactions microscopiques multiples dues à des protéines, et reposant sur leurs propriétés de reconnaissance stéréospécifique... » 3 .

Cette citation, hors de son contexte, ne rend certes pas justice à la richesse de la pensée de Jacques Monod, et ne reflète probablement pas non plus la conception de tous les biologistes moléculaires. Il n'en reste pas moins qu'elle traduit le point de vue le plus répandu et enseigné aujourd'hui. L'intégration de toutes les interactions moléculaires soutient les structures macroscopiques. Autrement dit, les interactions des formes moléculaires déterminent les formes macroscopiques. A un ensemble d'interactions moléculaires ne correspond qu'une seule forme macroscopique, du fait du caractère spécifique de chaque interaction. L'ordre au niveau cellulaire reflète donc directement et mécaniquement l'ordre au niveau moléculaire. Il faut reconnaître que les conséquences de cette théorie en termes de programme de recherche sont particulièrement riches : quel que soit le phénomène étudié, la recherche du gène ou de la protéine sous-jacents, et l'analyse des interactions dans lesquelles il ou elle est impliqué, doit mener à une compréhension pleine et entière.

Face à cet état de fait, il est sans doute nécessaire de réintroduire aujourd'hui, au niveau des molécules, la notion de diversité et les concepts probabilistes de hasard-sélection contenus dans la théorie darwinienne de l'évolution. Ces concepts, bien établis au niveau des populations d'organismes, ont été négligés en première approche au niveau des populations moléculaires. En ce sens, nous soutenons ici une thèse alternative à la conception habituelle fondée sur la stéréospécificité : les interactions moléculaires ne présentent pas de relation exclusive ou spécifique, mais au contraire un caractère extrêmement flou ou dégénéré. Si l'instruction fait ainsi place à l'aléatoire, chaque génome porte le potentiel de produire un grand nombre de structures macroscopiques virtuelles dont une infime fraction est « fonctionnelle ». Le phénotype ou l'individu unique finalement produit, serait alors le résultat d'un processus de sélection qui s'exercerait sur l'ensemble de ces structures potentielles. Autrement dit, chacun d'entre nous n'est pas le seul individu écrit dans ses gènes, mais le plus probable et le plus viable des individus possibles. Notons que la sélection, dans ce contexte, signifie un tri parmi les variations possibles, mais n'implique pas nécessairement une élimination pure et simple des variations ou des interactions inutiles. Il en découle que l'analyse isolée des interactions moléculaires, ou des séquences génétiques, est insuffisante pour expliquer une structure macroscopiqueI.

On considère aujourd'hui que la structure des gènes évolue au hasard, mais que leur langage est déterministe. La biologie moléculaire décrit pourtant un nombre croissant de variantes et d'exceptions aux règles initialement considérées comme formant les bases grammaticales du langage des gènes. Ne serait-il pas plus pertinent, plutôt que de considérer que le langage des gènes est complexe, de considérer que la variabilité aléatoire est indissociable des mécanismes d'expression des gènes et du fonctionnement moléculaire ? De considérer que le langage génétique est dégénéré et que cela ne constitue pas, pour les organismes, un inconvénient mais au contraire un avantage, une source supplémentaire de polymorphisme ?

On peut citer d'innombrables exemples de ce type d' erreurs dans les mécanismes génétiques. Curieusement, on considère tantôt qu'il s'agit d'erreurs sans importance, tantôt que ces variations on ne parle plus d'erreurs sont indispensables à la survie de l'organisme. L'importance des taux d'erreurs observés lors de la synthèse des protéines a déjà été soulignée par Jacques Ninio4. La synthèse de plusieurs protéines à partir d'un seul gène est également documentée, et la variabilité du phénotype associé à un même allèle est bien connue des généticiens. Une vision plus floue du langage des gènes permet d'expliquer pourquoi deux personnes portant la même mutation peuvent être, l'une en bonne santé et l'autre malade, beaucoup plus facilement en tout cas que dans le cadre d'une conception rigide du langage génétique.

En matière d'évolution des animaux par exemple, le potentiel d'adaptation est en grande partie déterminé par la diversité et la taille des populations. En effet, plus une population est grande et variable, plus elle contient de solutions différentes pouvant garantir sa survie. On peut appliquer ces principes aux populations moléculaires. Il est plus facile d'imaginer qu'une protéine puisse découvrir une activité enzymatique si elle constitue une grande population aux formes variables, que si elle forme une population homogène. Les nombres d'individus constituant les « populations moléculaires » sont très élevés. Par exemple, un milliardième de gramme d'une protéine de taille moyenne contient cinquante milliards de molécules. Il reste à admettre que ces populations de macro- molécules contiennent des formes diverses, car il est très difficile aujourd'hui d'observer une macromolécule isolée.

Si l'on introduit cette notion de variation à chaque étape du fonctionnement génétique, chaque génome code un très grand nombre d'individus potentiels et explore donc de façon très large le champ des possibles. Une telle conception de l'information génétique permet de résoudre un des problèmes soulevés par la théorie de l'évolution et classiquement illustré par la fable du singe dactylographe : la probabilité d'obtenir un génome viable au hasard serait la même que celle qu'aurait un singe d'écrire Hamlet en t a pant au hasard sur une machine à écrire. Or cette fa b le sous-entend que le l a ngage des gènes est celui de Shakespeare, c'est-à-dire qu'il s'appuie sur un voca b ulaire et une grammaire très précis. Si l'on considère au contraire que le langage des gènes se distingue par son extrême ambiguïté et la multiplicité des lectures possibles, il faut remplacer la fable du singe-Shakespeare par celle du singe-Nostradamus. Il n'est dès lors plus nécessaire d'invoquer des miracles créateurs : la probabilité pour qu'un lecteur sélectif trouve une signification à un texte confus écrit dans un langage fumeux est pratiquement égale à un...

On peut appliquer ces principes à la différenciation cellulaire, qui est l'un des éléments déterminant la forme finale de l'organisme. Ce phénomène a longtemps été expliqué par des modèles instructionnistes. Pourtant, il est possible de l'expliquer par des modèles de hasard-sélection1,5,6. Dans le cadre des modèles instructionnistes, les cellules reçoivent une information spécifique ou instruction qui provoque une différenciation bien déterminée fig. 2, modèle déterministe.

Cette information est censée être véhiculée par des interactions membranaires, ou bien par des facteurs de différenciation diffusibles. Dans le cadre du paradigme de la spécificité, cette information est absolument nécessaire pour changer l'état de différenciation d'une cellule. Par contre, si l'on renonce à la relation univoque et spécifique entre molécules, il est possible d'expliquer la différenciation sans l'intervention d'un inducteur spécifique. Si à un ensemble d'interactions moléculaires peuvent correspondre plusieurs structures du fait du caractère non spécifique dégénéré de ces relations, dans une population de cellules les différentes structures types cellulaires seront réalisées avec des fréquences dépendant des probabilités de réalisation de chaque structure fig. 2, modèle probabiliste.

Un exemple théorique simple peut être donné pour la transcription des gènes fig. 3. Dans une cellule, une molécule d'un régulateur de la transcription peut activer soit le gène a, soit le gène b, ce choix étant aléatoire. Dans une population de cellules, une fraction des cellules exprimera a et une autre b. La fréquence des phénotypes A et ßI /Iß correspondants dépendra donc de la probabilité d'activation de ces deux gènes. De manière plus générale, si l'on a moins de molécules régulatrices que de gènes régulables, on générera une combinatoire de distributions des régulateurs sur les gènes, chacune correspondant à un ensemble de gènes activés, et donc à un type cellulaire potentiel. MeCP2 fournit un exemple de régulateur de la transcription qui pourrait participer à un tel mécanisme. En effet, il a pour cible le dinucléotide méthyl-CG. Il existe 4.107 copies de cette cible pour seulement 106 molécules de MeCP2 d a ns un noyau de cellule de mammifère. Il est donc peu pro b able que ces molécules soient distribuées de manière identique dans toutes les cellules7. Un tel mécanisme peut générer une grande diversité de types cellulaires sans faire appel à des régulateurs spécifiques. Il permet donc d'expliquer la faible spécificité et l'ubiquité des facteurs de régulation, tels ceux codés par les homéogènes. Il permet également d'expliquer les phénomènes dits de colinéarité, qui correspondent à des corrélations entre la position des gènes dans les chromosomes et leur chronologie d'activation au cours de la différenciation cellulaire1,5,6.

Dans le modèle instructionniste prévalent, il faut expliquer comment une cellule change d'état et se différencie. Au contraire, dans le cas du modèle aléatoire, il faut expliquer comment les cellules stabilisent les phénotypes favorables. En effet, si l'on reprend l'exemple de la figure 3, à chaque fois que le régulateur se dissocie de son site d'interaction a ou b, il pourrait se réassocier de manière aléatoire sur l'autre site, changeant le phénotype cellulaire. La phosphorylation des -régulateurs pourrait permettre une telle stabilisation en modifiant la stabilité des complexes régulateur-ADN. Les enzymes responsables kinases et phosphatases ne requièrent pas de cibles ou d'inducteurs spécifiques dans ce modèle. Elles agissent globalement et rétrospectivement pour stabiliser le système lorsque la bonne combinaison de phénotypes cellulaires est exprimée5,6.

En conclusion, on voit que la forme finale des objets biologiques peut relever de deux types d'explications. Sur le mode de l'instruction, on postule que la forme des protéines découle de la forme des gènes, que la forme des cellules découle de celle des protéines, et que celle des organismes découle de celle des cellules. On retrouve l'idée classique selon laquelle « le tout est la somme des parties », et l'on suppose une hiérarchie de niveaux d'organisation dont les molécules, notamment l'ADN porteur de l'information génétique, forment la base. La biologie moléculaire moderne s'appuie sur cette conception.

Dans ce cas, la nécessité d'une perspective évolutive retraçant l'histoire des organismes est reconnue mais apparaît d'importance secondaire. D'ailleurs l'histoire proposée est en général identique au schéma réductionniste postulé. Autrement dit, la biologie moléculaire instructionniste postule que le petit s'assemble pour faire le gros et que le petit est aussi l'ancêtre du gros. Dans cette extension inconsciente du principe de récapitulation de Haeckel l'ontogenèse résume la phylogenèse, les acides nucléiques, qui seraient au coeur du vivant actuel, constitueraient aussi l'origine passée de la vie. Tout se ramènerait donc à l'ADN ou à l'ARN même si, dans l'histoire de la lutte pour la survie dans le cataclysmique océan primitif, il n'est pas facile de concevoir la victoire des acides nucléiques ribozymes.

Sur le mode du hasard-sélection, l'organisme ne se construit pas mécaniquement en partant de l'ADN et en remontant vers la cellule et l'organisme entier, mais en intégrant toutes les contraintes sélectives qui s'exercent sur des populations hétérogènes de molécules ou de cellules soumises à des variations aléatoires. Dans ce cadre, l'étude du vivant doit se faire en s'appuyant non seulement sur l'observation directe des événements moléculaires mais également par l'analyse de ces contraintes sélectives. Le rôle de l'ADN se trouve ainsi fortement relativisé au profit des processus épigénétiques. Il apparaît finalement nécessaire de réintroduire le facteur temps et que la meilleure façon de comprendre les organismes est de reconstituer leur histoire. Certes, le passé n'est pas directement accessible à l'observation. Il faut le démontrer, à défaut de pouvoir le montrer. Comme le savent les évolutionnistes, le passé peut être reconstruit par une analyse comparative des formes présentes, et cela nécessite, non pas la multiplication de microspécialités descriptives, mais une véritable synthèse multidisciplinaire.

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google