|
|
|
|
|
|
« la morphogénèse des virus » |
|
|
|
|
|
« la morphogénèse des virus »
Michel Wurtz dans mensuel 294
Modifier le génome d'un virus et le faire répliquer par une bactérie. Quand Alasdaïr Steven et Michel Wurtz, alors chercheurs au Biozentrum de l'université de Bâle, présentent cette « manip », dans La Recherche, l'idée est révolutionnaire. Désormais les applications de génie génétique, auxquelles ce procédé devenu banal a ouvert la voie, ont supplanté ce type de recherche fondamentale.
La découverte du perpétuel mou-vement des éléments constitutifs de la matière vivante par synthèse et destruction de molécules est l'un des grands acquis des années 1970en biologie. Les bactéries et les virus qui infectent celles-ci les bactériophages représentent alors un modèle de choix étant donné leur relative simplicité et la rapidité de leur multiplication. En 1977, nous avions ainsi décrit la production et l'assemblage de nouveaux virus dans les bactéries infectées. Les résultats ont depuis été affinés et la méthodologie que nous avions mise en oeuvre à l'époque travail pluridisciplinaire génétique-biochimie-microscopie a été appliquée comme prévu à d'autres systèmes.
Quatre évolutions importantes sont intervenues après 1977 qui ont modifié le contexte des recherches dans ce domaine :
- les nouveaux microscopes à haute résolution physique fournissent plus d'informations sur les structures biologiques du spécimen examiné avec moins d'électrons, ce qui permet de moins l'abîmer ;
- l'adoption de méthodes de préparation plus respectueuses de l'environnement physique des structures a aussi contribué à préserver l'objet de l'observation ;
- la mise au point de techniques de congélation des spécimens et l'utilisation de la cryomicroscopie électronique à transmission ou à balayage qui fournit une image numérique ;
- l'apparition d'ordinateurs incomparablement plus performants a permis un traitement de ces images, plus rapide et plus efficace1.
Ces évolutions techniques étaient peu ou prou prévisibles. Il était en revanche difficile d'imaginer que ce qui n'avait été qu'effleuré dans notre article allait devenir une réalité industrielle : l'utilisation de virus pour l'introduction de gènes étrangers dans des bactéries et la fabrication de protéines par cette voie sont désormais la routine en génie génétique...
Le matériel génétique des virus est abrité dans une coque de protéines, la capside. La connaissance des paramètres déterminant l'encapsidation est donc le préalable à toute manipulation. La mise au jour de ces paramètres, que nous présentions en partie dans La Recherche , ont permis de développer des kits qui sont encore commercialisés aujourd'hui par Vector Cloning System par exemple2. Ces kits permettent d'intégrer des fragments d'ADN dans le génome du virus le phage lambda , grâce à la mobilisation d'enzymes dites de restriction, puis d'encapsider le tout in vitro , pour infecter une bactérie Escherichia coli .
Avec le recul, il apparaît que la maîtrise de cette méthode a joué un rôle considérable dans l'avènement du génie génétique ; rôle qui a été reconnu par l'attribution du prix Nobel de médecine en 1978, à Werner Arber, alors professeur au Biozentrum de Bâle. Mais cette méthode n'est plus la seule aujourd'hui pour mettre en oeuvre des gènes étrangers : on utilise également des levures ou même des cellules supérieures.
« C'est [...] anticiper que d'extrapoler ces systèmes à la biogenèse des organes complexes, comme les mitochondries, les membranes biologiques et même les cellules » écrivions-nous en conclusion de notre article. Nous aurions en fait pu anticiper sur certains développements, car la même approche a permis de comprendre la morphogenèse d'autres constituants cellulaires chloroplastes, ribosomes, membranes biologiques. En revanche, l'étude des bactériophages - et de la plupart des virus, VIH excepté -, avec les outils de l'ultracentrifugation et de la microscopie électronique, n'est plus à la mode : bon nombre de laboratoires dans le monde ont abandonné leurs recherches dans ce domaine pour leur préférer les applications du génie génétique3. L'article que j'ai publié en 1992 pour passer en revue les travaux sur la structure des bactériophages peut être considéré comme un chant du cygne...4
En même temps que les applications de ces travaux, dont nous avons été parmi les artisans, naissent les interrogations sur les conséquences économiques, écologiques et sociales. Certaines posent, on le sait, d'épineux problèmes éthiques dont les conséquences ne seront perceptibles que dans l'avenir comme, par exemple, la libération dans l'environnement d'espèces génétiquement modifiées ou la mise en oeuvre de thérapies génétiques.
1 J. Dubochet et al. , « Cryoelectron microscopy of vitrified specimens », in Cryotechniques in Biological Electron Microscopy, R.A. Steinbrecht, K. Zierold, ed., p. 114-131, Springer, Berlin et Heidelberg, 1987.
2 S.M. Rosenberg, « EcoK restriction during packaging of coliphage lambda DNA », Gene, 39, 313, 1985.
3 E. Kellenberger, « History of phage research as viewed by an European », F EMS Microbiology Review, 17 , 7, 1995.
4 M. Wurtz, « Bacteriophage structure », Electron Microscopy Review , 5 , 283, 1992.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
HASARD ET SÉLECTION ... |
|
|
|
|
|
Éloge du hasard et de la sélection
l'origine des formes - dans mensuel n°305 daté janvier 1998 à la page 50 (3229 mots)
La forme d'un être vivant résulte de l'expression d'une instruction génétique : telle est l'hypothèse de travail la plus couramment adoptée en biologie moléculaire. Hélas ! du gène à la protéine, de la protéine à la cellule et de la cellule à l'organisme, une foule d'exemples montre la nécessité d'introduire le hasard dans ce processus ! Le modèle instructionniste a-t-il atteint ses limites ?
En biologie, le concept de forme est défini de manière circulaire à l'aide des concepts d'information in-form-ation et de fonction : on considère d'abord que la fonction d'un organe, d'une cellule ou d'une protéine est une conséquence de sa forme ; ensuite que cette forme est produite par une information qui prend sa source au niveau des gènes. La circularité apparaît - avec les problèmes ! - dès qu'on réalise que cette information est elle-même censée être portée par des formes. Même si le terme « forme » laisse place à ceux, plus habituels en biologie, de « structure » ou de « phénotype », les questions comme celles de la construction des organismes et de leurs constituants, ou de la façon dont ils accomplissent une fonction, concernent toujours l'origine des formes et la nature des interactions entre formes différentes.
Les premières théories susceptibles d'expliquer l'origine d'une forme biologique impliquaient un acte créateur. Ce dernier pouvait être accompli par une entité supérieure ou, ce qui revient à peu près au même, être la conséquence de lois préexistantes à l'objet. Si l'on ajoute le postulat selon lequel les formes sont créées dans leur état définitif fixisme, le problème des formes est définitivement résolu. Il reste alors à se préoccuper de la nature des lois ou de l'acte créateur originel. L'étape ultérieure a été le transformisme, c'est-à-dire l'idée que les formes évoluent après leur création. Dans ce contexte, l'hypothèse de la génération spontanée était d'ailleurs souvent préférée à celle de la création. Les travaux des naturalistes du XVIIIe et du XIXe siècles ont démontré la force explicative du transformisme et des théories de l'évolution. Schématiquement, deux types d'hypothèses peuvent expliquer cette transformation des objets biologiques au cours du temps et l'apparition de systèmes ordonnés : ils reposent sur le principe de l' instruction ou sur celui de la sélection .
Le principe de l'instruction considère qu'un objet biologique, protéine, cellule ou organisme, se modifie en réponse aux instructions émises par un autre objet ou ensemble d'objets. Sur une échelle de temps courte, cette modification permet la construction de l'objet biologique ; sur une échelle de temps plus longue, on parle en général d'évolution de cet objet. Cette conception comporte un certain nombre de corollaires importants. Elle impose notamment un postulat de fixité, de stabilité des systèmes biologiques puisqu'elle sous-entend qu'en l'absence d'instruction le système reste constant1. De plus, l'instruction transmise doit être suffisamment spécifique pour orienter le système d'un état initial vers un état final. Etant donné le grand nombre d'états finaux possibles, ceci requiert la mise en oeuvre de systèmes extrêmement précis de transfert et de déchiffrage de l'information.
Ainsi l'acte d'instruction, d'une certaine façon, s'apparente-t-il à un acte de création, même si l'instruction ne crée pas la matière mais seulement la forme. De plus, l'instruction est seule capable de rompre la fixité « naturelle » du système fig. 1. Au sein des modèles instructionnistes, on retrouve donc la trace des postulats de fixité et de création qui existaient dans les modèles traditionnels ou religieux, ce qui ne va pas, bien sûr, sans soulever de nouveaux problèmes2. En effet, puisque tout objet n'acquiert sa forme qu'en réponse à la forme préexistante d'un autre objet, les modèles instructionnistes, de proche en proche, butent nécessairement sur la question de l'origine du tout premier objet. Par exemple, la question de l'origine de l'organisme est aujourd'hui remplacée par celle de l'origine des gènes, qui reste incomprise. Un problème analogue se pose en physique depuis que l'on a pris conscience que l'Univers a lui aussi une histoire et subit une évolution. Là aussi l'événement créateur le Big Bang a remplacé l'acte créateur.
Qu'en est-il des modèles sélectifs ? Le premier d'entre eux a été proposé de manière détaillée par Darwin et par Wallace, à partir d'idées qui commençaient à faire leur chemin chez les naturalistes pour répondre au problème de l'évolution des espèces et de leur adaptation à des environnements variés. Plus récemment, des modèles sélectifs ont été adoptés en immunologie pour expliquer la capacité de l'organisme à réagir à toutes sortes d'agents étrangers antigènes en fabriquant des anticorps capables de s'y associer avec une forte affinité. Au contraire des modèles instructionnistes, les modèles sélectifs postulent que les systèmes biologiques possèdent une variabilité et une instabilité naturelles. Cette variabilité est aléatoire, au sens où elle n'oriente pas l'organisme vers un état final particulier fig. 1. Les modèles sélectifs ne recourent donc pas à une information et à un ordre préexistants, ni à des systèmes sophistiqués susceptibles de transférer cette information. Au contraire, les variations aléatoires, c'est-à-dire un certain niveau de désordre, préexistent, et les interactions avec l'extérieur ne contiennent pas d'information de forme. Si l'on prend l'exemple caricatural de l'allongement du cou de la girafe au cours de l'évolution, l'interprétation instructionniste considère que la girafe ne change pas, sauf si la hauteur des arbres allonge spécifiquement son cou. Au contraire, l'interprétation sélective postule que la girafe varie spontanément. Les variations favorables seront maintenues par la sélection naturelle, qui n'agit pas directement ni spécifiquement sur la forme du cou : elle est seulement liée à l'accès aux ressources nutritives. De même, dans le cas des anticorps, on sait que la diversité préexiste et fait l'objet d'une sélection, et que ce n'est pas l'antigène qui transmet une instruction de forme moulage à l'anticorps.
La biologie moléculaire est l'étude du fonctionnement des gènes et des mécanismes qui permettent à ce que l'on appelle le programme génétique de se réaliser. Curieusement, si l'évolution des espèces, la génétique des populations ou l'immunologie s'appuient sur des modèles de hasard-sélection, ce n'est pas le cas de la biologie moléculaire. Dans le cadre de cette théorie, seule la structure des gènes subit des variations aléatoires : mutations, recombinaisons, etc. Leur fonctionnement est quant à lui conçu sur le mode de l'instruction. Le dogme central de la biologie moléculaire peut donc se résumer ainsi : le système biologique est stable dans l'inactivité, dans l'attente d' instructions spécifiques, prenant leur source au niveau des gènes, qui le fabriquent et le mobilisent. En termes plus techniques, l'ADN des chromosomes porte les instructions permettant la transcription des ARN messagers, qui portent les instructions nécessaires à la synthèse des protéines, lesquelles déterminent l'état de différenciation cellulaire qui instruit la structure finale de l'organisme.
La conception actuelle de ce programme génétique est intimement liée à la notion de spécificité. Ce sont, en effet, des interactions supposées spécifiques qui permettraient les transferts d'instructions nécessaires à sa réalisation. Ainsi, par exemple, sont fréquemment évoquées l'information spécifique qui oriente la différenciation d'une cellule, celle qui cible une molécule vers un compartiment cellulaire, ou celle, contenue dans une séquence d'acides aminés, qui permet le repliement d'une protéine et son activité. L'information spécifique corres-pond, physiquement, à une reconnaissance exclusive et une interaction entre deux molécules, baptisée stéréospécificité. Dans sa compréhension habituelle, ce mécanisme de reconnaissance moléculaire ne laisse aucune place à la variabilité à cause du caractère univoque de cette reconnaissance entre deux molécules. Il est utile de revenir à la formalisation énoncée par Jacques Monod à propos de la stéréospécificité :
« La formation du complexe stéréospécifique, préludant à l'acte catalytique lui-même, peut donc être considérée comme remplissant à la fois deux fonctions :
1. le choix exclusif d'un substrat, déterminé par sa structure stérique ;
2. la présentation du substrat selon une orientation précise qui limite et spécifie l'effet catalytique des groupes inducteurs.
La notion de complexe stéréospécifique non covalent ne s'applique pas seulement aux enzymes ni même seulement, comme on le verra, aux protéines. Elle est d'une importance centrale pour l'interprétation de tous les phénomènes de choix, de discrimina- tion élective, qui caractérisent les êtres vivants... ». En ce qui concerne les phénomènes de différenciation cellulaire, Jacques Monod ajoute : « Il n'en reste pas moins que la construction d'un tissu ou la différenciation d'un organe, phénomènes macroscopiques, doivent être considérés comme la résultante intégrée d'interactions microscopiques multiples dues à des protéines, et reposant sur leurs propriétés de reconnaissance stéréospécifique... » 3 .
Cette citation, hors de son contexte, ne rend certes pas justice à la richesse de la pensée de Jacques Monod, et ne reflète probablement pas non plus la conception de tous les biologistes moléculaires. Il n'en reste pas moins qu'elle traduit le point de vue le plus répandu et enseigné aujourd'hui. L'intégration de toutes les interactions moléculaires soutient les structures macroscopiques. Autrement dit, les interactions des formes moléculaires déterminent les formes macroscopiques. A un ensemble d'interactions moléculaires ne correspond qu'une seule forme macroscopique, du fait du caractère spécifique de chaque interaction. L'ordre au niveau cellulaire reflète donc directement et mécaniquement l'ordre au niveau moléculaire. Il faut reconnaître que les conséquences de cette théorie en termes de programme de recherche sont particulièrement riches : quel que soit le phénomène étudié, la recherche du gène ou de la protéine sous-jacents, et l'analyse des interactions dans lesquelles il ou elle est impliqué, doit mener à une compréhension pleine et entière.
Face à cet état de fait, il est sans doute nécessaire de réintroduire aujourd'hui, au niveau des molécules, la notion de diversité et les concepts probabilistes de hasard-sélection contenus dans la théorie darwinienne de l'évolution. Ces concepts, bien établis au niveau des populations d'organismes, ont été négligés en première approche au niveau des populations moléculaires. En ce sens, nous soutenons ici une thèse alternative à la conception habituelle fondée sur la stéréospécificité : les interactions moléculaires ne présentent pas de relation exclusive ou spécifique, mais au contraire un caractère extrêmement flou ou dégénéré. Si l'instruction fait ainsi place à l'aléatoire, chaque génome porte le potentiel de produire un grand nombre de structures macroscopiques virtuelles dont une infime fraction est « fonctionnelle ». Le phénotype ou l'individu unique finalement produit, serait alors le résultat d'un processus de sélection qui s'exercerait sur l'ensemble de ces structures potentielles. Autrement dit, chacun d'entre nous n'est pas le seul individu écrit dans ses gènes, mais le plus probable et le plus viable des individus possibles. Notons que la sélection, dans ce contexte, signifie un tri parmi les variations possibles, mais n'implique pas nécessairement une élimination pure et simple des variations ou des interactions inutiles. Il en découle que l'analyse isolée des interactions moléculaires, ou des séquences génétiques, est insuffisante pour expliquer une structure macroscopiqueI.
On considère aujourd'hui que la structure des gènes évolue au hasard, mais que leur langage est déterministe. La biologie moléculaire décrit pourtant un nombre croissant de variantes et d'exceptions aux règles initialement considérées comme formant les bases grammaticales du langage des gènes. Ne serait-il pas plus pertinent, plutôt que de considérer que le langage des gènes est complexe, de considérer que la variabilité aléatoire est indissociable des mécanismes d'expression des gènes et du fonctionnement moléculaire ? De considérer que le langage génétique est dégénéré et que cela ne constitue pas, pour les organismes, un inconvénient mais au contraire un avantage, une source supplémentaire de polymorphisme ?
On peut citer d'innombrables exemples de ce type d' erreurs dans les mécanismes génétiques. Curieusement, on considère tantôt qu'il s'agit d'erreurs sans importance, tantôt que ces variations on ne parle plus d'erreurs sont indispensables à la survie de l'organisme. L'importance des taux d'erreurs observés lors de la synthèse des protéines a déjà été soulignée par Jacques Ninio4. La synthèse de plusieurs protéines à partir d'un seul gène est également documentée, et la variabilité du phénotype associé à un même allèle est bien connue des généticiens. Une vision plus floue du langage des gènes permet d'expliquer pourquoi deux personnes portant la même mutation peuvent être, l'une en bonne santé et l'autre malade, beaucoup plus facilement en tout cas que dans le cadre d'une conception rigide du langage génétique.
En matière d'évolution des animaux par exemple, le potentiel d'adaptation est en grande partie déterminé par la diversité et la taille des populations. En effet, plus une population est grande et variable, plus elle contient de solutions différentes pouvant garantir sa survie. On peut appliquer ces principes aux populations moléculaires. Il est plus facile d'imaginer qu'une protéine puisse découvrir une activité enzymatique si elle constitue une grande population aux formes variables, que si elle forme une population homogène. Les nombres d'individus constituant les « populations moléculaires » sont très élevés. Par exemple, un milliardième de gramme d'une protéine de taille moyenne contient cinquante milliards de molécules. Il reste à admettre que ces populations de macro- molécules contiennent des formes diverses, car il est très difficile aujourd'hui d'observer une macromolécule isolée.
Si l'on introduit cette notion de variation à chaque étape du fonctionnement génétique, chaque génome code un très grand nombre d'individus potentiels et explore donc de façon très large le champ des possibles. Une telle conception de l'information génétique permet de résoudre un des problèmes soulevés par la théorie de l'évolution et classiquement illustré par la fable du singe dactylographe : la probabilité d'obtenir un génome viable au hasard serait la même que celle qu'aurait un singe d'écrire Hamlet en t a pant au hasard sur une machine à écrire. Or cette fa b le sous-entend que le l a ngage des gènes est celui de Shakespeare, c'est-à-dire qu'il s'appuie sur un voca b ulaire et une grammaire très précis. Si l'on considère au contraire que le langage des gènes se distingue par son extrême ambiguïté et la multiplicité des lectures possibles, il faut remplacer la fable du singe-Shakespeare par celle du singe-Nostradamus. Il n'est dès lors plus nécessaire d'invoquer des miracles créateurs : la probabilité pour qu'un lecteur sélectif trouve une signification à un texte confus écrit dans un langage fumeux est pratiquement égale à un...
On peut appliquer ces principes à la différenciation cellulaire, qui est l'un des éléments déterminant la forme finale de l'organisme. Ce phénomène a longtemps été expliqué par des modèles instructionnistes. Pourtant, il est possible de l'expliquer par des modèles de hasard-sélection1,5,6. Dans le cadre des modèles instructionnistes, les cellules reçoivent une information spécifique ou instruction qui provoque une différenciation bien déterminée fig. 2, modèle déterministe.
Cette information est censée être véhiculée par des interactions membranaires, ou bien par des facteurs de différenciation diffusibles. Dans le cadre du paradigme de la spécificité, cette information est absolument nécessaire pour changer l'état de différenciation d'une cellule. Par contre, si l'on renonce à la relation univoque et spécifique entre molécules, il est possible d'expliquer la différenciation sans l'intervention d'un inducteur spécifique. Si à un ensemble d'interactions moléculaires peuvent correspondre plusieurs structures du fait du caractère non spécifique dégénéré de ces relations, dans une population de cellules les différentes structures types cellulaires seront réalisées avec des fréquences dépendant des probabilités de réalisation de chaque structure fig. 2, modèle probabiliste.
Un exemple théorique simple peut être donné pour la transcription des gènes fig. 3. Dans une cellule, une molécule d'un régulateur de la transcription peut activer soit le gène a, soit le gène b, ce choix étant aléatoire. Dans une population de cellules, une fraction des cellules exprimera a et une autre b. La fréquence des phénotypes A et ßI /Iß correspondants dépendra donc de la probabilité d'activation de ces deux gènes. De manière plus générale, si l'on a moins de molécules régulatrices que de gènes régulables, on générera une combinatoire de distributions des régulateurs sur les gènes, chacune correspondant à un ensemble de gènes activés, et donc à un type cellulaire potentiel. MeCP2 fournit un exemple de régulateur de la transcription qui pourrait participer à un tel mécanisme. En effet, il a pour cible le dinucléotide méthyl-CG. Il existe 4.107 copies de cette cible pour seulement 106 molécules de MeCP2 d a ns un noyau de cellule de mammifère. Il est donc peu pro b able que ces molécules soient distribuées de manière identique dans toutes les cellules7. Un tel mécanisme peut générer une grande diversité de types cellulaires sans faire appel à des régulateurs spécifiques. Il permet donc d'expliquer la faible spécificité et l'ubiquité des facteurs de régulation, tels ceux codés par les homéogènes. Il permet également d'expliquer les phénomènes dits de colinéarité, qui correspondent à des corrélations entre la position des gènes dans les chromosomes et leur chronologie d'activation au cours de la différenciation cellulaire1,5,6.
Dans le modèle instructionniste prévalent, il faut expliquer comment une cellule change d'état et se différencie. Au contraire, dans le cas du modèle aléatoire, il faut expliquer comment les cellules stabilisent les phénotypes favorables. En effet, si l'on reprend l'exemple de la figure 3, à chaque fois que le régulateur se dissocie de son site d'interaction a ou b, il pourrait se réassocier de manière aléatoire sur l'autre site, changeant le phénotype cellulaire. La phosphorylation des -régulateurs pourrait permettre une telle stabilisation en modifiant la stabilité des complexes régulateur-ADN. Les enzymes responsables kinases et phosphatases ne requièrent pas de cibles ou d'inducteurs spécifiques dans ce modèle. Elles agissent globalement et rétrospectivement pour stabiliser le système lorsque la bonne combinaison de phénotypes cellulaires est exprimée5,6.
En conclusion, on voit que la forme finale des objets biologiques peut relever de deux types d'explications. Sur le mode de l'instruction, on postule que la forme des protéines découle de la forme des gènes, que la forme des cellules découle de celle des protéines, et que celle des organismes découle de celle des cellules. On retrouve l'idée classique selon laquelle « le tout est la somme des parties », et l'on suppose une hiérarchie de niveaux d'organisation dont les molécules, notamment l'ADN porteur de l'information génétique, forment la base. La biologie moléculaire moderne s'appuie sur cette conception.
Dans ce cas, la nécessité d'une perspective évolutive retraçant l'histoire des organismes est reconnue mais apparaît d'importance secondaire. D'ailleurs l'histoire proposée est en général identique au schéma réductionniste postulé. Autrement dit, la biologie moléculaire instructionniste postule que le petit s'assemble pour faire le gros et que le petit est aussi l'ancêtre du gros. Dans cette extension inconsciente du principe de récapitulation de Haeckel l'ontogenèse résume la phylogenèse, les acides nucléiques, qui seraient au coeur du vivant actuel, constitueraient aussi l'origine passée de la vie. Tout se ramènerait donc à l'ADN ou à l'ARN même si, dans l'histoire de la lutte pour la survie dans le cataclysmique océan primitif, il n'est pas facile de concevoir la victoire des acides nucléiques ribozymes.
Sur le mode du hasard-sélection, l'organisme ne se construit pas mécaniquement en partant de l'ADN et en remontant vers la cellule et l'organisme entier, mais en intégrant toutes les contraintes sélectives qui s'exercent sur des populations hétérogènes de molécules ou de cellules soumises à des variations aléatoires. Dans ce cadre, l'étude du vivant doit se faire en s'appuyant non seulement sur l'observation directe des événements moléculaires mais également par l'analyse de ces contraintes sélectives. Le rôle de l'ADN se trouve ainsi fortement relativisé au profit des processus épigénétiques. Il apparaît finalement nécessaire de réintroduire le facteur temps et que la meilleure façon de comprendre les organismes est de reconstituer leur histoire. Certes, le passé n'est pas directement accessible à l'observation. Il faut le démontrer, à défaut de pouvoir le montrer. Comme le savent les évolutionnistes, le passé peut être reconstruit par une analyse comparative des formes présentes, et cela nécessite, non pas la multiplication de microspécialités descriptives, mais une véritable synthèse multidisciplinaire.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
L'OS |
|
|
|
|
|
L'os
back to basic - par Viviane Thivent dans mensuel n°363 daté avril 2003 à la page 83 (2672 mots)
L'os permet le maintien du corps : il n'en fallait pas plus pour lui donner l'image d'une structure figée. Cette vision est néanmoins réductrice. Usine cellulaire en constante transformation et lieu de stockage de minéraux, l'os est avant tout vivant.
Cartilage et os, quelle différence ?
Quiconque en a déjà croqué le sait : le cartilage est ferme et élastique. Ses cellules, appelées chondrocytes, sécrètent de la matière organique sous forme de longues molécules de collagène et de protéoglycanes*. L'ensemble ne représente toutefois qu'une faible portion de la matrice cartilagineuse. Celle-ci est, en effet, constituée à 70 % - 80 % d'eau. Pas un vaisseau sanguin ne l'irrigue. Le transport de l'oxygène ou des nutriments vers les chondrocytes s'effectue donc par simple diffusion à partir de vaisseaux sanguins de surface.
L'os, lui, présente une structure bien différente : il est non seulement calcifié, mais aussi vascularisé et innervé. Le collagène que sécrètent les cellules osseuses, les ostéoblastes, s'associe à des minéraux calcium et phosphore, acheminés jusqu'aux ostéoblastes par la circulation sanguine. Quant aux arêtes qui indisposent tant les gourmets, ce sont bien des os. Mais elles se forment par ossification intermusculaire et ne s'attachent que rarement à la colonne vertébrale. Ce qui explique que, dans l'assiette, elles restent cachées dans la chair !
Les tissus osseux se distinguent des dents ou de l'ivoire par leur degré de minéralisation, moins élevé : 64 % du poids sec de l'os est minéral contre 70 % à 75 % pour les dents ou l'ivoire. D'un point de vue évolutif, cartilage et os seraient apparus à peu près simultanément, il y a 400 millions d'années. Du point de vue ontogénique, le cartilage constitue une grande partie du squelette des vertébrés, au début de leur développement. Il est ensuite remplacé par du tissu ossifié, sauf chez les requins, les raies ou les chimères, poissons cartilagineux de la classe des chondrichthyens.
Comment l'os grandit-il ?
En 1864, l'anatomiste allemand Karl Gegenbaur identifie, dans les os en croissance, des « corpuscules granulaires » actifs qu'il baptise ostéoblastes. Ces cellules participent aux deux processus d'ossification existants, dont l'un aboutit à la formation des os courts ou plats par exemple, les omoplates et l'autre, à la formation des os longs ceux des membres. Le premier processus s'effectue à partir d'un tissu vascularisé, d'où son nom d'ossification dermique. Des cellules souches présentes dans ce tissu se différencient en ostéoblastes, qui sécrètent alors la matrice osseuse. Une fois la minéralisation achevée, les ostéoblastes sont nommés ostéocytes. Ils forment petit à petit des barres, les travées, dont le diamètre augmente au fur et à mesure que la matrice se calcifie à leur surface. Les travées finissent par se rejoindre, emprisonnant ainsi nerfs et vaisseaux sanguins. Ce processus induit la soudure de certains os immatures, d'où la réduction du nombre d'os qui a lieu entre la naissance et l'âge adulte.
Dans le second type d'ossification, des vaisseaux sanguins envahissent le cartilage et y déposent des chondroclastes qui le désintègrent et des ostéoclastes qui construisent de la matière osseuse. C'est pour cette raison qu'on l'appelle ossification endochondrale [fig. 1]. Elle a beau avoir lieu dans le cartilage, il ne s'agit pourtant pas d'une ossification de ce dernier, mais de son remplacement par du tissu osseux. La croissance en épaisseur des os dermiques est assurée par des ostéoblastes localisés dans la membrane qui entoure l'os, le périoste. Chez les mammifères, la croissance en longueur des os longs se produit par apposition de matière osseuse au niveau d'une bande de cartilage située entre la partie centrale et l'extrémité de l'os. La croissance s'arrête lorsque ce cartilage disparaît au profit d'une couche d'os qui soude ces deux entités. Comme le phénomène se produit à différents moments de la croissance selon l'os considéré, l'observation radiographique de l'état de soudure des os permet d'estimer l'âge osseux de l'organisme. En 1895, Wilhelm Röntgen, le découvreur des rayons X, prend une radiographie de la main de sa femme : les os apparaissent, mais pas le cartilage. Aujourd'hui, une simple radiographie de la main suffit pour détecter d'éventuelles anomalies de croissance.
L'os est-il fragile ?
Partie intégrante du squelette, l'os permet le maintien du corps, la protection des organes vitaux et la motricité de l'organisme. Il est à la fois solide et élastique. Les cristaux minéraux lui confèrent sa dureté mais ils se casseraient facilement sans la présence du collagène ou des protéoglycanes. Déformables jusqu'à un certain seuil, les fibres de collagène commencent à se déchirer lorsque la tension exercée sur l'os est trop forte. À ce stade, ce ne sont que des microfractures qui préservent les cristaux inorganiques et retardent l'arrivée de la fracture massive. Dans la maladie dite des os de verre, une anomalie génétique entrave la formation d'un collagène correct. Résultat : les os se rompent au moindre coup.
À une échelle plus large, dans un même os, la présence de deux densités osseuses, spongieuse et compacte, le rend à la fois dur et léger. En surface, l'os compact est un tissu où les travées remplissent tout l'espace, d'où son nom. Il confère à l'os sa résistance aux chocs. L'os spongieux possède quant à lui des travées très espacées, ce qui lui donne l'aspect d'une éponge. Il borde la cavité centrale de l'os et emplit les extrémités des os longs. Cela permet d'atténuer la violence des pressions reçues lors des déplacements de l'organisme : l'os spongieux agit alors comme un amortisseur. La cavité centrale de l'os peut être comblée par des sacs à air. C'est, par exemple, le cas de certains os d'oiseaux. Une adaptation observée dès le Trias, il y a 230 millions d'années, chez des dinosaures volants [1] .
L'os est-il remodelable ?
Mieux que cela ! Le squelette adulte se régénère entièrement tous les dix ans par un jeu constant de destruction et de construction osseuses. L'érosion de l'os résulte de l'action de grosses cellules à plusieurs noyaux, les ostéoclastes, issues de la fusion de plusieurs cellules immunitaires, les macrophages [fig. 2]. Ils en gardent d'ailleurs la fonction, puisque les ostéoclastes dégradent la matrice osseuse grâce aux enzymes et aux acides qu'ils produisent, et recyclent le calcium en le libérant dans la circulation sanguine. Ce phénomène permet le creusement de la cavité centrale des os, le développement des os en harmonie avec la croissance des muscles ou des organes et enfin, même chez l'adulte, un remodelage qui est fonction des forces de pression et de traction exercées. Parfois, les ostéoclastes, anormaux, ne parviennent pas à résorber correctement l'os. D'où une augmentation progressive de la densité osseuse qui provoque des problèmes neu- rologiques et hématologiques tels que ceux observés dans l'ostéopétrose.
Difficile enfin de parler de remodelage sans parler de la réparation des fractures. Celles-ci sont tout d'abord consolidées, en quelques semaines, par un cal de tissu conjonctif puis cartilagineux. Cet os immature est ensuite remplacé progressivement par un os calcifié. Le temps nécessaire à une résorption complète augmente avec l'âge de l'individu, la moyenne étant de deux mois. Cependant, il arrive parfois que le cal ne se calcifie pas normalement. Il se forme alors une sorte de « nouvelle articulation » dont le jeu varie.
Quel rôle pour la moelle osseuse ?
Sous le terme de moelle osseuse, se cachent en fait deux substances : la moelle jaune, graisseuse, et la moelle rouge. À la naissance, tous les os sont gorgés de moelle rouge qui se transforme progressivement en moelle jaune. Au stade adulte, seuls les os plats, courts et les extrémités de quelques os longs renferment encore de la moelle rouge, soit moins de 50 % de la moelle totale. Cette moelle rouge joue un rôle primordial. Elle est en effet le siège de la production permanente des cellules du sang : plaquettes responsables de la coagulation, globules blancs mobilisés lors des réactions immunitaires, globules rouges impliqués dans le transport de l'oxygène [2]. Un type cellulaire unique, capable de proliférer et de se différencier, leur donne naissance : c'est la cellule souche hématopoïétique.
Dès la fin du XIXe siècle, soit bien avant la naissance du concept de « cellule souche », la moelle osseuse avait été identifiée comme la zone de production des cellules sanguines, d'où l'idée de l'utiliser pour soigner des patients atteints de leucémie. En 1958, quatre physiciens yougoslaves irradiés sont guéris in extremis par une greffe de moelle. Le potentiel thérapeutique des cellules de la moelle osseuse prend corps. La méthode n'est cependant pas au point : la compatibilité immunitaire du greffon avec l'organisme receveur reste problématique. En 1976, la première autogreffe est réalisée : un peu de moelle du patient lui est prélevée, puis réinjectée après qu'il a subi une radiothérapie. Des greffes sont aussi réalisées à partir de donneurs étrangers.
Ces allogreffes n'ont cependant de chances de succès que si donneur et receveur sont suffisamment proches sur le plan immunologique. Aujourd'hui, on favorise la sélection des cellules souches prélevées dans le sang 85 % des sources de greffon actuelles. Les cellules sont ensuite cultivées en laboratoire pour accroître leur nombre, puis réinjectées au malade.
Notre alimentation joue-t-elle sur la santé des os ?
Oui, surtout pendant la croissance, la grossesse ou l'allaitement, autrement dit chaque fois que le métabolisme calcique est modifié. Plus d'un tiers du capital osseux se constitue à l'adolescence. Durant cette période, les apports en calcium et en vitamines sont déterminants pour la santé osseuse future. Normalement puisé dans l'alimentation, le calcium est en effet prélevé dans les os en cas d'apports insuffisants. Par exemple, dès la huitième semaine de grossesse, une femme enceinte doit subvenir aux besoins calciques de son foetus. En cas de déficit alimentaire en calcium, son stock osseux sera particulièrement entamé.
Le métabolisme du calcium est contrôlé par trois hormones : un stéroïde dérivé de la vitamine D qui augmente son absorption intestinale, la parathormone PTH qui régule sa concentration dans le sang et la calcitonine qui inhibe la destruction osseuse. La vitamine D est synthétisée par la peau sous l'action des rayons UV. Une trop faible quantité entraîne une hypocalcémie pouvant conduire au rachitisme, car la minéralisation de l'os nouvellement formé est imparfaite.
Le manque de calcium n'est toutefois pas le seul à incriminer en matière de mauvaise santé osseuse. Souvent prisée par les adolescents, une alimentation trop riche en phosphore du type hamburger et soda conduit à une augmentation de la proportion de phosphore stocké dans le tissu osseux, ce qui le fragilise. De même, un excédent alimentaire en vitamine A, substance favorisant les processus de croissance et que l'on trouve dans le beurre ou les oeufs, semble augmenter la probabilité de fracture.
L'os vieillit-il ?
Jusqu'à 35 ans, la balance entre construction et destruction osseuses est équilibrée. La résorption prend ensuite le pas sur la construction, et l'os se fragilise. Plus le capital osseux constitué en amont est important, plus la fragilisation est tardive. L'accentuation pathologique de ce vieillissement naturel s'appelle l'ostéoporose « os poreux ». Les travées de l'os spongieux se raréfient et le tissu compact s'amincit, cela d'autant plus rapidement que le métabolisme de l'os est actif, comme c'est le cas dans la hanche. Un manque d'exercice, une carence en calcium ou en vitamine D facilitent son apparition. Rien que dans l'Union européenne, l'ostéoporose provoque une fracture toutes les 30 secondes. Premières victimes ? Les femmes. Une sur trois entre 60 ans et 70 ans. Et pour cause : leur capital osseux est moins important que celui des hommes et la ménopause provoque une carence soudaine en oestrogènes. D'où un développement accru des ostéoclastes qui bouleverse le remodelage osseux. Comment pallier ce phénomène ? Un premier mode d'action consiste en la prise de traitements hormonaux de substitution. Toutefois, certains d'entre eux sont aujourd'hui remis en question car ils augmenteraient les risques de développer un cancer du sein. Restent les suppléments vitamino-calciques ou les biphosphonates* pour empêcher la résorption osseuse. Il n'existe pas aujourd'hui de traitement capable de stimuler la formation osseuse même si des espoirs sont portés par la parathormone.
Une autre forme de vieillissement accéléré est l'ostéoporose dite « de désuétude ». Lors des immobilisations de longue durée, sur un lit d'hôpital par exemple, les patients subissent une forte décalcification car le renouvellement osseux est aussi fonction du poids exercé sur l'os. Une partie du calcium est recyclée, puis évacuée par les urines. Un phénomène similaire se produit lors des voyages spatiaux, ce qui n'est pas sans conséquence lors du retour sur terre.
Peut-on créer de l'os artificiel ?
En général, les fractures se résorbent d'elles-mêmes. Il suffit de remettre en place les fragments osseux et d'immobiliser. Quand ce n'est pas le cas, une intervention plus importante est nécessaire : il s'agit alors de remplacer l'os. C'est à la fin du XIXe siècle qu'apparaissent les premières prothèses articulaires, alors en ivoire ou en titane. En 1962, l'Anglais John Charnley pose la première prothèse totale de hanche. Aujourd'hui, en France, deux millions de personnes vivent avec une prothèse articulaire. Cette solution n'est cependant que temporaire, car la prothèse doit être changée tous les 10 à 20 ans. Une autre voie est de faciliter la construction osseuse en greffant des fragments d'os. Le greffon peut être prélevé sur le patient ou sur quelqu'un d'autre sous réserve de compatibilité immunitaire, mais il peut aussi être remplacé par des matériaux de substitution comme les céramiques. Biologiquement muets, ces derniers servent de support passif à la réparation osseuse.
En 1965, Marshall Urist implante un fragment déminéralisé d'os de lapin dans un tissu musculaire et obtient la formation d'un véritable os ; quelque chose dans la matrice a induit l'ossification. Sans le savoir, cet Américain venait de découvrir des protéines impliquées dans la morphogenèse de l'os, les BMPs bone morphogenic proteins. Vingt-cinq ans seront nécessaires à leur purification complète, et c'est au début des années 1990 que sont testés les premiers implants pourvus de BMPs, donc biologiquement actifs. Des implants inertes peuvent aussi être combinés avec des cellules ostéogènes. Ils permettent alors la construction osseuse. Une ultime piste de recherche consiste à faire appel à la thérapie génique. En 1999, une expérience menée chez le rat s'est révélée fructueuse. Un adénovirus a été utilisé pour transmettre des gènes codant les BMPs aux cellules de la moelle osseuse : la fracture s'est résorbée alors que celle des rats témoins restait béante.
Que nous révèlent les os sur notre passé ?
En paléontologie, l'os est une véritable machine à remonter le temps lorsque le hasard a permis sa fossilisation. Une étude des microstructures osseuses fournit des informations paléobiologiques de grande valeur. La croissance des organismes étant, à l'image des cernes des arbres, enregistrée par les tissus osseux, il est par exemple possible d'estimer le taux de croissance de certaines espèces fossiles et d'en déduire la nature de leur métabolisme énergétique. La croissance de quelques dinosaures révèle ainsi qu'ils auraient pu être capables de maintenir leur température interne à un niveau constant ! Au-delà, l'examen de la forme de l'os permet souvent de déterminer le mode de locomotion de l'espèce, par exemple le vol ou le saut.
S'il est suffisamment protégé de l'érosion, l'os peut conserver son collagène pendant près de 200 000 ans. Du collagène qui, comme toute protéine, contient de l'azote et du carbone. De ce fait, son analyse détaillée permet de déduire le régime alimentaire de l'organisme fossile étudié. Il est même parfois possible d'identifier, dans l'alimentation, la présence de certains types végétaux. D'où la reconstitution, non seulement du mode alimentaire des animaux ou des hommes préhistoriques, mais aussi du paléo-environnement dans lequel ils évoluaient.
La forme des points d'insertion musculaires ou tendineux permet encore d'aller plus loin, le degré de développement dépendant souvent des habitudes humaines. C'est ainsi que l'on a pu s'apercevoir que la Dame d'Hochfelden, dont le squelette date du Ve siècle, était en fait une cavalière émérite : le relief de la partie haute de son fémur est en effet très accentué. De même, des lésions osseuses peuvent indiquer la pratique de certains arts guerriers.
Dans un bateau anglais du XVIe siècle, le Mary Rose, coulé alors qu'il emmenait des hommes combattre contre les Français, le quart des squelettes présentaient une rupture de l'extrémité de l'omoplate, signe d'une pratique précoce du tir à l'arc. Ce navire de guerre ne transportait donc pas n'importe quelle armée vers le continent : il s'agissait d'archers.
Par Viviane Thivent
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
PRÉSERVER LA DIVERSITÉ GÉNÉTIQUE DU BLÉ |
|
|
|
|
|
Préserver la diversité génétique du blé
agronomie - par Cécile Klingler dans mensuel n°455 daté septembre 2011 à la page 58 (1985 mots)
Le nombre de variétés de blé cultivées en France augmente, mais leur diversité génétique stagne. Comment remédier à cette situation, qui freine la capacité d'adaptation des cultures aux évolutions de l'environnement ?
E lles s'appellent Folklor, Karillon, Musik et Flamenko, et succèdent à Apache, Soissons, Étoile de Choisy, ou encore Rouge de Bordeaux et Noé... Sous ces noms poétiques se cachent autant de variétés de blé tendre, celui dont on fait le pain, et qui représente 95 % de la production de blé dans le monde. Certaines sont très récentes : cela fait moins d'un an que les quatre premières sont inscrites au catalogue officiel français, prérequis absolu à leur commercialisation. Apache, Soissons et Étoile de Choisy avaient, elles, décroché le précieux sésame en 1998, 1988 et 1950. Les deux dernières, enfin, datent du XIXe siècle, époque où le catalogue officiel, instauré en 1933, n'existait pas.
Cette liste semble longue ? Pourtant, elle ne représente qu'une minuscule fraction des variétés de blé connues en France et dans le monde. Ainsi, la collection du centre de ressources génétiques de l'Institut national de la recherche agronomique INRA, à Clermont-Ferrand, regroupe 11 500 variétés, dont un tiers d'origine française. Et celle du Cimmyt, le Centre international d'amélioration du maïs et du blé, au Mexique, en abrite plus de 100 000.
Sur le terrain
Mais du côté agricole, la situation est tout autre. Qu'il s'agisse du blé, ou des autres espèces cultivées, la FAO lance depuis quelques années un cri d'alarme : attention à la perte de diversité génétique sur le terrain ! Une perte dommageable car la diversité génétique des espèces cultivées est utile pour l'agriculture. Elle est la clé de la capacité intrinsèque des plantes à s'adapter à des modifications de leur environnement : par exemple, le fait d'utiliser moins de pesticides et moins d'engrais dans les pays gros consommateurs qui veulent réduire leur consommation. Et bien sûr, les modifications induites par le changement climatique. Comment redresser la barre ?
Le premier impératif est d'abord de persuader l'ensemble des acteurs concernés qu'il y a bien un problème. Car tous ne sont pas convaincus. Il faut dire que les indicateurs permettant de suivre l'évolution de la biodiversité cultivée au cours du temps manquent cruellement. Dans ce domaine, le principal critère est le nombre de variétés. Or, on peut lui faire dire tout et son contraire. En France, la controverse est animée. D'un côté, les tenants de l'érosion de la diversité génétique arguent de ce que la modernisation de l'agriculture a entraîné la disparition des variétés de pays, c'est-à-dire les variétés adaptées à des terroirs bien précis. De l'autre, leurs contradicteurs rétorquent que la sélection moderne a conduit à une très forte augmentation du nombre de variétés disponibles.
Isabelle Goldringer est généticienne à l'INRA. Avec Christophe Bonneuil, historien des sciences au CNRS, elle a lancé, il y a quelques années, une étude visant à clore cette controverse. Une étude d'abord soutenue par le Bureau des ressources génétiques, puis par son successeur, la Fondation pour la recherche sur la biodiversité FRB. Objectif ? Construire un indicateur reposant sur plusieurs paramètres dont la combinaison permet de déterminer la diversité génétique effectivement cultivée, et son évolution au cours du temps.
L'espèce retenue est le blé tendre, Triticum aestivum. C'est l'espèce la plus cultivée en France, et depuis longtemps : elle couvrait quelque 6,5 millions d'hectares en 1912, elle en couvre encore 4,9 millions d'hectares un siècle plus tard soit trois fois plus que l'orge ou le maïs.
Indicateur global
Dans un premier temps, la consultation des documents historiques agricoles a permis de lister les variétés utilisées pendant le siècle dernier, à l'échelle des départements. Puis l'analyse de la diversité génétique de chacune a été menée par le centre de ressources génétiques de l'INRA, à partir de ses collections propres et d'échantillons de grains fournis par des semenciers et des réseaux d'agriculteurs. In fine, il en ressort un « tableau de bord » qui répertorie le nombre de variétés, leur distribution dans les surfaces cultivées, leur diversité génétique, et la distribution de celle-ci sur le terrain. L'ensemble est combiné au sein d'un indicateur global.
Publiés ce mois-ci, les résultats sont sans appel [fig. 1] . D'abord, ils révèlent qu'entre 1912 et 2006 le nombre de variétés utilisées a nettement augmenté, mais pas régulièrement. On observe en effet une forte diminution dans les années 1950 et 1960. Durant cette période, les variétés de pays, génétiquement hétérogènes, cèdent la place à des variétés issues des méthodes de sélection moderne : des variétés génétiquement homogènes, constituées d'individus tous identiques. Des variétés « pures », seules autorisées à la commercialisation à partir de 1964. C'est dans ce contexte qu'à partir de 1965 la courbe du nombre de variétés cultivées remonte. Avec une accélération marquée entre 1990 et 2006, puisque l'on passe alors de 170 à 300 variétés.
Mais surtout, souligne Christophe Bonneuil, « la diversité génétique des blés cultivés a, elle, stagné entre les années 1960 et aujourd'hui » . Cela s'explique par le fait que chacune de ces variétés est de plus en plus homogène génétiquement, qu'elles se ressemblent davantage entre elles, et que leur répartition sur le territoire français est, elle aussi, de plus en plus homogène. Au final, il y a donc une nette diminution de la diversité génétique du blé sur le territoire français. « Même s'il n'y a pas d'hégémonie d'une variété donnée, précise Isabelle Goldringer, puisque la variété la plus cultivée n'occupe qu'un quart des surfaces. »
Paramètres privilégiés
Cette uniformisation n'est pas surprenante. La sélection de nouvelles variétés se fait en effet par et pour un système agricole donné. Soit, durant les quarante dernières années, une agriculture intensive à forte utilisation d'intrants * . Dans un tel système, les paramètres privilégiés lors de la sélection sont davantage le rendement et la qualité technologique de la récolte par exemple, la teneur en protéine des grains que les capacités génétiques de résistance aux pathogènes ou de tolérance aux stress. Rien d'étonnant à cela, puisque les pesticides et les engrais réduisent fortement les risques.
Par ailleurs, le système encourage aussi les variétés cultivables à la plus large échelle spatiale possible. Certes, ces variétés peuvent dès lors être considérées comme particulièrement adaptables. Mais elles ne le sont que dans le contexte d'agriculture intensive évoqué plus haut... Et gare à ceux tentant de s'écarter du paradigme dominant : leurs variétés risquent de ne jamais obtenir leur inscription au catalogue officiel, puisque ladite inscription dépend de la réussite des variétés à des tests conçus en fonction... du système en question !
On l'aura compris : « Les critères d'inscription au catalogue conditionnent très fortement le choix des modalités de sélection que les sélectionneurs mettent en place », précise Bruno Desprez, de la PME semencière Florimond-Desprez. Or, cet impact s'exerce sur une période assez longue, étant donné la durée du processus de sélection. « Il faut compter environ dix ans entre le moment où nous mettons en place des croisements correspondant à la fois aux exigences du catalogue et à celles du marché, et l'obtention d'une variété appropriée. » Autant dire que le système n'est pas très flexible.
Néanmoins, une évolution se dessine. « Depuis plusieurs années, indique Bruno Desprez, les tests d'inscription au catalogue incluent un critère environnemental : une nouvelle variété doit être testée dans les conditions intensives "normales", puis avec un apport de fongicides divisé par deux. Si elle se comporte correctement dans ce second contexte, elle se voit attribuer un bonus qui peut compenser une note un peu faible en conditions intensives. » Cela a permis l'inscription au catalogue de variétés de blés dits « rustiques », qui nécessitent moins de fongicides, bien qu'elles soient légèrement moins productives que les autres en conditions intensives. Des variétés issues de travaux lancés dans les années 1980 par l'INRA et cinq PME semencières dont Florimond-Desprez, et dont font partie Folklor, Karillon, Musik, et Flamenko, citées au début de cet article.
D'autres changements pourraient intervenir dans les années qui viennent. En mai 2011, le ministère de l'Agriculture a en effet rendu public un rapport intitulé « Semences et agriculture durable », qui préconise 7 grands axes d'évolution souhaitables. Dont « faire évoluer les conditions d'accès possible et de maintien au catalogue des variétés », et « orienter le progrès génétique vers des variétés adaptées à des conduites culturales diversifiées et permettant de répondre à la réduction des intrants ».
Si ce rapport ne reste pas lettre morte, il y a fort à parier que la solution privilégiée consistera à adapter le schéma classique de sélection aux nouvelles contraintes environnementales. « Un sélectionneur peut, à tout moment, tirer parti de la diversité génétique conservée dans les collections, explique François Balfourier, du centre de ressources génétiques de l'INRA de Clermont-Ferrand. C'est du reste la base de l'obtention de nouvelles variétés. » Dans le futur, il s'agira de croiser les variétés « élites », très productives, avec d'autres variétés considérées comme des réservoirs de gènes intéressants par rapport à telle ou telle contrainte environnementale. Et cela, en s'appuyant sur l'augmentation des connaissances concernant le génome du blé lire « Trois génomes pour une même plante », p. 60.
Mais d'autres options existent. Elles ont pour point commun d'abandonner le dogme de la pureté variétale, et de favoriser des peuplements composites au niveau même de la parcelle cultivée.
La première consisterait à utiliser des mélanges de semences associant les unes aux autres des variétés déjà disponibles. Claude Pope de Vallavieille, spécialiste d'épidémiologie végétale à l'INRA, mène ce type d'études depuis plusieurs années, pour améliorer la résistance des cultures aux épidémies fongiques. Le principe est d'associer des variétés différant par leurs gènes de résistance, mais homogènes du point de vue agronomique et ayant la même destination technologique notamment le même type de farine.
Meilleure résistance
Les premiers résultats se sont révélés suffisamment probants pour ensuite lancer des expérimentations intégrant tous les acteurs de la filière. Un exemple ? La mise en place d'un réseau de 28 parcelles chez 12 agriculteurs produisant du blé panifiable supérieur, dans 5 départements, en impliquant les chambres d'agriculture et une meunerie. « Nous y avons suivi, sur trois ans et un total de 250 hectares, 4 variétés cultivées soit seules, soit en mélanges,
en évaluant la sévérité des principales maladies, le rendement et la qualité de la récolte, explique la chercheuse. Et cela, dans un contexte de réduction des intrants de 30 %, avec en particulier un seul traitement fongicide au lieu de deux. »
Résultat : une diminution de 6 % de la sévérité de la maladie prédominante la septoriose, des récoltes de même qualité meunière que les variétés cultivées seules, et un rendement légèrement meilleur. Autrement dit, un succès. La condition pour que de telles méthodes se développent ? Que les chambres d'agriculture, les coopératives, les organisations techniques les promeuvent. Et que les meuneries acceptent ces récoltes.
La seconde option consisterait, pour certains, à redonner une place aux variétés non homogènes génétiquement, appelées « variétés-populations ». Avec pour objectif d'utiliser la capacité de ces variétés à évoluer selon leur environnement. En 1984, une expérience au long cours de « gestion dynamique » a été lancée par André Gallais et par Pierre-Henri Gouyon, de l'Institut national agronomique, avec trois variétés-populations de blé cultivées dans différents sites répartis sur toute la France. Poursuivie par leurs successeurs à l'INRA du Moulon, cette expérience a révélé que les populations se différencient rapidement en fonction des lieux de culture, et acquièrent en quelques générations des combinaisons de gènes de résistance plus robustes face aux maladies fongiques.
Toute la question est d'arriver à en tirer parti. Car d'autres caractères, considérés comme un handicap par bon nombre de sélectionneurs, sont associés à ces résistances. En particulier une grande hauteur des plantes, alors que sont aujourd'hui privilégiées les variétés naines. Et puis surtout les variétés-populations sont aujourd'hui absolument exclues du catalogue officiel, donc de la commercialisation. Faut-il s'attendre à une évolution de ce côté-là ? Le rapport du ministère de l'Agriculture évoque des « dispositions particulières » pour ce type de variétés. Sans plus de précisions.
Par Cécile Klingler
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|