ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

HASARD ET SÉLECTION ...

 


Éloge du hasard et de la sélection


l'origine des formes - dans mensuel n°305 daté janvier 1998 à la page 50 (3229 mots)
La forme d'un être vivant résulte de l'expression d'une instruction génétique : telle est l'hypothèse de travail la plus couramment adoptée en biologie moléculaire. Hélas ! du gène à la protéine, de la protéine à la cellule et de la cellule à l'organisme, une foule d'exemples montre la nécessité d'introduire le hasard dans ce processus ! Le modèle instructionniste a-t-il atteint ses limites ?

En biologie, le concept de forme est défini de manière circulaire à l'aide des concepts d'information in-form-ation et de fonction : on considère d'abord que la fonction d'un organe, d'une cellule ou d'une protéine est une conséquence de sa forme ; ensuite que cette forme est produite par une information qui prend sa source au niveau des gènes. La circularité apparaît - avec les problèmes ! - dès qu'on réalise que cette information est elle-même censée être portée par des formes. Même si le terme « forme » laisse place à ceux, plus habituels en biologie, de « structure » ou de « phénotype », les questions comme celles de la construction des organismes et de leurs constituants, ou de la façon dont ils accomplissent une fonction, concernent toujours l'origine des formes et la nature des interactions entre formes différentes.

Les premières théories susceptibles d'expliquer l'origine d'une forme biologique impliquaient un acte créateur. Ce dernier pouvait être accompli par une entité supérieure ou, ce qui revient à peu près au même, être la conséquence de lois préexistantes à l'objet. Si l'on ajoute le postulat selon lequel les formes sont créées dans leur état définitif fixisme, le problème des formes est définitivement résolu. Il reste alors à se préoccuper de la nature des lois ou de l'acte créateur originel. L'étape ultérieure a été le transformisme, c'est-à-dire l'idée que les formes évoluent après leur création. Dans ce contexte, l'hypothèse de la génération spontanée était d'ailleurs souvent préférée à celle de la création. Les travaux des naturalistes du XVIIIe et du XIXe siècles ont démontré la force explicative du transformisme et des théories de l'évolution. Schématiquement, deux types d'hypothèses peuvent expliquer cette transformation des objets biologiques au cours du temps et l'apparition de systèmes ordonnés : ils reposent sur le principe de l' instruction ou sur celui de la sélection .

Le principe de l'instruction considère qu'un objet biologique, protéine, cellule ou organisme, se modifie en réponse aux instructions émises par un autre objet ou ensemble d'objets. Sur une échelle de temps courte, cette modification permet la construction de l'objet biologique ; sur une échelle de temps plus longue, on parle en général d'évolution de cet objet. Cette conception comporte un certain nombre de corollaires importants. Elle impose notamment un postulat de fixité, de stabilité des systèmes biologiques puisqu'elle sous-entend qu'en l'absence d'instruction le système reste constant1. De plus, l'instruction transmise doit être suffisamment spécifique pour orienter le système d'un état initial vers un état final. Etant donné le grand nombre d'états finaux possibles, ceci requiert la mise en oeuvre de systèmes extrêmement précis de transfert et de déchiffrage de l'information.

Ainsi l'acte d'instruction, d'une certaine façon, s'apparente-t-il à un acte de création, même si l'instruction ne crée pas la matière mais seulement la forme. De plus, l'instruction est seule capable de rompre la fixité « naturelle » du système fig. 1. Au sein des modèles instructionnistes, on retrouve donc la trace des postulats de fixité et de création qui existaient dans les modèles traditionnels ou religieux, ce qui ne va pas, bien sûr, sans soulever de nouveaux problèmes2. En effet, puisque tout objet n'acquiert sa forme qu'en réponse à la forme préexistante d'un autre objet, les modèles instructionnistes, de proche en proche, butent nécessairement sur la question de l'origine du tout premier objet. Par exemple, la question de l'origine de l'organisme est aujourd'hui remplacée par celle de l'origine des gènes, qui reste incomprise. Un problème analogue se pose en physique depuis que l'on a pris conscience que l'Univers a lui aussi une histoire et subit une évolution. Là aussi l'événement créateur le Big Bang a remplacé l'acte créateur.

Qu'en est-il des modèles sélectifs ? Le premier d'entre eux a été proposé de manière détaillée par Darwin et par Wallace, à partir d'idées qui commençaient à faire leur chemin chez les naturalistes pour répondre au problème de l'évolution des espèces et de leur adaptation à des environnements variés. Plus récemment, des modèles sélectifs ont été adoptés en immunologie pour expliquer la capacité de l'organisme à réagir à toutes sortes d'agents étrangers antigènes en fabriquant des anticorps capables de s'y associer avec une forte affinité. Au contraire des modèles instructionnistes, les modèles sélectifs postulent que les systèmes biologiques possèdent une variabilité et une instabilité naturelles. Cette variabilité est aléatoire, au sens où elle n'oriente pas l'organisme vers un état final particulier fig. 1. Les modèles sélectifs ne recourent donc pas à une information et à un ordre préexistants, ni à des systèmes sophistiqués susceptibles de transférer cette information. Au contraire, les variations aléatoires, c'est-à-dire un certain niveau de désordre, préexistent, et les interactions avec l'extérieur ne contiennent pas d'information de forme. Si l'on prend l'exemple caricatural de l'allongement du cou de la girafe au cours de l'évolution, l'interprétation instructionniste considère que la girafe ne change pas, sauf si la hauteur des arbres allonge spécifiquement son cou. Au contraire, l'interprétation sélective postule que la girafe varie spontanément. Les variations favorables seront maintenues par la sélection naturelle, qui n'agit pas directement ni spécifiquement sur la forme du cou : elle est seulement liée à l'accès aux ressources nutritives. De même, dans le cas des anticorps, on sait que la diversité préexiste et fait l'objet d'une sélection, et que ce n'est pas l'antigène qui transmet une instruction de forme moulage à l'anticorps.

La biologie moléculaire est l'étude du fonctionnement des gènes et des mécanismes qui permettent à ce que l'on appelle le programme génétique de se réaliser. Curieusement, si l'évolution des espèces, la génétique des populations ou l'immunologie s'appuient sur des modèles de hasard-sélection, ce n'est pas le cas de la biologie moléculaire. Dans le cadre de cette théorie, seule la structure des gènes subit des variations aléatoires : mutations, recombinaisons, etc. Leur fonctionnement est quant à lui conçu sur le mode de l'instruction. Le dogme central de la biologie moléculaire peut donc se résumer ainsi : le système biologique est stable dans l'inactivité, dans l'attente d' instructions spécifiques, prenant leur source au niveau des gènes, qui le fabriquent et le mobilisent. En termes plus techniques, l'ADN des chromosomes porte les instructions permettant la transcription des ARN messagers, qui portent les instructions nécessaires à la synthèse des protéines, lesquelles déterminent l'état de différenciation cellulaire qui instruit la structure finale de l'organisme.

La conception actuelle de ce programme génétique est intimement liée à la notion de spécificité. Ce sont, en effet, des interactions supposées spécifiques qui permettraient les transferts d'instructions nécessaires à sa réalisation. Ainsi, par exemple, sont fréquemment évoquées l'information spécifique qui oriente la différenciation d'une cellule, celle qui cible une molécule vers un compartiment cellulaire, ou celle, contenue dans une séquence d'acides aminés, qui permet le repliement d'une protéine et son activité. L'information spécifique corres-pond, physiquement, à une reconnaissance exclusive et une interaction entre deux molécules, baptisée stéréospécificité. Dans sa compréhension habituelle, ce mécanisme de reconnaissance moléculaire ne laisse aucune place à la variabilité à cause du caractère univoque de cette reconnaissance entre deux molécules. Il est utile de revenir à la formalisation énoncée par Jacques Monod à propos de la stéréospécificité :

« La formation du complexe stéréospécifique, préludant à l'acte catalytique lui-même, peut donc être considérée comme remplissant à la fois deux fonctions :

1. le choix exclusif d'un substrat, déterminé par sa structure stérique ;

2. la présentation du substrat selon une orientation précise qui limite et spécifie l'effet catalytique des groupes inducteurs.

La notion de complexe stéréospécifique non covalent ne s'applique pas seulement aux enzymes ni même seulement, comme on le verra, aux protéines. Elle est d'une importance centrale pour l'interprétation de tous les phénomènes de choix, de discrimina- tion élective, qui caractérisent les êtres vivants... ». En ce qui concerne les phénomènes de différenciation cellulaire, Jacques Monod ajoute : « Il n'en reste pas moins que la construction d'un tissu ou la différenciation d'un organe, phénomènes macroscopiques, doivent être considérés comme la résultante intégrée d'interactions microscopiques multiples dues à des protéines, et reposant sur leurs propriétés de reconnaissance stéréospécifique... » 3 .

Cette citation, hors de son contexte, ne rend certes pas justice à la richesse de la pensée de Jacques Monod, et ne reflète probablement pas non plus la conception de tous les biologistes moléculaires. Il n'en reste pas moins qu'elle traduit le point de vue le plus répandu et enseigné aujourd'hui. L'intégration de toutes les interactions moléculaires soutient les structures macroscopiques. Autrement dit, les interactions des formes moléculaires déterminent les formes macroscopiques. A un ensemble d'interactions moléculaires ne correspond qu'une seule forme macroscopique, du fait du caractère spécifique de chaque interaction. L'ordre au niveau cellulaire reflète donc directement et mécaniquement l'ordre au niveau moléculaire. Il faut reconnaître que les conséquences de cette théorie en termes de programme de recherche sont particulièrement riches : quel que soit le phénomène étudié, la recherche du gène ou de la protéine sous-jacents, et l'analyse des interactions dans lesquelles il ou elle est impliqué, doit mener à une compréhension pleine et entière.

Face à cet état de fait, il est sans doute nécessaire de réintroduire aujourd'hui, au niveau des molécules, la notion de diversité et les concepts probabilistes de hasard-sélection contenus dans la théorie darwinienne de l'évolution. Ces concepts, bien établis au niveau des populations d'organismes, ont été négligés en première approche au niveau des populations moléculaires. En ce sens, nous soutenons ici une thèse alternative à la conception habituelle fondée sur la stéréospécificité : les interactions moléculaires ne présentent pas de relation exclusive ou spécifique, mais au contraire un caractère extrêmement flou ou dégénéré. Si l'instruction fait ainsi place à l'aléatoire, chaque génome porte le potentiel de produire un grand nombre de structures macroscopiques virtuelles dont une infime fraction est « fonctionnelle ». Le phénotype ou l'individu unique finalement produit, serait alors le résultat d'un processus de sélection qui s'exercerait sur l'ensemble de ces structures potentielles. Autrement dit, chacun d'entre nous n'est pas le seul individu écrit dans ses gènes, mais le plus probable et le plus viable des individus possibles. Notons que la sélection, dans ce contexte, signifie un tri parmi les variations possibles, mais n'implique pas nécessairement une élimination pure et simple des variations ou des interactions inutiles. Il en découle que l'analyse isolée des interactions moléculaires, ou des séquences génétiques, est insuffisante pour expliquer une structure macroscopiqueI.

On considère aujourd'hui que la structure des gènes évolue au hasard, mais que leur langage est déterministe. La biologie moléculaire décrit pourtant un nombre croissant de variantes et d'exceptions aux règles initialement considérées comme formant les bases grammaticales du langage des gènes. Ne serait-il pas plus pertinent, plutôt que de considérer que le langage des gènes est complexe, de considérer que la variabilité aléatoire est indissociable des mécanismes d'expression des gènes et du fonctionnement moléculaire ? De considérer que le langage génétique est dégénéré et que cela ne constitue pas, pour les organismes, un inconvénient mais au contraire un avantage, une source supplémentaire de polymorphisme ?

On peut citer d'innombrables exemples de ce type d' erreurs dans les mécanismes génétiques. Curieusement, on considère tantôt qu'il s'agit d'erreurs sans importance, tantôt que ces variations on ne parle plus d'erreurs sont indispensables à la survie de l'organisme. L'importance des taux d'erreurs observés lors de la synthèse des protéines a déjà été soulignée par Jacques Ninio4. La synthèse de plusieurs protéines à partir d'un seul gène est également documentée, et la variabilité du phénotype associé à un même allèle est bien connue des généticiens. Une vision plus floue du langage des gènes permet d'expliquer pourquoi deux personnes portant la même mutation peuvent être, l'une en bonne santé et l'autre malade, beaucoup plus facilement en tout cas que dans le cadre d'une conception rigide du langage génétique.

En matière d'évolution des animaux par exemple, le potentiel d'adaptation est en grande partie déterminé par la diversité et la taille des populations. En effet, plus une population est grande et variable, plus elle contient de solutions différentes pouvant garantir sa survie. On peut appliquer ces principes aux populations moléculaires. Il est plus facile d'imaginer qu'une protéine puisse découvrir une activité enzymatique si elle constitue une grande population aux formes variables, que si elle forme une population homogène. Les nombres d'individus constituant les « populations moléculaires » sont très élevés. Par exemple, un milliardième de gramme d'une protéine de taille moyenne contient cinquante milliards de molécules. Il reste à admettre que ces populations de macro- molécules contiennent des formes diverses, car il est très difficile aujourd'hui d'observer une macromolécule isolée.

Si l'on introduit cette notion de variation à chaque étape du fonctionnement génétique, chaque génome code un très grand nombre d'individus potentiels et explore donc de façon très large le champ des possibles. Une telle conception de l'information génétique permet de résoudre un des problèmes soulevés par la théorie de l'évolution et classiquement illustré par la fable du singe dactylographe : la probabilité d'obtenir un génome viable au hasard serait la même que celle qu'aurait un singe d'écrire Hamlet en t a pant au hasard sur une machine à écrire. Or cette fa b le sous-entend que le l a ngage des gènes est celui de Shakespeare, c'est-à-dire qu'il s'appuie sur un voca b ulaire et une grammaire très précis. Si l'on considère au contraire que le langage des gènes se distingue par son extrême ambiguïté et la multiplicité des lectures possibles, il faut remplacer la fable du singe-Shakespeare par celle du singe-Nostradamus. Il n'est dès lors plus nécessaire d'invoquer des miracles créateurs : la probabilité pour qu'un lecteur sélectif trouve une signification à un texte confus écrit dans un langage fumeux est pratiquement égale à un...

On peut appliquer ces principes à la différenciation cellulaire, qui est l'un des éléments déterminant la forme finale de l'organisme. Ce phénomène a longtemps été expliqué par des modèles instructionnistes. Pourtant, il est possible de l'expliquer par des modèles de hasard-sélection1,5,6. Dans le cadre des modèles instructionnistes, les cellules reçoivent une information spécifique ou instruction qui provoque une différenciation bien déterminée fig. 2, modèle déterministe.

Cette information est censée être véhiculée par des interactions membranaires, ou bien par des facteurs de différenciation diffusibles. Dans le cadre du paradigme de la spécificité, cette information est absolument nécessaire pour changer l'état de différenciation d'une cellule. Par contre, si l'on renonce à la relation univoque et spécifique entre molécules, il est possible d'expliquer la différenciation sans l'intervention d'un inducteur spécifique. Si à un ensemble d'interactions moléculaires peuvent correspondre plusieurs structures du fait du caractère non spécifique dégénéré de ces relations, dans une population de cellules les différentes structures types cellulaires seront réalisées avec des fréquences dépendant des probabilités de réalisation de chaque structure fig. 2, modèle probabiliste.

Un exemple théorique simple peut être donné pour la transcription des gènes fig. 3. Dans une cellule, une molécule d'un régulateur de la transcription peut activer soit le gène a, soit le gène b, ce choix étant aléatoire. Dans une population de cellules, une fraction des cellules exprimera a et une autre b. La fréquence des phénotypes A et ßI /Iß correspondants dépendra donc de la probabilité d'activation de ces deux gènes. De manière plus générale, si l'on a moins de molécules régulatrices que de gènes régulables, on générera une combinatoire de distributions des régulateurs sur les gènes, chacune correspondant à un ensemble de gènes activés, et donc à un type cellulaire potentiel. MeCP2 fournit un exemple de régulateur de la transcription qui pourrait participer à un tel mécanisme. En effet, il a pour cible le dinucléotide méthyl-CG. Il existe 4.107 copies de cette cible pour seulement 106 molécules de MeCP2 d a ns un noyau de cellule de mammifère. Il est donc peu pro b able que ces molécules soient distribuées de manière identique dans toutes les cellules7. Un tel mécanisme peut générer une grande diversité de types cellulaires sans faire appel à des régulateurs spécifiques. Il permet donc d'expliquer la faible spécificité et l'ubiquité des facteurs de régulation, tels ceux codés par les homéogènes. Il permet également d'expliquer les phénomènes dits de colinéarité, qui correspondent à des corrélations entre la position des gènes dans les chromosomes et leur chronologie d'activation au cours de la différenciation cellulaire1,5,6.

Dans le modèle instructionniste prévalent, il faut expliquer comment une cellule change d'état et se différencie. Au contraire, dans le cas du modèle aléatoire, il faut expliquer comment les cellules stabilisent les phénotypes favorables. En effet, si l'on reprend l'exemple de la figure 3, à chaque fois que le régulateur se dissocie de son site d'interaction a ou b, il pourrait se réassocier de manière aléatoire sur l'autre site, changeant le phénotype cellulaire. La phosphorylation des -régulateurs pourrait permettre une telle stabilisation en modifiant la stabilité des complexes régulateur-ADN. Les enzymes responsables kinases et phosphatases ne requièrent pas de cibles ou d'inducteurs spécifiques dans ce modèle. Elles agissent globalement et rétrospectivement pour stabiliser le système lorsque la bonne combinaison de phénotypes cellulaires est exprimée5,6.

En conclusion, on voit que la forme finale des objets biologiques peut relever de deux types d'explications. Sur le mode de l'instruction, on postule que la forme des protéines découle de la forme des gènes, que la forme des cellules découle de celle des protéines, et que celle des organismes découle de celle des cellules. On retrouve l'idée classique selon laquelle « le tout est la somme des parties », et l'on suppose une hiérarchie de niveaux d'organisation dont les molécules, notamment l'ADN porteur de l'information génétique, forment la base. La biologie moléculaire moderne s'appuie sur cette conception.

Dans ce cas, la nécessité d'une perspective évolutive retraçant l'histoire des organismes est reconnue mais apparaît d'importance secondaire. D'ailleurs l'histoire proposée est en général identique au schéma réductionniste postulé. Autrement dit, la biologie moléculaire instructionniste postule que le petit s'assemble pour faire le gros et que le petit est aussi l'ancêtre du gros. Dans cette extension inconsciente du principe de récapitulation de Haeckel l'ontogenèse résume la phylogenèse, les acides nucléiques, qui seraient au coeur du vivant actuel, constitueraient aussi l'origine passée de la vie. Tout se ramènerait donc à l'ADN ou à l'ARN même si, dans l'histoire de la lutte pour la survie dans le cataclysmique océan primitif, il n'est pas facile de concevoir la victoire des acides nucléiques ribozymes.

Sur le mode du hasard-sélection, l'organisme ne se construit pas mécaniquement en partant de l'ADN et en remontant vers la cellule et l'organisme entier, mais en intégrant toutes les contraintes sélectives qui s'exercent sur des populations hétérogènes de molécules ou de cellules soumises à des variations aléatoires. Dans ce cadre, l'étude du vivant doit se faire en s'appuyant non seulement sur l'observation directe des événements moléculaires mais également par l'analyse de ces contraintes sélectives. Le rôle de l'ADN se trouve ainsi fortement relativisé au profit des processus épigénétiques. Il apparaît finalement nécessaire de réintroduire le facteur temps et que la meilleure façon de comprendre les organismes est de reconstituer leur histoire. Certes, le passé n'est pas directement accessible à l'observation. Il faut le démontrer, à défaut de pouvoir le montrer. Comme le savent les évolutionnistes, le passé peut être reconstruit par une analyse comparative des formes présentes, et cela nécessite, non pas la multiplication de microspécialités descriptives, mais une véritable synthèse multidisciplinaire.

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
 

L'OS

 


L'os


back to basic - par Viviane Thivent dans mensuel n°363 daté avril 2003 à la page 83 (2672 mots)
L'os permet le maintien du corps : il n'en fallait pas plus pour lui donner l'image d'une structure figée. Cette vision est néanmoins réductrice. Usine cellulaire en constante transformation et lieu de stockage de minéraux, l'os est avant tout vivant.

Cartilage et os, quelle différence ?

Quiconque en a déjà croqué le sait : le cartilage est ferme et élastique. Ses cellules, appelées chondrocytes, sécrètent de la matière organique sous forme de longues molécules de collagène et de protéoglycanes*. L'ensemble ne représente toutefois qu'une faible portion de la matrice cartilagineuse. Celle-ci est, en effet, constituée à 70 % - 80 % d'eau. Pas un vaisseau sanguin ne l'irrigue. Le transport de l'oxygène ou des nutriments vers les chondrocytes s'effectue donc par simple diffusion à partir de vaisseaux sanguins de surface.

L'os, lui, présente une structure bien différente : il est non seulement calcifié, mais aussi vascularisé et innervé. Le collagène que sécrètent les cellules osseuses, les ostéoblastes, s'associe à des minéraux calcium et phosphore, acheminés jusqu'aux ostéoblastes par la circulation sanguine. Quant aux arêtes qui indisposent tant les gourmets, ce sont bien des os. Mais elles se forment par ossification intermusculaire et ne s'attachent que rarement à la colonne vertébrale. Ce qui explique que, dans l'assiette, elles restent cachées dans la chair !

Les tissus osseux se distinguent des dents ou de l'ivoire par leur degré de minéralisation, moins élevé : 64 % du poids sec de l'os est minéral contre 70 % à 75 % pour les dents ou l'ivoire. D'un point de vue évolutif, cartilage et os seraient apparus à peu près simultanément, il y a 400 millions d'années. Du point de vue ontogénique, le cartilage constitue une grande partie du squelette des vertébrés, au début de leur développement. Il est ensuite remplacé par du tissu ossifié, sauf chez les requins, les raies ou les chimères, poissons cartilagineux de la classe des chondrichthyens.

Comment l'os grandit-il ?

En 1864, l'anatomiste allemand Karl Gegenbaur identifie, dans les os en croissance, des « corpuscules granulaires » actifs qu'il baptise ostéoblastes. Ces cellules participent aux deux processus d'ossification existants, dont l'un aboutit à la formation des os courts ou plats par exemple, les omoplates et l'autre, à la formation des os longs ceux des membres. Le premier processus s'effectue à partir d'un tissu vascularisé, d'où son nom d'ossification dermique. Des cellules souches présentes dans ce tissu se différencient en ostéoblastes, qui sécrètent alors la matrice osseuse. Une fois la minéralisation achevée, les ostéoblastes sont nommés ostéocytes. Ils forment petit à petit des barres, les travées, dont le diamètre augmente au fur et à mesure que la matrice se calcifie à leur surface. Les travées finissent par se rejoindre, emprisonnant ainsi nerfs et vaisseaux sanguins. Ce processus induit la soudure de certains os immatures, d'où la réduction du nombre d'os qui a lieu entre la naissance et l'âge adulte.

Dans le second type d'ossification, des vaisseaux sanguins envahissent le cartilage et y déposent des chondroclastes qui le désintègrent et des ostéoclastes qui construisent de la matière osseuse. C'est pour cette raison qu'on l'appelle ossification endochondrale [fig. 1]. Elle a beau avoir lieu dans le cartilage, il ne s'agit pourtant pas d'une ossification de ce dernier, mais de son remplacement par du tissu osseux. La croissance en épaisseur des os dermiques est assurée par des ostéoblastes localisés dans la membrane qui entoure l'os, le périoste. Chez les mammifères, la croissance en longueur des os longs se produit par apposition de matière osseuse au niveau d'une bande de cartilage située entre la partie centrale et l'extrémité de l'os. La croissance s'arrête lorsque ce cartilage disparaît au profit d'une couche d'os qui soude ces deux entités. Comme le phénomène se produit à différents moments de la croissance selon l'os considéré, l'observation radiographique de l'état de soudure des os permet d'estimer l'âge osseux de l'organisme. En 1895, Wilhelm Röntgen, le découvreur des rayons X, prend une radiographie de la main de sa femme : les os apparaissent, mais pas le cartilage. Aujourd'hui, une simple radiographie de la main suffit pour détecter d'éventuelles anomalies de croissance.

L'os est-il fragile ?

Partie intégrante du squelette, l'os permet le maintien du corps, la protection des organes vitaux et la motricité de l'organisme. Il est à la fois solide et élastique. Les cristaux minéraux lui confèrent sa dureté mais ils se casseraient facilement sans la présence du collagène ou des protéoglycanes. Déformables jusqu'à un certain seuil, les fibres de collagène commencent à se déchirer lorsque la tension exercée sur l'os est trop forte. À ce stade, ce ne sont que des microfractures qui préservent les cristaux inorganiques et retardent l'arrivée de la fracture massive. Dans la maladie dite des os de verre, une anomalie génétique entrave la formation d'un collagène correct. Résultat : les os se rompent au moindre coup.

À une échelle plus large, dans un même os, la présence de deux densités osseuses, spongieuse et compacte, le rend à la fois dur et léger. En surface, l'os compact est un tissu où les travées remplissent tout l'espace, d'où son nom. Il confère à l'os sa résistance aux chocs. L'os spongieux possède quant à lui des travées très espacées, ce qui lui donne l'aspect d'une éponge. Il borde la cavité centrale de l'os et emplit les extrémités des os longs. Cela permet d'atténuer la violence des pressions reçues lors des déplacements de l'organisme : l'os spongieux agit alors comme un amortisseur. La cavité centrale de l'os peut être comblée par des sacs à air. C'est, par exemple, le cas de certains os d'oiseaux. Une adaptation observée dès le Trias, il y a 230 millions d'années, chez des dinosaures volants [1] .

L'os est-il remodelable ?

Mieux que cela ! Le squelette adulte se régénère entièrement tous les dix ans par un jeu constant de destruction et de construction osseuses. L'érosion de l'os résulte de l'action de grosses cellules à plusieurs noyaux, les ostéoclastes, issues de la fusion de plusieurs cellules immunitaires, les macrophages [fig. 2]. Ils en gardent d'ailleurs la fonction, puisque les ostéoclastes dégradent la matrice osseuse grâce aux enzymes et aux acides qu'ils produisent, et recyclent le calcium en le libérant dans la circulation sanguine. Ce phénomène permet le creusement de la cavité centrale des os, le développement des os en harmonie avec la croissance des muscles ou des organes et enfin, même chez l'adulte, un remodelage qui est fonction des forces de pression et de traction exercées. Parfois, les ostéoclastes, anormaux, ne parviennent pas à résorber correctement l'os. D'où une augmentation progressive de la densité osseuse qui provoque des problèmes neu- rologiques et hématologiques tels que ceux observés dans l'ostéopétrose.

Difficile enfin de parler de remodelage sans parler de la réparation des fractures. Celles-ci sont tout d'abord consolidées, en quelques semaines, par un cal de tissu conjonctif puis cartilagineux. Cet os immature est ensuite remplacé progressivement par un os calcifié. Le temps nécessaire à une résorption complète augmente avec l'âge de l'individu, la moyenne étant de deux mois. Cependant, il arrive parfois que le cal ne se calcifie pas normalement. Il se forme alors une sorte de « nouvelle articulation » dont le jeu varie.

Quel rôle pour la moelle osseuse ?

Sous le terme de moelle osseuse, se cachent en fait deux substances : la moelle jaune, graisseuse, et la moelle rouge. À la naissance, tous les os sont gorgés de moelle rouge qui se transforme progressivement en moelle jaune. Au stade adulte, seuls les os plats, courts et les extrémités de quelques os longs renferment encore de la moelle rouge, soit moins de 50 % de la moelle totale. Cette moelle rouge joue un rôle primordial. Elle est en effet le siège de la production permanente des cellules du sang : plaquettes responsables de la coagulation, globules blancs mobilisés lors des réactions immunitaires, globules rouges impliqués dans le transport de l'oxygène [2]. Un type cellulaire unique, capable de proliférer et de se différencier, leur donne naissance : c'est la cellule souche hématopoïétique.

Dès la fin du XIXe siècle, soit bien avant la naissance du concept de « cellule souche », la moelle osseuse avait été identifiée comme la zone de production des cellules sanguines, d'où l'idée de l'utiliser pour soigner des patients atteints de leucémie. En 1958, quatre physiciens yougoslaves irradiés sont guéris in extremis par une greffe de moelle. Le potentiel thérapeutique des cellules de la moelle osseuse prend corps. La méthode n'est cependant pas au point : la compatibilité immunitaire du greffon avec l'organisme receveur reste problématique. En 1976, la première autogreffe est réalisée : un peu de moelle du patient lui est prélevée, puis réinjectée après qu'il a subi une radiothérapie. Des greffes sont aussi réalisées à partir de donneurs étrangers.

Ces allogreffes n'ont cependant de chances de succès que si donneur et receveur sont suffisamment proches sur le plan immunologique. Aujourd'hui, on favorise la sélection des cellules souches prélevées dans le sang 85 % des sources de greffon actuelles. Les cellules sont ensuite cultivées en laboratoire pour accroître leur nombre, puis réinjectées au malade.

Notre alimentation joue-t-elle sur la santé des os ?

Oui, surtout pendant la croissance, la grossesse ou l'allaitement, autrement dit chaque fois que le métabolisme calcique est modifié. Plus d'un tiers du capital osseux se constitue à l'adolescence. Durant cette période, les apports en calcium et en vitamines sont déterminants pour la santé osseuse future. Normalement puisé dans l'alimentation, le calcium est en effet prélevé dans les os en cas d'apports insuffisants. Par exemple, dès la huitième semaine de grossesse, une femme enceinte doit subvenir aux besoins calciques de son foetus. En cas de déficit alimentaire en calcium, son stock osseux sera particulièrement entamé.

Le métabolisme du calcium est contrôlé par trois hormones : un stéroïde dérivé de la vitamine D qui augmente son absorption intestinale, la parathormone PTH qui régule sa concentration dans le sang et la calcitonine qui inhibe la destruction osseuse. La vitamine D est synthétisée par la peau sous l'action des rayons UV. Une trop faible quantité entraîne une hypocalcémie pouvant conduire au rachitisme, car la minéralisation de l'os nouvellement formé est imparfaite.

Le manque de calcium n'est toutefois pas le seul à incriminer en matière de mauvaise santé osseuse. Souvent prisée par les adolescents, une alimentation trop riche en phosphore du type hamburger et soda conduit à une augmentation de la proportion de phosphore stocké dans le tissu osseux, ce qui le fragilise. De même, un excédent alimentaire en vitamine A, substance favorisant les processus de croissance et que l'on trouve dans le beurre ou les oeufs, semble augmenter la probabilité de fracture.

L'os vieillit-il ?

Jusqu'à 35 ans, la balance entre construction et destruction osseuses est équilibrée. La résorption prend ensuite le pas sur la construction, et l'os se fragilise. Plus le capital osseux constitué en amont est important, plus la fragilisation est tardive. L'accentuation pathologique de ce vieillissement naturel s'appelle l'ostéoporose « os poreux ». Les travées de l'os spongieux se raréfient et le tissu compact s'amincit, cela d'autant plus rapidement que le métabolisme de l'os est actif, comme c'est le cas dans la hanche. Un manque d'exercice, une carence en calcium ou en vitamine D facilitent son apparition. Rien que dans l'Union européenne, l'ostéoporose provoque une fracture toutes les 30 secondes. Premières victimes ? Les femmes. Une sur trois entre 60 ans et 70 ans. Et pour cause : leur capital osseux est moins important que celui des hommes et la ménopause provoque une carence soudaine en oestrogènes. D'où un développement accru des ostéoclastes qui bouleverse le remodelage osseux. Comment pallier ce phénomène ? Un premier mode d'action consiste en la prise de traitements hormonaux de substitution. Toutefois, certains d'entre eux sont aujourd'hui remis en question car ils augmenteraient les risques de développer un cancer du sein. Restent les suppléments vitamino-calciques ou les biphosphonates* pour empêcher la résorption osseuse. Il n'existe pas aujourd'hui de traitement capable de stimuler la formation osseuse même si des espoirs sont portés par la parathormone.

Une autre forme de vieillissement accéléré est l'ostéoporose dite « de désuétude ». Lors des immobilisations de longue durée, sur un lit d'hôpital par exemple, les patients subissent une forte décalcification car le renouvellement osseux est aussi fonction du poids exercé sur l'os. Une partie du calcium est recyclée, puis évacuée par les urines. Un phénomène similaire se produit lors des voyages spatiaux, ce qui n'est pas sans conséquence lors du retour sur terre.

Peut-on créer de l'os artificiel ?

En général, les fractures se résorbent d'elles-mêmes. Il suffit de remettre en place les fragments osseux et d'immobiliser. Quand ce n'est pas le cas, une intervention plus importante est nécessaire : il s'agit alors de remplacer l'os. C'est à la fin du XIXe siècle qu'apparaissent les premières prothèses articulaires, alors en ivoire ou en titane. En 1962, l'Anglais John Charnley pose la première prothèse totale de hanche. Aujourd'hui, en France, deux millions de personnes vivent avec une prothèse articulaire. Cette solution n'est cependant que temporaire, car la prothèse doit être changée tous les 10 à 20 ans. Une autre voie est de faciliter la construction osseuse en greffant des fragments d'os. Le greffon peut être prélevé sur le patient ou sur quelqu'un d'autre sous réserve de compatibilité immunitaire, mais il peut aussi être remplacé par des matériaux de substitution comme les céramiques. Biologiquement muets, ces derniers servent de support passif à la réparation osseuse.

En 1965, Marshall Urist implante un fragment déminéralisé d'os de lapin dans un tissu musculaire et obtient la formation d'un véritable os ; quelque chose dans la matrice a induit l'ossification. Sans le savoir, cet Américain venait de découvrir des protéines impliquées dans la morphogenèse de l'os, les BMPs bone morphogenic proteins. Vingt-cinq ans seront nécessaires à leur purification complète, et c'est au début des années 1990 que sont testés les premiers implants pourvus de BMPs, donc biologiquement actifs. Des implants inertes peuvent aussi être combinés avec des cellules ostéogènes. Ils permettent alors la construction osseuse. Une ultime piste de recherche consiste à faire appel à la thérapie génique. En 1999, une expérience menée chez le rat s'est révélée fructueuse. Un adénovirus a été utilisé pour transmettre des gènes codant les BMPs aux cellules de la moelle osseuse : la fracture s'est résorbée alors que celle des rats témoins restait béante.

Que nous révèlent les os sur notre passé ?

En paléontologie, l'os est une véritable machine à remonter le temps lorsque le hasard a permis sa fossilisation. Une étude des microstructures osseuses fournit des informations paléobiologiques de grande valeur. La croissance des organismes étant, à l'image des cernes des arbres, enregistrée par les tissus osseux, il est par exemple possible d'estimer le taux de croissance de certaines espèces fossiles et d'en déduire la nature de leur métabolisme énergétique. La croissance de quelques dinosaures révèle ainsi qu'ils auraient pu être capables de maintenir leur température interne à un niveau constant ! Au-delà, l'examen de la forme de l'os permet souvent de déterminer le mode de locomotion de l'espèce, par exemple le vol ou le saut.

S'il est suffisamment protégé de l'érosion, l'os peut conserver son collagène pendant près de 200 000 ans. Du collagène qui, comme toute protéine, contient de l'azote et du carbone. De ce fait, son analyse détaillée permet de déduire le régime alimentaire de l'organisme fossile étudié. Il est même parfois possible d'identifier, dans l'alimentation, la présence de certains types végétaux. D'où la reconstitution, non seulement du mode alimentaire des animaux ou des hommes préhistoriques, mais aussi du paléo-environnement dans lequel ils évoluaient.

La forme des points d'insertion musculaires ou tendineux permet encore d'aller plus loin, le degré de développement dépendant souvent des habitudes humaines. C'est ainsi que l'on a pu s'apercevoir que la Dame d'Hochfelden, dont le squelette date du Ve siècle, était en fait une cavalière émérite : le relief de la partie haute de son fémur est en effet très accentué. De même, des lésions osseuses peuvent indiquer la pratique de certains arts guerriers.

Dans un bateau anglais du XVIe siècle, le Mary Rose, coulé alors qu'il emmenait des hommes combattre contre les Français, le quart des squelettes présentaient une rupture de l'extrémité de l'omoplate, signe d'une pratique précoce du tir à l'arc. Ce navire de guerre ne transportait donc pas n'importe quelle armée vers le continent : il s'agissait d'archers.

Par Viviane Thivent

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

PRÉSERVER LA DIVERSITÉ GÉNÉTIQUE DU BLÉ

 

Préserver la diversité génétique du blé


agronomie - par Cécile Klingler dans mensuel n°455 daté septembre 2011 à la page 58 (1985 mots)
Le nombre de variétés de blé cultivées en France augmente, mais leur diversité génétique stagne. Comment remédier à cette situation, qui freine la capacité d'adaptation des cultures aux évolutions de l'environnement ?

E lles s'appellent Folklor, Karillon, Musik et Flamenko, et succèdent à Apache, Soissons, Étoile de Choisy, ou encore Rouge de Bordeaux et Noé... Sous ces noms poétiques se cachent autant de variétés de blé tendre, celui dont on fait le pain, et qui représente 95 % de la production de blé dans le monde. Certaines sont très récentes : cela fait moins d'un an que les quatre premières sont inscrites au catalogue officiel français, prérequis absolu à leur commercialisation. Apache, Soissons et Étoile de Choisy avaient, elles, décroché le précieux sésame en 1998, 1988 et 1950. Les deux dernières, enfin, datent du XIXe siècle, époque où le catalogue officiel, instauré en 1933, n'existait pas.

Cette liste semble longue ? Pourtant, elle ne représente qu'une minuscule fraction des variétés de blé connues en France et dans le monde. Ainsi, la collection du centre de ressources génétiques de l'Institut national de la recherche agronomique INRA, à Clermont-Ferrand, regroupe 11 500 variétés, dont un tiers d'origine française. Et celle du Cimmyt, le Centre international d'amélioration du maïs et du blé, au Mexique, en abrite plus de 100 000.

Sur le terrain
Mais du côté agricole, la situation est tout autre. Qu'il s'agisse du blé, ou des autres espèces cultivées, la FAO lance depuis quelques années un cri d'alarme : attention à la perte de diversité génétique sur le terrain ! Une perte dommageable car la diversité génétique des espèces cultivées est utile pour l'agriculture. Elle est la clé de la capacité intrinsèque des plantes à s'adapter à des modifications de leur environnement : par exemple, le fait d'utiliser moins de pesticides et moins d'engrais dans les pays gros consommateurs qui veulent réduire leur consommation. Et bien sûr, les modifications induites par le changement climatique. Comment redresser la barre ?

Le premier impératif est d'abord de persuader l'ensemble des acteurs concernés qu'il y a bien un problème. Car tous ne sont pas convaincus. Il faut dire que les indicateurs permettant de suivre l'évolution de la biodiversité cultivée au cours du temps manquent cruellement. Dans ce domaine, le principal critère est le nombre de variétés. Or, on peut lui faire dire tout et son contraire. En France, la controverse est animée. D'un côté, les tenants de l'érosion de la diversité génétique arguent de ce que la modernisation de l'agriculture a entraîné la disparition des variétés de pays, c'est-à-dire les variétés adaptées à des terroirs bien précis. De l'autre, leurs contradicteurs rétorquent que la sélection moderne a conduit à une très forte augmentation du nombre de variétés disponibles.

Isabelle Goldringer est généticienne à l'INRA. Avec Christophe Bonneuil, historien des sciences au CNRS, elle a lancé, il y a quelques années, une étude visant à clore cette controverse. Une étude d'abord soutenue par le Bureau des ressources génétiques, puis par son successeur, la Fondation pour la recherche sur la biodiversité FRB. Objectif ? Construire un indicateur reposant sur plusieurs paramètres dont la combinaison permet de déterminer la diversité génétique effectivement cultivée, et son évolution au cours du temps.

L'espèce retenue est le blé tendre, Triticum aestivum. C'est l'espèce la plus cultivée en France, et depuis longtemps : elle couvrait quelque 6,5 millions d'hectares en 1912, elle en couvre encore 4,9 millions d'hectares un siècle plus tard soit trois fois plus que l'orge ou le maïs.

Indicateur global
Dans un premier temps, la consultation des documents historiques agricoles a permis de lister les variétés utilisées pendant le siècle dernier, à l'échelle des départements. Puis l'analyse de la diversité génétique de chacune a été menée par le centre de ressources génétiques de l'INRA, à partir de ses collections propres et d'échantillons de grains fournis par des semenciers et des réseaux d'agriculteurs. In fine, il en ressort un « tableau de bord » qui répertorie le nombre de variétés, leur distribution dans les surfaces cultivées, leur diversité génétique, et la distribution de celle-ci sur le terrain. L'ensemble est combiné au sein d'un indicateur global.

Publiés ce mois-ci, les résultats sont sans appel [fig. 1] . D'abord, ils révèlent qu'entre 1912 et 2006 le nombre de variétés utilisées a nettement augmenté, mais pas régulièrement. On observe en effet une forte diminution dans les années 1950 et 1960. Durant cette période, les variétés de pays, génétiquement hétérogènes, cèdent la place à des variétés issues des méthodes de sélection moderne : des variétés génétiquement homogènes, constituées d'individus tous identiques. Des variétés « pures », seules autorisées à la commercialisation à partir de 1964. C'est dans ce contexte qu'à partir de 1965 la courbe du nombre de variétés cultivées remonte. Avec une accélération marquée entre 1990 et 2006, puisque l'on passe alors de 170 à 300 variétés.

Mais surtout, souligne Christophe Bonneuil, « la diversité génétique des blés cultivés a, elle, stagné entre les années 1960 et aujourd'hui » . Cela s'explique par le fait que chacune de ces variétés est de plus en plus homogène génétiquement, qu'elles se ressemblent davantage entre elles, et que leur répartition sur le territoire français est, elle aussi, de plus en plus homogène. Au final, il y a donc une nette diminution de la diversité génétique du blé sur le territoire français. « Même s'il n'y a pas d'hégémonie d'une variété donnée, précise Isabelle Goldringer, puisque la variété la plus cultivée n'occupe qu'un quart des surfaces. »

Paramètres privilégiés
Cette uniformisation n'est pas surprenante. La sélection de nouvelles variétés se fait en effet par et pour un système agricole donné. Soit, durant les quarante dernières années, une agriculture intensive à forte utilisation d'intrants * . Dans un tel système, les paramètres privilégiés lors de la sélection sont davantage le rendement et la qualité technologique de la récolte par exemple, la teneur en protéine des grains que les capacités génétiques de résistance aux pathogènes ou de tolérance aux stress. Rien d'étonnant à cela, puisque les pesticides et les engrais réduisent fortement les risques.

Par ailleurs, le système encourage aussi les variétés cultivables à la plus large échelle spatiale possible. Certes, ces variétés peuvent dès lors être considérées comme particulièrement adaptables. Mais elles ne le sont que dans le contexte d'agriculture intensive évoqué plus haut... Et gare à ceux tentant de s'écarter du paradigme dominant : leurs variétés risquent de ne jamais obtenir leur inscription au catalogue officiel, puisque ladite inscription dépend de la réussite des variétés à des tests conçus en fonction... du système en question !

On l'aura compris : « Les critères d'inscription au catalogue conditionnent très fortement le choix des modalités de sélection que les sélectionneurs mettent en place », précise Bruno Desprez, de la PME semencière Florimond-Desprez. Or, cet impact s'exerce sur une période assez longue, étant donné la durée du processus de sélection. « Il faut compter environ dix ans entre le moment où nous mettons en place des croisements correspondant à la fois aux exigences du catalogue et à celles du marché, et l'obtention d'une variété appropriée. » Autant dire que le système n'est pas très flexible.

Néanmoins, une évolution se dessine. « Depuis plusieurs années, indique Bruno Desprez, les tests d'inscription au catalogue incluent un critère environnemental : une nouvelle variété doit être testée dans les conditions intensives "normales", puis avec un apport de fongicides divisé par deux. Si elle se comporte correctement dans ce second contexte, elle se voit attribuer un bonus qui peut compenser une note un peu faible en conditions intensives. » Cela a permis l'inscription au catalogue de variétés de blés dits « rustiques », qui nécessitent moins de fongicides, bien qu'elles soient légèrement moins productives que les autres en conditions intensives. Des variétés issues de travaux lancés dans les années 1980 par l'INRA et cinq PME semencières dont Florimond-Desprez, et dont font partie Folklor, Karillon, Musik, et Flamenko, citées au début de cet article.

D'autres changements pourraient intervenir dans les années qui viennent. En mai 2011, le ministère de l'Agriculture a en effet rendu public un rapport intitulé « Semences et agriculture durable », qui préconise 7 grands axes d'évolution souhaitables. Dont « faire évoluer les conditions d'accès possible et de maintien au catalogue des variétés », et « orienter le progrès génétique vers des variétés adaptées à des conduites culturales diversifiées et permettant de répondre à la réduction des intrants ».

Si ce rapport ne reste pas lettre morte, il y a fort à parier que la solution privilégiée consistera à adapter le schéma classique de sélection aux nouvelles contraintes environnementales. « Un sélectionneur peut, à tout moment, tirer parti de la diversité génétique conservée dans les collections, explique François Balfourier, du centre de ressources génétiques de l'INRA de Clermont-Ferrand. C'est du reste la base de l'obtention de nouvelles variétés. » Dans le futur, il s'agira de croiser les variétés « élites », très productives, avec d'autres variétés considérées comme des réservoirs de gènes intéressants par rapport à telle ou telle contrainte environnementale. Et cela, en s'appuyant sur l'augmentation des connaissances concernant le génome du blé lire « Trois génomes pour une même plante », p. 60.

Mais d'autres options existent. Elles ont pour point commun d'abandonner le dogme de la pureté variétale, et de favoriser des peuplements composites au niveau même de la parcelle cultivée.

La première consisterait à utiliser des mélanges de semences associant les unes aux autres des variétés déjà disponibles. Claude Pope de Vallavieille, spécialiste d'épidémiologie végétale à l'INRA, mène ce type d'études depuis plusieurs années, pour améliorer la résistance des cultures aux épidémies fongiques. Le principe est d'associer des variétés différant par leurs gènes de résistance, mais homogènes du point de vue agronomique et ayant la même destination technologique notamment le même type de farine.

Meilleure résistance
Les premiers résultats se sont révélés suffisamment probants pour ensuite lancer des expérimentations intégrant tous les acteurs de la filière. Un exemple ? La mise en place d'un réseau de 28 parcelles chez 12 agriculteurs produisant du blé panifiable supérieur, dans 5 départements, en impliquant les chambres d'agriculture et une meunerie. « Nous y avons suivi, sur trois ans et un total de 250 hectares, 4 variétés cultivées soit seules, soit en mélanges,

en évaluant la sévérité des principales maladies, le rendement et la qualité de la récolte, explique la chercheuse. Et cela, dans un contexte de réduction des intrants de 30 %, avec en particulier un seul traitement fongicide au lieu de deux. »

Résultat : une diminution de 6 % de la sévérité de la maladie prédominante la septoriose, des récoltes de même qualité meunière que les variétés cultivées seules, et un rendement légèrement meilleur. Autrement dit, un succès. La condition pour que de telles méthodes se développent ? Que les chambres d'agriculture, les coopératives, les organisations techniques les promeuvent. Et que les meuneries acceptent ces récoltes.

La seconde option consisterait, pour certains, à redonner une place aux variétés non homogènes génétiquement, appelées « variétés-populations ». Avec pour objectif d'utiliser la capacité de ces variétés à évoluer selon leur environnement. En 1984, une expérience au long cours de « gestion dynamique » a été lancée par André Gallais et par Pierre-Henri Gouyon, de l'Institut national agronomique, avec trois variétés-populations de blé cultivées dans différents sites répartis sur toute la France. Poursuivie par leurs successeurs à l'INRA du Moulon, cette expérience a révélé que les populations se différencient rapidement en fonction des lieux de culture, et acquièrent en quelques générations des combinaisons de gènes de résistance plus robustes face aux maladies fongiques.

Toute la question est d'arriver à en tirer parti. Car d'autres caractères, considérés comme un handicap par bon nombre de sélectionneurs, sont associés à ces résistances. En particulier une grande hauteur des plantes, alors que sont aujourd'hui privilégiées les variétés naines. Et puis surtout les variétés-populations sont aujourd'hui absolument exclues du catalogue officiel, donc de la commercialisation. Faut-il s'attendre à une évolution de ce côté-là ? Le rapport du ministère de l'Agriculture évoque des « dispositions particulières » pour ce type de variétés. Sans plus de précisions.

Par Cécile Klingler

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LA CONSCIENCE ...

 


Les instantanés de la conscience


neurosciences - par Oliver Sacks dans mensuel n°374 daté avril 2004 à la page 30 (4111 mots)
Fort de son expérience clinique et s'appuyant sur de récents travaux en neurosciences, Oliver Sacks envisage la conscience humaine comme une série de plans fixes qui, telles les images d'un film, s'enchaîneraient entre eux pour un résultat final perçu comme continu par chacun d'entre nous. Mais, si tel est le cas, par quel processus cérébral ces images s'agencent-elles ?

«Le temps, a écrit Jorge Luis Borges, est la substance dont je suis fait. Le temps est un fleuve qui m'entraîne, mais je suis le temps [1]. » Nos mouvements, nos actions s'étendent dans le temps, comme nos perceptions, nos pensées ou les contenus de notre conscience. Nous vivons dans le temps, nous organisons notre temps, nous sommes des créatures temporelles jusqu'au tréfonds de notre être. Mais le temps où nous vivons, ou qui règle notre vie, est-il continu _ comme le fleuve de Borges ? Ou bien doit-on plutôt le comparer à une suite de moments discrets qui s'enchaîneraient ou s'articuleraient comme les grains d'un chapelet ?

Au XVIIIe siècle, la notion de moments discrets avait gagné la faveur du philosophe David Hume, pour qui l'esprit n'était « qu'un faisceau ou une collection de perceptions différentes, qui se succèdent avec une rapidité inconcevable et sont dans un flux et un mouvement perpétuels [2] ». Selon William James, qui fit état de cette opinion dans ses Principles of Psychology 1890, la « conception humienne » était aussi puissante que fâcheuse. Elle lui semblait aller à l'encontre de l'intuition, pour commencer : dans le célèbre chapitre de ce précis de psychologie, où il est question du « courant de pensée », il soulignait que, pour son possesseur, la conscience paraît toujours continue, « sans brèche, cassure ni division », jamais « fragmentée ni morcelée » : même si les contenus de la conscience changent en permanence, remarquait-il, nous passons sans heurt d'une pensée à une autre, d'un percept au suivant, sans interruption ni rupture. Pour James, par conséquent, la pensée était un flux _ d'où son invention du terme « courant de conscience ».

Mais se pourrait-il que « la conscience soit discontinue en réalité ... et ne se présente sous l'aspect d'un continuum que sous l'effet d'une illusion analogue à celle du zoetrope ? * », se demandait également James. Avant 1830, seules les maquettes ou les théâtres-jouets en trois dimensions permettaient de créer des représentations ou des images mobiles. Personne n'aurait imaginé avant cette date que des plans fixes puissent induire une sensation ou une illusion de mouvement. Comment des images auraient-elles pu paraître animées sans se mouvoir elles-mêmes ? Cette idée était intrinsèquement paradoxale : il y avait là une contradiction flagrante. Mais le zoetrope prouva que des images séparées peuvent fusionner dans le cerveau pour donner l'illusion d'un mouvement continu, cette découverte n'ayant pas tardé à donner naissance au cinéma.

Tours et détours de la conscience

Si James avait écrit quelques années plus tard, l'analogie cinématographique aurait pu tout à fait lui venir à l'esprit : parce que le flux tendu des images thématiquement apparentées dont ils se composent brosse un récit visuel qui fait partie intégrante du point de vue et des valeurs du metteur en scène, les films ne sont pas du tout une mauvaise métaphore du courant de conscience en tant que tel ; et les procédés techniques ou les concepts clés du cinéma toutes les sortes de zooms, de fondus, de dissolutions, d'omissions, d'allusions, d'associations et de juxtapositions reproduisent assez fidèlement _ peut-être sont-ils conçus dans le seul but d'assurer cette reproduction ! _ les tours et les détours de la conscience.

Henri Bergson a établi cette analogie vingt ans plus tard dans son Évolution créatrice, ouvrage paru en 1908 et dont un chapitre entier est consacré au « Mécanisme cinématographique de la pensée et [à] l'illusion mécanistique » : « Nous prenons des vues quasi instantanées sur la réalité qui passe, et ... il nous suffit de les enfiler le long d'un devenir ... situé au fond de l'appareil de la connaissance pour imiter ce qu'il y a de caractéristique dans ce devenir lui-même. ... Nous ne faisons guère autre chose qu'actionner une espèce de cinématographe intérieur. ... Le mécanisme de notre connaissance usuelle est de nature cinématographique [3]. »

James et Bergson ont-ils eu l'intuition d'une vérité profonde quand ils ont comparé la perception visuelle _ voire le flux de la conscience lui-même _ à un tel mécanisme ? Les mécanismes cérébraux qui confèrent leur cohérence à la perception et à la conscience sont-ils plus ou moins analogues aux caméras et aux projecteurs de cinéma ? L'oeil/cerveau « prend-il » effectivement des vues perceptuelles dont la fusion crée une impression de continuité et de mouvement ? Ce problème ne fut pas élucidé de leur vivant.

Nombre de mes patients m'ont dit avoir été sujets à un trouble neurologique rare, mais des plus spectaculaires, lors d'accès de migraine : perdant le sens de la continuité visuelle et du mouvement, ils voient une série de « plans » clignotants à la place. Parfois nettes et distinctes, se succédant quelquefois sans superposition ni chevauchement, ces images sont le plus souvent un peu estompées, de la même façon que des photos trop longuement exposées. Elles ont tendance pour la plupart à persister si longtemps que chaque « plan » reste visible quand le suivant est aperçu : trois ou quatre scènes les plus anciennes disparaissant progressivement, d'autant plus pâles qu'elles se sont formées les premières, sont alors susceptibles de se superposer l'une à l'autre. Bien qu'évoquant le cinéma à certains égards _ encore que le film en question aurait été mal tourné et serait mal projeté : chaque temps de pose aurait été si long que le mouvement se figerait totalement, et la cadence de projection serait si lente que la fusion serait impossible _, cet effet fait penser aussi à certaines des « chronophotographies » d'Étienne- Jules Marey, médecin français qui, dès les années 1880, avait inscrit côte à côte plusieurs clichés pris à intervalles de temps réguliers sur une plaque unique.

Ces effets visuels m'avaient été dépeints à plusieurs reprises vers la fin des années 1960 : beaucoup de mes patients étant migraineux, j'avais indiqué en 1970 dans mon livre intitulé Migraine [4] que la fréquence du clignotement caractéristique de ces épisodes semblait aller de 6 à 12 images par seconde, des motifs ou des hallucinations kaléidoscopiques pouvant clignoter ou scintiller également dans les cas de délires migraineux. Il peut arriver alors que les scintillations s'accélèrent au point que le mouvement reprenne son aspect normal ou que l'hallucination recommence à être continûment modulée. N'ayant pu trouver aucune description satisfai-sante de ce phénomène dans la littérature médicale _ ces crises sont si brèves, si rares et si difficiles à prévoir ou à déclencher que ce n'était guère étonnant ! _, je l'avais qualifié de « vision cinématique », car mes patients le comparaient toujours à un film qui défilerait trop lentement.

Si stupéfiant que fût ce phénomène, ses mécanismes physiologiques étaient restés inexpliqués tout au long de ces années 1960. Mais une question me tarabustait : se pourrait-il, m'étais-je interrogé par la suite, que la perception visuelle soit réellement analogue à la cinéphotographie, en cela que des clichés ou des « plans » brefs, instantanés et statiques appartenant à tout un environnement visuel seraient pris dans un premier temps, puis fusionneraient normalement de façon à susciter les impressions de mouvement et de continuité auxquelles nous sommes accoutumés cette « fusion » ne s'effectuant apparemment pas dans le contexte très anormal des accès de migraine ?

Traînée visuelle

Non seulement certaines formes d'épilepsie aussi bien que quelques intoxications surtout celles consécutives à la consommation de psychodysleptiques tels que le LSD engendrent des effets visuels voisins, mais on pourrait aussi évoquer le cas des objets mobiles qui laissent une traînée ou un sillage visuel derrière eux, des répétitions spontanées d'images ou des prolongements inhabituels d'« images consécutives ». Ayant vécu une expérience de cet ordre après avoir bu du sakau, substance hallucinogène et relaxante fort appréciée en Micronésie, j'ai décrit les effets de cette préparation dans un journal de voyage avant d'en reparler dans mon livre L'OEle en noir et blanc : « Une fleur sur notre table irradie des pétales fantomatiques formant une sorte de halo ; lorsque je la déplace, j'observe une légère traînée, une macule visuelle, un sillage rougeâtre. Regardant un palmier se balancer, je vois une succession d'images, comme un film qui se déroulerait lentement et perdrait le fil [5]. »

Paul Fraisse soutenait, dans sa Psychologie du temps, que des phénomènes inapparents ou inaperçus en temps normal sont susceptibles de devenir évidents sous « le miroir grossissant [6] » de la pathologie, et il importe de se demander s'il en va de la sorte dans le cas présent. Des discontinuités perceptuelles seraient-elles observables dans des conditions normales ?

Un exemple aussi familier qu'intrigant mérite d'être cité : il suffit de regarder des objets rotatifs animés d'un mouvement régulier des ventilateurs, des roues, des pales d'hélice, etc. ou de passer devant des barrières ou des clôtures à claire-voie pour que la continuité normale du mouvement semble brusquement s'interrompre. Quand j'observe mon ventilateur de plafond depuis mon lit, par exemple, il peut m'arriver d'avoir tout à coup l'illusion que ses pales tournent en sens inverse pendant quelques secondes avant que leur mouvement originel se rétablisse tout aussi soudainement ; tantôt j'imagine que ces pales planent au-dessus de ma tête ou s'immobilisent, tantôt je crois qu'elles se multiplient ou se couvrent de bandes noires plus larges qu'elles-mêmes.

Dans les films, de même, les roues des diligences semblent quelquefois tourner lentement à l'envers ou ne bouger qu'à peine : cette illusion de la « roue de wagon » dénote que la cadence de prise de vues et la vitesse de rotation des roues ne sont pas synchrones, mais elle est attestée aussi dans la vie réelle _ je puis y être sujet lorsque je contemple mon ventilateur dans ma chambre éclairée par la lumière continue ou uniforme des rayons de soleil matinaux. Mes propres mécanismes perceptuels clignoteraient-ils ou seraient-ils asynchrones ? _ à l'instar, à nouveau, de l'action d'une caméra ?

L'exploration très détaillée de ces illusions du type « roue de wagon » entreprise par Dale Purves et ses collaborateurs de la Duke University a confirmé que ces sortes de perceptions illusoires ou erronées sont universelles. Après avoir exclu toutes les autres causes possibles de discontinuité les éclairages intermittents, les mouvements oculaires, etc., ces chercheurs ont abouti à la conclusion que le système visuel traite les informations qu'il reçoit « en épisodes séquentiels » à la vitesse de trois à vingt épisodes par seconde, ces séquences d'images étant perçues normalement comme un flux de perceptions ininterrompues : ces données suggèrent que les fictions cinématographiques sont convaincantes pour la simple raison que nous découpons nous-mêmes le temps et la réalité comme une caméra, le scindant en plans discrets que nous rassemblons ensuite en un flux qui nous paraît continu.

Selon Purves, c'est justement cette décomposition de tout ce que nous voyons en une série de moments successifs qui permet au cerveau de détecter, puis de « computer » le mouvement : tout ce qu'il a à faire, c'est de noter les positions différentes que les objets occupent d'un « plan » à l'autre, puis d'en déduire la direction et la vitesse de leurs déplacements.

Computations cérébrales

Mais nous ne saurions nous contenter de cette observation, car nous ne nous bornons pas à calculer le mouvement à la manière d'un robot _ nous le percevons. Nous percevons le mouvement, exactement comme nous percevons la couleur ou la profondeur, comme une expérience qualitative unique en son genre parce qu'indispensable à la discrimination et à la conscience visuelles. La genèse des qualia* continue à échapper à notre compréhension : on ne sait pas encore comment les computations cérébrales objectives se transforment en expériences subjectives. Les philosophes débattent interminablement des modalités de ces transformations tout en se demandant s'ils parviendront jamais à les décrypter ; quant aux spécialistes des neurosciences, en gros, ils se satisfont pour l'instant de constater que ces événements se produisent bel et bien, et s'efforcent de découvrir les soubassements ou les « corrélats neuronaux » de la conscience, en commençant par les formes de conscience aussi élémentaires que la perception du mouvement.

James rêvait de zoetropes parce qu'il les tenait pour une métaphore de la conscience, tandis que Bergson insistait sur « le caractère cinématographique de notre connaissance des choses » _ mais ces termes, bien sûr, n'étaient rien de plus que des analogies ou des images séduisantes : car c'est depuis deux ou trois décennies à peine que la question des fondements neuronaux de la conscience commence à pouvoir être sérieusement posée grâce aux apports des neurosciences.

En fait, la situation a considérablement évolué depuis les années 1970 : tabou ou presque jusqu'à cette époque, l'étude neuroscientifique de la conscience est devenue une discipline majeure qui mobilise des milliers de chercheurs dans le monde entier. Tous les niveaux de conscience sont désormais en cours d'exploration, depuis les mécanismes perceptuels de base ils sont à l'oeuvre chez nous aussi bien que chez de nombreux animaux jusqu'aux fonctions psychiques supérieures de la mémoire, de l'imaginaire et de la conscience autoréflexive.

Il est possible de nos jours de visualiser simultanément les comportements de centaines de neurones actifs chez des animaux non anesthésiés en train d'accomplir des tâches perceptuelles ou mentales simples : les techniques d'imagerie médicale telles que la résonance magnétique fonctionnelle et la tomographie par émission de positons, notamment, permettent d'examiner les activités et les interactions de vastes aires cérébrales, ces méthodes d'exploration non intrusives ayant l'avantage d'être utilisables sur des sujets humains engagés dans des tâches mentales complexes.

À ces études physiologiques s'ajoute la procédure relativement récente de la modélisation neuronale informatisée, qui permet quant à elle d'observer comment des populations ou des réseaux de neurones virtuels soumis à des stimuli ou à des contraintes d'un genre ou d'un autre s'organisent.

C'est grâce à toutes ces approches, ainsi qu'aux concepts inaccessibles aux générations précédentes qu'elles ont générés, que la quête des corrélats neuronaux de la conscience est en passe de devenir l'une des aventures les plus fondamentales et les plus excitantes des neurosciences contemporaines. Une innovation décisive a consisté à « penser en termes de populations », c'est-à-dire à tenir compte du nombre énorme de neurones cent milliards à peu près que contient le cerveau humain : on a compris de la sorte que, en modifiant plus ou moins les forces des connexions neuronales, l'expérience peut favoriser la formation de constellations ou de groupes fonctionnels de neurones dans toutes les régions du cerveau _ groupes dont les interactions correspondent à des catégories expérientielles.

« Darwinisme des synapses »

À la conception antérieure de fonctions cérébrales rigides, modalement immuables et programmées comme un ordinateur, s'est substituée la notion, plus biologique et plus puissante, de « sélection par l'expérience », c'est-à-dire de vécu qui façonne littéralement la connectivité et le fonctionnement du cerveau dans des limites génétiques, anatomiques et physiologiques, bien entendu.

Ces sélections de groupes de neurones ils peuvent en comprendre un millier environ et les effets différentiels qu'elles exercent sur la morphologie cérébrale au cours de la vie des individus joueraient un rôle peu ou prou analogue à celui de la sélection naturelle dans l'évolution des espèces ; l'Américain Gerald M. Edelman, penseur précurseur en la matière, a parlé à ce propos de « darwinisme neuronal », tandis que le Français Jean-Pierre Changeux, neurobiologiste plus intéressé par les connexions interneuronales, parle pour sa part de « darwinisme des synapses », ces deux auteurs venant de publier des versions très lisibles de leurs travaux [7].

William James ne manquait jamais de souligner que la conscience n'est pas une « chose », mais un « processus ». D'après Edelman, tous les processus conscients reposent sur les interactions dynamiques et réciproques ou « réentrantes » de groupes de neurones localisés dans des aires corticales différentes ainsi que sur celles survenant entre le cortex, le thalamus et d'autres régions cérébrales : à l'en croire, les innombrables interactions entre les systèmes mnésiques du cerveau antérieur, d'une part, et les systèmes de catégorisation perceptuelle du cerveau postérieur, d'autre part, seraient à l'origine de la conscience.

Parmi ces pionniers de l'étude des fondements neuronaux de la conscience figurent aussi Francis Crick le découvreur de la « double hélice » et son jeune collègue Christof Koch, qui ont cosigné dès les années 1980 un premier article spécifiquement consacré à la perception visuelle élémentaire et aux processus qu'elle occasionne. Sur leurs travaux communs et la recherche des fondements neuronaux de la conscience en général, on lira avec profit Quest for Consciousness : a Neurobiologic Approach, récemment publié par Koch : c'est un livre aussi détaillé que haut en couleur. Pour Crick et Koch, l'étude de la conscience visuelle est un point de départ idéal : non seulement les mécanismes de la vision peuvent être d'ores et déjà explorés en l'état actuel des techniques de neuro-imagerie, mais ils permettent en outre de modéliser l'investigation et la compréhension des formes supérieures de conscience.

Dans l'article synoptique, intitulé « A framework for consciousness » « Une architecture pour la conscience », qu'ils ont fait paraître en février 2003 dans les colonnes de la revue Nature Neuroscience [8], Crick et Koch ont traité tout à la fois des corrélats neuronaux de la perception du mouvement, de la perception ou de la construction de la continuité visuelle et, par extension, de la continuité apparente de la conscience proprement dite : « La conscience [visuelle] perçoit une série d'instantanés statiques sur lesquels du mouvement est "peint", ... ces perceptions étant temporellement discrètes », avancent-ils.

Quand je l'ai lue pour la première fois, il y a quelques mois de cela, cette phrase m'a d'autant plus stupéfié qu'elle semblait s'étayer sur une conception de la conscience en tout point similaire à celle de James et de Bergson _ depuis que mes patients migraineux m'avaient décrit des « visions cinématiques » dans les années 1960, je n'avais jamais cessé de réfléchir à cette conception séculaire. Pourtant, il était ici question d'autre chose... de la possibilité que les activités neuronales soient le véritable substrat de la conscience !

Mais, contrairement à leurs homologues cinématiques, les « instantanés » dont Crick et Koch postulent l'existence ne sont pas uniformes : la durée d'instantanés successifs ne devrait pas être constante, estiment-ils _ et il se pourrait de surcroît que les instantanés de forme et de couleur ne coïncident pas temporellement. Même s'il est vraisemblable que ce mécanisme de « saisie instantanée » des inputs sensoriels visuels soit automatisé et n'implique pas la mise en oeuvre de processus neuronaux trop compliqués, chaque percept visuel doit comporter un grand nombre d'attributs visuels nécessairement liés au niveau préconscient. Comment, par conséquent, divers instantanés « s'assemblent-ils » pour créer une continuité apparente, et comment deviennent-ils conscients ?

Coalitions de neurones

Bien que la représentation d'un mouvement particulier puisse être attribuée à une excitation neuronale qui se transmet à une vitesse donnée dans les zones du cortex visuel spécialisées dans la perception du mouvement, ce n'est que le début d'un processus complexe. Pour atteindre la conscience, cette excitation neuronale, ou la représentation d'ordre supérieur qui lui correspond, doit franchir un certain seuil d'intensité et se maintenir au-dessus de ce niveau _ pour Crick et Koch, la conscience serait un « phénomène de seuil ». Le groupe de neurones concerné n'y parviendrait qu'en s'assurant le concours d'autres parties du cerveau situées dans les lobes frontaux, le plus souvent et en s'alliant à des millions d'autres neurones avec lesquels il formerait une « coalition » : capables de se constituer et de se dissoudre en une fraction de seconde, ces coalitions entraîneraient la formation de connexions réciproques entre le cortex visuel et de nombreuses autres aires cérébrales, toutes ces régions se coalisant à leur tour et « conversant » ensemble sans jamais cesser d'interagir. Si bien que la prise de conscience d'un percept visuel unique pourrait nécessiter que des milliards de cellules nerveuses subissent des activations parallèles et se modifient mutuellement.

Enfin, l'activité d'une coalition, ou d'une coalition de coalitions, doit non seulement franchir un certain seuil d'intensité pour devenir consciente, mais perdurer un certain temps _ pendant une centaine de millisecondes environ : ce serait la durée du « moment perceptuel ».

Selon Crick et Koch, la continuité apparente de la conscience visuelle tient au fait que l'activité de la coalition impliquée présente une « hystérésis », c'est-à-dire persiste plus longtemps que le stimulus : en un sens, cette hypothèse est très proche de la notion de « persistance de la vision » formulée par les théoriciens du XIXe siècle. Hermann Helmholtz écrivait par exemple, dans son Optique physiologique 1860, que « la répétition de l'impression doit être assez rapide pour que l'effet consécutif à chaque impression n'ait pas sensiblement diminué lorsque l'impression suivante se pro-duit [9] ». Mais il supposait, comme ses contemporains, que cet « effet consécutif » se manifeste dans la rétine, alors que Crick et Koch le situent dans les coalitions de neurones du cortex. Autrement dit, l'impression de continuité résulte du chevauchement continuel de moments perceptuels successifs : il se pourrait que les formes de vision cinématique que j'ai décrites _ que les plans soient nettement séparés ou qu'ils soient estompés et se recouvrent en partie _ soient imputables à des anomalies de l'excitabilité des coalitions dues à une hystérésis, soit trop prononcée, soit trop faible.

Une collection de moments

Dans les contextes ordinaires, la vision ne présente aucune solution de continuité révélatrice des processus sous-jacents dont elle dépend. Seule sa décomposition, expérimentalement induite ou corrélée à des troubles neurologiques, fait apparaître ses éléments constitutifs : c'est cette vision décomposée les images clignotantes, persévérantes et temporellement estompées concomitantes de certaines intoxications ou de migraines sévères, au premier chef, qui donne à penser que la conscience est bien composée de moments discrets.

Sur quelque mécanisme qu'elle s'étançonne, la fusion de plans ou d'instantanés visuels discrets est indispensable à la continuité, à la fluidité et à la mobilité de la conscience. Cette sorte de conscience dynamique est sans doute apparue pour la première fois chez les reptiles, il y a deux cent cinquante millions d'années de cela : il est probable que de tels « courants de conscience » n'existent pas chez les amphibiens qui, telles les grenouilles, ne donnent aucun signe d'attention active, ni de sensibilité à la succession visuelle des événements. Le monde visuel ou la conscience visuelle des grenouilles ne ressemblent pas aux nôtres : ces batraciens sont juste capables de recon- naître automatiquement les objets insectoïdes qui pénètrent dans leur champ de vision et de réagir à ces stimuli en dardant leur langue. Leur vision n'est « rien de plus qu'un mécanisme de capture des mouches », dit-on. Si le dynamisme et la fluidité de la conscience sont propices à la continuité et à l'activité de l'examen visuel ou du regard à un niveau inférieur, ils permettent aussi à la perception et à la mémoire, ou au présent et au passé, d'interagir à un niveau supérieur ; et cette conscience « primaire », remarque Edelman, est aussi efficace que hautement adaptative pour ce qui est de la lutte pour la vie.

Nous passons de cette conscience primaire assez simple à la conscience humaine grâce au langage, à la conscience de soi et à l'appréhension explicite du passé et du futur : la continuité thématique et personnelle de la conscience individuelle dépend de ces trois facteurs. Nous aurions pourtant tort d'imaginer qu'il nous est permis d'être des observateurs passifs ou impar- tiaux. Toute perception, toute scène, est le fruit de notre conception, que nous le voulions ou non et que nous le sachions ou pas. Nous sommes les metteurs en scène du film que nous produisons tout en étant aussi le sujet de ce film : chacun de ses plans, de ses moments, nous constitue et nous appartient à la fois _ c'est en eux que nos formes comme dit Proust se tracent, même si nous n'avons pas d'existence, de réalité, autre que celle qu'elles nous confèrent.

Mais alors, comment nos clichés, nos moments fugitifs, se conjuguent-ils ? Si tout est éphémère, comment parvenons-nous à de la continuité ? Selon James, nos pensées fugaces n'errent pas sans but comme le bétail sauvage il avait été cow-boy dans les années 1880 ! : elles appartiennent toutes à quelqu'un _ à nous-mêmes, en l'occurrence _ et portent la marque de cette propriété, la moindre de nos idées étant propriétaire dès sa naissance de celles qui l'ont précédée et « mourant possédée, en transmettant tout ce qu'elle a réalisé en propre à son dernier propriétaire ».

Ce n'est donc pas seulement de moments perceptuels, de simples moments physiologiques bien qu'ils sous-tendent tout le reste, mais de moments essentiellement personnels que notre être même semble constitué : en fin de compte, tout cela renvoie à l'image proustienne quelque peu photographique voire humienne de l'être humain comme consistant en une « collection de moments », quand bien même ces moments s'écoulent l'un dans l'autre tel le fleuve de Borges. O. S.

Illustrations : Hélène Perdereau

Par Oliver Sacks

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google