ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

VOIR LES CELLULES COMMUNIQUER

 

 

 

 

 

 

 

VOIR LES CELLULES COMMUNIQUER


Nos cellules "communiquent" chimiquement en échangeant des "molécules-mots" : hormones, neurotransmetteurs, etc. Le dialogue entre neurones dans notre cerveau est ainsi intimement lié à leurs échanges de petites bouffées de neurotransmetteurs de proche à proche. Beaucoup est déjà connu en physiologie et en biologie sur ce domaine, mais il reste encore très mystérieux car nos connaissances sur le sujet sont encore limitées par des difficultés expérimentales. Cela se comprend aisément lorsque l'on sait que ces échanges impliquent seulement quelques milliers de molécules-mots en quelques millièmes de seconde. De même, les neurones étant incapables de stocker leur énergie, ont une activité impliquant un couplage très fin avec le système neurovasculaire qui irrigue le cerveau. En d'autres termes, lorsqu'un neurone "communique avec ses partenaires", il doit simultanément "réclamer" un accroissement du flux sanguin à son voisinage immédiat. C'est précisément cette modulation locale du flux sanguin qui est observée en temps réel par imagerie IRM ou par caméra à positons (PET scan) avec des conséquences importantes en médecine ou en sciences cognitives. Néanmoins, le phénomène observé n'est que le résultat d'un échange de neurotransmetteur, le NO, sous-jacent comme nous le démontrerons au cours de cette conférence. Au cours de cette conférence nous expliquerons comment des électrodes extrêmement petites (entre une vingtaine et une cinquantaine d'entre elles, réunies en faisceau, auraient l'épaisseur d'un seul cheveu humain !) peuvent être utilisées afin de "voir les cellules parler". Nous montrerons ensuite comment les données expérimentales ainsi obtenues permettent de remonter aux mécanismes physicochimiques mis en jeu, c'est-à-dire de "comprendre comment elles parlent". voir le site internet : : http://helene.ens.fr/w3amatore/

Voir les cellules communiquer
Conférence donnée par Christian AMATORE
Professeur UPMC-ENS,
Directeur du Département de Chimie de l’Ecole Normale Supérieure de Paris
Directeur de Recherche au CNRS et Membre de l’Académie des Sciences
Parler de la communication cellulaire c’est évoquer la présence de neurones qui sont les
principales cellules du système nerveux. Grâce à de nombreux bras, ils sont connectés entre eux
formant un véritable réseau de « câbles ».
Chaque neurone est composé d’un corps ainsi que deux types de ramifications: les dendrites
par lesquelles l’information entre dans le neurone et les axones qui assurent sa sortie. Le corps du
neurone traite et filtre l’information reçue avant de la transmettre aux autres neurones. Cette
transmission est assurée par la présence de neurotransmetteurs contenus dans des vésicules
formées dans le corps du neurone mais qui s’accrochent sur des rails tubulaires par des moteurs
moléculaires qui vont transporter ces vésicules à l’autre extrémité de l’axone car les distances
sont trop longues pour que les vésicules puissent aller par simple diffusion. Arrivées à l’extrémité
du bouton synaptique, elles peuvent fusionner avec la membrane du neurone et vider leur contenu
dans l’espace synaptique. Les neurotransmetteurs libérés vont traverser par diffusion l’espace
synaptique d’épaisseur d’environ 20 nm et arriver au voisinage d’un détecteur, ce qui va
déclencher le signal dans le second neurone : D’où le processus de la transmission de
l’information.
Dans le présent exposé, il ne s’agit pas décrire le neurone, qui a été largement examiné dans
la littérature à travers les travaux des biologistes mais plutôt de comprendre comment se fait la
fusion au moyen des techniques physico-chimiques.
Pour ce faire, une première idée de base se trouve dans la littérature et surtout dans les travaux de
Almers [1] fondés sur la spectroscopie.
Dans ces travaux, Almers a marqué les vésicules par des sondes fluorescentes afin de suivre
le déplacement des vésicules dans les cellules chromaffines. Le faisceau lumineux utilisé pour
l’excitation est une onde évanescente qui se propage sur environ 50 nm d’épaisseur et «éclaire »
seulement le voisinage de la membrane. En effet, quand la vésicule est en dehors du champ du
faisceau, ses sondes fluorescentes ne peuvent pas être « allumées » et ne donnent donc pas
d’images sur la caméra microscopique. Au contraire, dès qu’une vésicule arrive au voisinage de
la membrane, elle entre dans le champ du faisceau et plus elle est proche de la membrane, plus sa
luminosité est élevée. Quand elle fusionne avec la membrane cellulaire, elle éjecte sa propre
membrane dans la membrane cellulaire, et donc l’ensemble de ses sondes fluorescentes va
s’éclairer plus puissamment (figure 1a).
Figure 1 : Mise en évidence de la fusion des vésicules par fluorescence
En effectuant un calcul simple, on se rend compte que la quantité de membrane donnée par
la vésicule à la membrane cellulaire est proportionnelle à la quantité de sondes fluorescentes qui a
été apportée par la vésicule. Si on intègre la partie éclairée (lumière verte) de chacune des images
(figure 1b), on obtient une courbe montrant la quantité de membrane qui s’écoule de la vésicule
dans celle de la cellule (figure 1b). Néanmoins la mesure du signal, pour être précieuse, est
extrêmement mauvaise car la marge d’erreur est trop importante pour en tirer des conséquences
cinétiques.
Nous avons réalisé une série de mesures électrochimiques [2] sur des cellules chromaffines
de boeuf qui conduisent à la libération d’adrénaline chez les mammifères. Ces cellules peuvent
être stimulées à l’aide d’une pipette par l’injection d’une solution saline d’ions baryum ou
calcium au voisinage de la cellule ce qui joue le rôle de la stimulation dans l’organisme (figure
2). Suite à cette stimulation, la cellule répond en émettant des molécules de neurotransmetteurs.
Ces molécules seront détectées en plaçant une électrode au dessus de la cellule. Ces électrodes
sont de taille micrométriques (7 μm), bien plus petites qu’un cheveu et isolées tout au long de
leur longueur ; seule leur extrémité est active [3].
Figure 2 : Configuration du modèle de la synapse artificielle
L’exploitation de la méthode électrochimique s’explique par le simple fait que les
molécules émises sont facilement oxydables par voie électrochimique à la surface de l’électrode
du fait de la présence de leur noyau catéchol qui évolue en noyau quinone suite à un transfert de 2
électrons.
Ainsi, à chaque fois qu’une molécule est libérée par la cellule, autrement à chaque fois qu’il
y a fusion d’une vésicule avec la membrane cellulaire, la molécule arrive par diffusion au
voisinage de l’électrode, et après échange de 2 électrons provoque un courant électrique: le
courant se définit comme étant le nombre d’électrons échangés par unité de temps, soit la moitié
du nombre de molécules d’adrénaline libérées par la cellule. Un tel dispositif est appelé « synapse
artificielle ».
Si on examine de près un neurone, on s’aperçoit que durant son fonctionnement, c'est-à-dire
au cours de la transmission de l’information, il envoie en moyenne 5000 à 7000
neurotransmetteurs dans l’espace synaptique; une telle quantité de molécules, surtout des
molécules de petites tailles ne peut pas être observée de manière quantitative malgré la précision
des méthodes analytiques actuelles cependant le neurone y parvient.
En réalité, le problème qui se pose avec cette si faible quantité de molécules émises (5000
molécules) est qu’elle ne produira pas un signal utilisable. En effet, un autre paramètre aussi
important contrôle la réponse surtout pour un nombre aussi peu élevé de molécules émises: il
s’agit du bruit. En d’autre terme, l’intensité du signal observé dépend du rapport signal/bruit et
pas simplement la valeur du signal lui-même.
Pourquoi donc avec un nombre aussi peu élevé de molécules émises, le neurone arrive à
contrôler ce bruit et permet la transmission sans encombre de l’information?
La réponse est toute simple car le neurone ne fonctionne pas en terme de quantité de
molécules mais plutôt en terme de cinétique, autrement dit est fonction de la probabilité que la
molécule libérée touche le détecteur (c’est à dire l’électrode dans la configuration que nous
utilisons).
Ainsi, pour un volume donné, plus on a de molécules plus la probabilité que le détecteur
soit atteint est élevée. Donc, en présence d’un nombre très limité de molécules comme ici, il
suffit de les forcer à se distribuer dans un petit film liquide afin d’accroître la probabilité que ces
molécules touchent le détecteur.
Pour ce faire, nous avons développé avec l’équipe du Professeur Wightman [2], une
méthode dans laquelle un mince film de liquide est présent entre la cellule et l’électrode. C’est
dans ce film mince que toutes les molécules émises seront observées comme dans le cas du
neurone. Lorsqu’on stimule la cellule par l’injection d’une solution adéquate à l’aide de la
pipette, on enregistre ainsi une série de pics, chaque pic résulte de la fusion entre une vésicule et
la membrane cellulaire (figure 2). Chaque réponse vésiculaire est représentée par la variation du
courant en fonction du temps. Elle contient l’information relative à la fusion de la vésicule avec
la membrane et dans cette étude, on atteint une résolution de 1000 molécules par millième de
seconde, résolution que l’on ne peut obtenir avec les autres instruments actuels même les plus
sensibles pour des molécules de ce type et dans les conditions imposées par le vivant. Nous ne
pouvons atteindre une telle résolution que parce que nous suivons un phénomène cinétique, c'està-
dire une vitesse de transfert d’électrons (flux de molécules) convertie en un courant grâce à une
électrode.
Les biologistes résument généralement la fusion en trois étapes mais si on représente plus
schématiquement, ce processus fait intervenir les 5 étapes illustrées sur la figure suivante:
Figure 3 : Représentation des différentes étapes de la fusion des vésicules
La première étape « 0 » correspond à l’approche de la vésicule vers la membrane cellulaire.
Lorsque la vésicule atteint la membrane cellulaire, « étape I », il se crée un pore de fusion à
travers lequel des molécules vont commencer à sortir. Les biologistes parlent ici d’accostage et
de création d’un pore de fusion. Les étapes II à IV correspondent à l’ouverture des pores jusqu’à
moment où la vésicule termine sa vie en dehors de la membrane. On parle ici de fusion totale.
D’un point de vue électrochimique, chacun des pics de la réponse ampérométrique obtenue
précédemment aura une résolution qui correspond au flux de molécules qui sont relâchées. Ainsi,
dans l’étape 0, vu qu’aucune molécule n’est émise le courant i est alors nul. Lors de la création
du pore de fusion, on démontre à partir d’une loi de physico-chimie classique que le courant
correspond à un plateau. Au moment où la membrane craque et la fusion totale débute (II), la
quantité de particules croît rapidement car la vésicule expose de plus en plus de sa surface au
milieu extérieur. Cela se poursuit jusqu’au moment où la vésicule est totalement exposée et
continue à se vider et le courant redescend donc. D’après cette représentation physico-chimique,
on observe plusieurs évènements et on se rend compte que ces courbes sont complémentaires de
celles obtenues par Almers où l’utilisation des sondes fluorescentes permettait de suivre la
membrane de la vésicule « couler » dans la membrane cellulaire. Autrement ces deux expériences
sont liées non pas par leur principe de mesure mais par le phénomène.
Pour approfondir notre étude, examinons de près ce qui se passe réellement au niveau de la
membrane cellulaire.
Il est bien connu que la membrane cellulaire ainsi que la membrane des vésicules portent
énormément de charge négative en surface. Comment se fait-il donc que ces deux membranes ne
se repoussent pas ?
La vésicule arrive à s’accrocher à la membrane cellulaire à cause des complexes de
protéines formés lorsque les ions calcium rentrent dans la cellule. Ces ions jouent en quelque
sorte le même rôle que les bases dans l’ADN et vont permettre au système de protéines de se lier
fortement en s’enroulant en hélice et générer ainsi une pression telle que la vésicule viendra au
contact de la membrane cellulaire bien que par elle-même, elle ne le pourrait pas. Ce mécanisme
a été confirmé en bloquant ce phénomène par l’injection d’une toxine, la botox des chirurgiens
plastiques, à laquelle est accrochée une protéine connue sous le nom de GFP (Green Fluorescent
Protein) qui rend la cellule modifiée fluorescente. Les résultats obtenus sur les cellules ainsi
modifiées confortent cette hypothèse car si en absence de la toxine, on obtient une forêt de pic, en
ajoutant la toxine, le nombre d’évènements observé en fonction du temps diminue
considérablement.
L’appareillage protéinique est donc indispensable mais pas autant que l’on raconte ; il est juste
nécessaire pour « démarrer » le système mais le système évolue par la suite purement physico
chimiquement.
Pour consolider ce raisonnement, étudions de près le phénomène à l’interface des deux
membranes : celle de la cellule et celle de la vésicule. Etant donné que la vésicule a une taille de
150 nm, on peut négliger la courbure entre les deux membranes et décrire uniquement le
phénomène dans une tranche horizontale.
Lorsqu’elles s’approchent, la pression exercée est telle que les membranes vont être forcées
de repousser la répulsion électrostatique des charges négatives en éliminant latéralement leurs
deux plans en regard et en joignant les bords des deux « trous » crées. Ces deux extrémités
s’étirent et forment une membrane bicouche au centre (figure 4) qui sous la contrainte de
pression, finira par se casser pour former le pore de fusion à partir duquel les molécules vont
commencer à sortir. Ce comportement peut se confirmer aisément en étudiant la stabilité d’un
pore à partir de la théorie décrite par de Gennes et Brochard. Cette théorie stipule que l’énergie
W du pore est donnée par la relation suivante :
W = W1 + W2
L’énergie W1 est positive. Elle est liée à la tension du bord car les lipides qui s’y trouvent
sont « mécontents » de faire partie du bord du pore. Cette énergie est alors proportionnelle au
nombre de lipides présents autour du bord, c'est-à-dire au périmètre du bord et aura tendance à
refermer le pore [3]:
W1 = 2πRρ,
où ρ est une constante et R le rayon du pore.
D’un autre côté, la pression qui règne à l’intérieur de la vésicule a tendance à écarter le pore
pour relâcher la pression intérieure et engendrera par conséquent une énergie négative
proportionnelle à la surface du pore :
W2 = - σπR2
où σ est une autre constante.
Figure 4 : Mécanisme de la formation du pore de fusion
La forme plate des membranes cellulaires est due au fait que les lipides constituants ces
membranes cellulaires se présentent sous formes de petits cylindres adjacents comme des
bâtonnets. Ces structures peuvent être rompues si la configuration de ces lipides est modifiée.
Ainsi, en injectant des lipides de configurations coniques où la chaîne hydrophobe est beaucoup
plus petite que la tête polaire, la forme conique aura tendance à faire courber la membrane vers le
haut. Par contre, si la chaîne hydrophobe des lipides est très grosse par rapport à la tête polaire,
une courbure se fera dans l’autre sens.
Dans la pratique, si l’on insère dans la membrane du Lysophosphatidyl Choline LPC, un
lipide dont la partie hydrophobe est linéaire et petite par rapport à la tête polaire, on constate que
le nombre d’évènements par unité de temps augmente comparativement aux contrôles. Toutefois,
lorsque le lipide utilisé à une structure telle que la chaîne linéaire est plus large que la tête polaire,
cas de l’Acide Arachidonique symbolisé par AA, le nombre d’évènements observés diminue.
L’un et l’autre phénomène illustrent donc l’impertinence de ces courbures locales sur la
possibilité de fusionner.
Durant l’ouverture du pore, les molécules de la matrice vésiculaire vont diffuser et sortir par
ce pore. Si le pore est suffisamment large, seule la vitesse à laquelle les molécules trouvent la
sortie contrôlera le temps de sortie. En exploitant une loi de physico-chimie donnée par la
relation suivante:
i = 4nFDgranuleCgranuleRpore
et connaissant les paramètres n, F, Dgranule et Cgranule de cette relation, on peut relier directement
le rayon du pore R à l’intensité du courant i dû au pore c’est à dire au flux de molécules par la
relation simplifiée suivante.
Rpore/ nm = 0,3 x ifoot/ nA
A partir de la hauteur de chaque petit plateau précédent le pic, on montre ainsi que la taille
du pore est de l’ordre de (15,0 ± 0,5) nm.
La valeur élevée de la marge d’erreur signifie que l’on n’a pas affaire à un assemblage biologique
tu type protéique qui lui devrait donner une valeur très constante. La grande variabilité de la taille
du pore n’est en effet pas due à une erreur de mesure mais plutôt au fait que la taille du canal
change fortement d’un évènement à l’autre, à travers une fourchette assez grande. Ce résultat est
tout à fait compatible avec un canal lipidique qui, en fonction de la tension lipidique sera plus ou
moins grand.
Mais comment est-ce que le pore craque ?
Pour répondre à cette question, on rappelle le modèle de Gennes et Brochard où une des
énergies est proportionnelle à la tension surfacique et l’autre au diamètre du pore. La variation de
l’énergie en fonction de la taille du pore montre que l’énergie se présente ainsi sous la forme
d’une courbe présentant un minimum suivi d’un maximum correspondant à un rayon de pore
élevé et une haute énergie. Le pore se stabilise donc spontanément au niveau du minimum
d’énergie, et pour que le pore craque, il faudrait que le rayon devienne plus grand que la taille
correspondant au maximum d’énergie. Cela est quasiment impossible car la cellule ne dispose
pas suffisamment d’énergie.
Une façon de procéder consiste à augmenter la valeur du paramètre σ intervenant dans W2.
Ceci a pour conséquence de faire croître la partie parabolique (W2) et donc à diminuer la distance
radiale entre le minimum et le maximum d’énergie de façon à ce que le pore devienne instable. Il
finira par exploser lorsque les deux points seront confondus. L’augmentation de ce paramètre
σ, autrement de la pression, provient de l’intérieur de la matrice qui va gonfler en contact de
l’espace synaptique « comme les gels à raser » et créer une force de pression à l’intérieur de la
vésicule.
La compréhension de tous ces phénomènes nous permet de nous rendre compte que
l’évolution de chaque pic est lié à deux paramètres : d’une part une courbe positive croissante
linéairement liée au bord du pore et d’autre part une courbe négative décroissante
symboliquement correspondant à la surface du pore. C’est ce conflit entre R et R2 que la nature
exploite pour conduire le pore à une situation métastable où il n’a d’autre issu que de croître
quasi-exponentiellement, faisant ainsi fusionner totalement les deux membranes. C’est ainsi que
débute la phase de fusion complète qui va conduire à la forme caractéristique du pic de courant
observé expérimentalement.
En effet, le courant, c'est-à-dire le flux de molécules relâché pendant l’étape de fusion totale
dépend de deux facteurs. L’un est la diffusion des molécules. Celui-ci à tendance à diminuer avec
le temps car les molécules émises doivent traverser de plus en plus de matrice avant de se trouver
sur la surface de la vésicule et de diffuser librement vers l’électrode.
L’autre phénomène est lié à la vitesse de fusion des membranes. En effet, la fusion entraîne
un accroissement de la surface de matrice exposée à la solution par laquelle les molécules
peuvent quitter la matrice. Le pore augmentant de taille, la surface exposée varie de 0%
initialement jusqu’à 100% de la surface de la vésicule à la fin du processus de fusion. Partout,
cela conduit à accroître le courant puisque celui-ci traduit le flux de molécules libérées.
La vitesse de diffusion est parfaitement connue. Par un processus mathématique, on pourra
donc soustraire de la courbe réelle, la composante de diffusion et reconstituer la cinétique de la
courbe d’ouverture. La figure 5 représente les résultats obtenus et on s’aperçoit très bien que ces
courbes d’ouverture, obtenues par ampérométrie sont en pratique comparables à celles décrites
plus haut par l’utilisation des sondes fluorescentes. Cependant, la précision de nos mesures est
bien meilleure à celle obtenue par la méthode d’Almers. Cela nous permet de fait de réaliser avec
une bonne approximation des mesures quantitatives des vitesses de fusion des deux membranes et
d’étudier très précisément ce qui se passe.
Figure 5 : Cinétique de la fusion totale obtenue par ampérométrie
De plus, la combinaison de ces deux expériences (les méthodes spectroscopiques décrites
par Almers et les mesures ampérométriques que nous avons développées) nous donne une
assurance sur la validité de nos expériences. Nous sommes d’ailleurs en train de développer au
sein de notre équipe grâce aux techniques de microfabrication, un dispositif nous permettant de
suivre une cellule isolée dans une zone éclairée [4]. Avec un tel dispositif, nous avons déjà
montré qu’il est possible d’avoir simultanément une information correspondant à la mesure
physico-chimique à l’aide de l’électrode transparente située en dessous de la cellule et de voir
simultanément ce qui se passe au niveau de la cellule.
De ces différents résultas obtenus, on voit l’intérêt des modèles mathématiques car ils nous
permettent de savoir exactement ce qui se passe. Comme on vient de voir, notre phénomène est
contrôlé par deux paramètres dont la pression qui se traduit par le paramètre σ mais aussi par la
vitesse à laquelle l’énergie peut-être relâchée. En effet, le problème qui se pose à ce stade est de
pouvoir dissiper l’énergie due au relâchement de la pression intravésiculaire pendant qu’elle se
produit. Pour ce faire, au moment de l’ouverture, la membrane d’au dessus glisse sur celle d’en
dessous, ce qui crée une dissipation d’énergie par la viscosité entre les deux membranes. Si la
viscosité est grande, elle ralentit la vitesse à laquelle le pore peut s’ouvrir et se traduira par un
faible mouvement d’ouverture. Dans ce cas, la courbe d’ouverture s’affaisse alors que celle de la
diffusion reste la même et par conséquent le pic de courant devient petit et très large. Dans le cas
contraire, si cette pression augmente, c'est-à-dire que la viscosité est diminuée, la fonction
d’ouverture croît rapidement et comme la diffusion est toujours identique, la combinaison des
deux courbes conduit à un pic fin et haut. La variation de la viscosité entre les deux membranes
est due à l’existence de forces de frottements exercées lors du glissement. Pour augmenter
davantage cette viscosité, il suffit de plier davantage la membrane en réalisant un choc
osmotique. Ainsi, en mettant à l’extérieur une solution trop saline, la cellule réagit en éjectant son
eau vers l’extérieur pour s’équilibrer avec la solution extérieure ; ce faisant elle diminue son
volume alors que sa membrane reste la même et comme la nature a horreur du vide, elle va
plisser sa membrane, la cellule devenant ainsi très « ridée ». On constate alors que par rapport
aux cellules normales, il n’y a presque plus d’évènements. Si on examine de plus près, on se rend
compte qu’il y a des pics mais ils sont très petits et très larges et se confondent au bruit. Par
contre, dès qu’on remplace la solution extérieure par une solution normale, la cellule redevient
tendue et reprend un régime de libération normale. Au contraire, en rigidifiant la membrane en
injectant une solution peu saline, la cellule absorbe l’eau de l’extérieur et comme son volume n’a
pas changé, elle va tendre sa membrane et là on constate que le nombre d’évènements va
considérablement augmenter.
Ce que nous venons de montrer illustre parfaitement le rôle des modèles en science. D’une
part, ils permettent de comprendre les facteurs indépendants qui contrôlent un phénomène
physique chimique mais aussi biologique, et de montrer comment la complexité d’un phénomène
globale peut-être liée à leurs interactions. C’est la partie explicative de la science. D’autre part, et
c’est aussi leur fonction, ils permettent de prédire ce qui va se passer dans telle ou telle condition
pourvu qu’ils restent valides. C’est la partie utilisatrice de la science qui conduit à la technologie.
Les deux fonctions sont connexes et intriquées mais diffèrent par leurs buts propres.
Au cours de la deuxième partie de cet exposé, je vais essayer d’illustrer comment la nature
peut mettre en place un processus technologique complexe, cette fois-ci non plus à l’échelle de la
cellule mais à celle du tissu.
Le couplage entre activité neuronale et la vasodilatation des capillaires sanguins dans le
cerveau.
Nous savons que les neurones sont des cellules délicates consommant énormément
d’énergie puisqu’on considère que notre cerveau utilise 25% de l’énergie qu’un être humain
produit quotidiennement. Or les neurones ne savent pas stocker cette énergie ni gérer les déchets
qu’ils produisent. Il en résulte que nos neurones actifs doivent être irrigués par un flux sanguin
plus important. C’est en effet notre sang qui amène l’oxygène, le glucose, etc., et élimine le gaz
carbonique et les autres déchets produits par une cellule en fonctionnement. On conçoit donc que
l’activité d’une zone du cerveau doive se traduire par une augmentation locale du flux sanguin.
C’est précisément ce qui est observé en imagerie IRM ou en camera à positons (PET Scan) avec
des conséquences importantes en médecine ou en sciences cognitives.
L’accroissement du flux sanguins est dû aux neurones eux-mêmes. Quand ils travaillent ils
ont besoin d’être alimenté en continu. Ainsi, lorsque la quantité de sang augmente, la pression
croît avec des risques que les neurones implosent. Toutefois, la pression globale dans le cerveau
est maintenue constante et ceci par le fait que la quantité de sang qui rentre est pratiquement
identique à celle qui en sort.
Si on observe bien une image IRM du cerveau, on voit principalement deux couleurs
distinctes : la partie « rouge » qui correspond à la partie en activité qui reçoit du sang et les
parties inactives qui sont colorées en « bleu » d’où la même quantité de sang est retirée. Comment
se fait ce mécanisme ?
Il est implicitement admis que lorsque les neurones fonctionnent (bouffées de
neurotransmetteurs en rouge), ils envoient des messagers représentés en vert, au voisinage des
vaisseaux sanguins pour entraîner leur dilatation (figure 6). En biologie, il est connu que l’espèce
responsable de cette dilatation est l’oxyde nitrique NO. En effet, quand du monoxyde d’azote NO
atteint le vaisseau, il se produit une cascade de réaction qui se traduit par une augmentation de la
taille des cellules des muscles lisses constituants l’armature du vaisseau sanguin et cette
augmentation engendre l’accroissement de la taille du trou à l’intérieur du vaisseau, le lumen par
lequel les globules rouges circulent.
Le monoxyde d’azote NO est produit à partir de la L-Arginine par la NO synthase, une
protéine assemblée sous forme de dimère grâce aux calciums qui encore une fois permettent une
régulation fine. Le mécanisme de fonctionnement du NO synthase est résumé sur le schéma 1:

Dans cette étude, effectuée en collaboration avec l’équipe du professeur Jean Rossier de
l’ESPCI, nous avons suivi à partir des mesures de physico-chimie le processus de vasodilatation
créé par un neurone étoilé en nous fondant sur l’étude d’une coupe dans le cervelet d’un rat.
A partir de l’image réelle vue au microscope (figure 6), on observe suite à la stimulation réalisée
par accrochage et stimulation du neurone par une pipette dite de patch-clamp, le vaisseau se
dilate puis se referme à l’issue de la stimulation. La formation du monoxyde d’azote NO a été
mise en évidence par des mesures ampérométriques en insérant dans la tranche de cerveau, une
microélectrode. Ces électrodes ont été préalablement calibrées par des ajouts successifs de NO.
En stimulant par la pipette patch-clamp le neurone étoilé, on constate une augmentation de
la quantité de NO détectée par l’électrode, puis lorsqu’on arrête la stimulation, cette quantité
diminue. Nos mesures indiquent que les quantités de NO libérées sont énormes c'est-à-dire près
de 100 fois la quantité physiologique de base en NO! Toutefois, en bloquant le système par
l’injection de substances inhibitrices des pompes sodiques et calciques et par la même désactivant
la NO synthase ou en utilisant un inhibiteur de la L-arginine, on n’observe aucune réponse à
l’électrode (figure 7) ni aucune dilatation locale du capillaire sanguin présent au voisinage du
neurone stimulé. Ces résultats confirment la formation du monoxyde d’azote NO.
Figure 7 : Mesures simultanées du NO produite et du diamètre du vaisseau après simulation par
patch-clamp
Par ailleurs, grâce aux appareillages de l’équipe du professeur Rossier, il nous est possible
de mesurer simultanément la dilatation du vaisseau (figure 7) et on s’aperçoit qu’avant la
stimulation, le diamètre du vaisseau reste presque constant tandis que dès que du NO atteint le
vaisseau, il se dilate puis revient à sa valeur initiale dès que le NO décroît.
Les mêmes conclusions peuvent être obtenues par modélisation et les calculs théoriques
effectués montrent d’une part que les quantités de NO émises sont énormes (100 fois plus au
minimum par rapport au régime normal) et d’autre part que lors du fonctionnement du neurone,
il y a activation des vaisseaux sanguins situés uniquement sur un rayon d’une dizaine de microns.
J’espère vous avoir montré à travers cet exposé tout l’intérêt d’une part de briser les
structures classiques de la science en se moquant de la nature physique, chimique, physicochimique
ou biologique d’un phénomène, mais en se focalisant sur tous les moyes en notre
possession pour en révéler leurs mécanismes intimes. D’autre part, je crois avoir illustré le fait
que les modèles scientifiques, loin d’être réductionnistes comme certains biologistes les
critiquent, sont un moyen de « décortiquer » un phénomène complexe dans ses éléments de bases,
éléments en interaction synergique que seuls des milliards d’années d’évolution ont pu construire
en se fondant sur des lois fondamentales de la physique, de la chimie et de la physico-chimie.
Références
[1] W. Almers et al., Nature 406, 2000, 849-854.
[2] E.L. Ciolkowski, K.M. Maness, P.S. Cahill, R.M. Wightman, D.H. Evans, B. Fosset, C.
Amatore. Anal. Chem., 66, 1994, 3611.
[3] C. Amatore, Y. Bouret, L. Midrier, Chem. Eur. J., 5, 1999, 2151-2162.
[4] C. Amatore, S. Arbault, Y. Chen, F. Lemaître, Y. Verchier, Angewandte Chemie, 2006.

 

   VIDEO       CANAL  U         LIEN

 

 

 
 
 
 

GÉNE ET ADN

 

 

 

 

 

 

 

Un gène n'est-il qu'un simple segment d'ADN ?
Ting Wu et Jim Morris dans mensuel 348


daté décembre 2001 -  Réservé aux abonnés du site
Comme tous les termes scientifiques, « gène », « génétique » et « épigénétique » ont une histoire, trop souvent méconnue par les acteurs contemporains. Pour en dérouler le récit, deux généticiens se livrent à un exercice original de science et de fiction : un correspondant de 1910 les met au défi d'expliquer pourquoi la signification de ces mots a tant dérivé au cours du XXe siècle !
Messieurs,

Décidément, cette nouvelle science, la « génétique », a progressé d'une façon surprenante ! Toutes les énigmes qui alimentaient les grands débats sur l'hérédité semblent résolues, et leurs solutions sont d'une élégance à peine croyable. Comment imaginer que, dans un temps si proche du mien, les théories d'Hippocrate et de Darwin sur la pangenèse aient évolué jusqu'à nous doter de cette formidable capacité : modifier la nature même du matériel héréditaire de telle sorte que les espèces puissent se mélanger ! Je ne m'y attarderai pas davantage, mais je vous invite à imaginer mon respect.

Mon état présent, cependant, n'est pas uniquement teinté de respect. Il s'y mêle aussi un certain désarroi : des mots que je croyais connaître, ou qui venaient à peine de recevoir une définition solide, me paraissent étrangers lorsqu'il m'arrive de découvrir leur usage dans les écrits de votre temps. Jusqu'aux termes mêmes de « gène » et de « génétique », qui, à la suite de discussions d'ailleurs fort animées, n'ont vu le jour que récemment : ils semblent à votre époque bénéficier de significations très différentes bien que, ici ou là, je sois encore capable de trouver des références à leur sens initial. Ces mots seraient-ils toujours sujets à débat, près d'un siècle après leur invention ? Je vous demanderai s'il en est ainsi tout spécialement à propos de trois d'entre eux.

Commencerai-je par « gène » ? Est-il vrai que le gène puisse être défini, complètement et de façon satisfaisante, par une seule entité chimique, l'acide désoxyribonucléique, ou ADN ? [...] S'il est à mes yeux délicieux, voire très inattendu, d'apprendre à quel point ce mot est communément utilisé même dans les cours de récréation !, n'y a-t-il aucun doute sur le fait que le « gène » reçoive une définition aussi simple ? Comme vous le savez, le terme a été proposé il y a un an par Wilhelm Johannsen. Or, celui-ci ne l'emploie pas du tout pour désigner une quelconque substance chimique. De fait, Johannsen considère avant tout le « gène » du point de vue de ses conséquences en matière d'hérédité. Et il recommande même de s'abstenir de lui imposer des limites physiques ou théoriques. Connaissez-vous la citation de Johannsen que j'ai recopiée pour vous voir l'encadré : « La naissance du mot "gène" » ? Avec un peu d'hésitation, je vous demanderai donc à nouveau si le « gène » de Johannsen est le même que celui que vous décrivez comme une molécule d'ADN ?

Ma seconde question concerne le mot « génétique » lui-même. Je le vois assez fréquemment mentionné en référence directe, quasi exclusive, aux gènes : parfois comme « l'étude des gènes », et même à l'occasion comme issu du mot « gène » cette dernière affirmation étant une erreur manifeste. Assurément, ces simplifications sont indéfendables. Puisque la « génétique » paraît si intimement liée aux « gènes », et que les gènes sont le plus souvent considérés en termes d'ADN, dois-je comprendre que les généticiens se satisfont d'ancrer si profondément la définition de la « génétique » dans le seul ADN ? Ici, je ne peux pas dissimuler mon désarroi derrière l'ignorance des événements à venir. La génétique est d'abord l'étude de l'hérédité et de la variation ! Vous n'ignorez sans doute pas que le mot a été forgé, il y a cinq ans à peine, par William Bateson. Invité à fournir un titre pour une chaire professorale dédiée à l'étude de l'hérédité, il écrivit les propos suivants au professeur Adam Sedgwick : « S i le fonds Quick devait servir à financer une chaire liée à l'étude de l'Hérédité et de la Variation, la meilleure appellation serait, je pense, "la chaire Quick d'étude de l'Hérédité". Aucun mot simple d'usage courant ne véhicule cette signification. Mais un tel mot est ardemment souhaitable, et si l'on voulait en forger un, "génétique" pourrait faire l'affaire » . L'hérédité et la variation sont des processus d'une infinie complexité et j'ai l'audace de prédire que, même à votre époque, il ne sera pas possible de les réduire à des substances chimiques ou à des entités isolées.

Enfin, j'en arrive au mot « épigénétique ». Avec lui vient immédiatement à l'esprit le processus d'épigenèse. Comme l'a exposé Casper Friedrich Wolff, il y a un siècle et demi, et longtemps avant lui William Harvey, l'épigenèse se rapporte à ces oeuvres mystérieuses de la Nature qui permettent à une structure de se former de novo à partir d'une masse dépourvue de structure en apparence, celle résultant de l'union d'un oeuf et d'un spermatozoïde. Imaginez donc ma surprise en apprenant que « l'épigénétique » devra en finale être comprise comme l'étude des modifications qui, dans les fonctions des gènes, peuvent être héritées mais n'entraînent pas un changement dans la séquence d'ADN. Je suis surpris que les deux définitions aient si peu de points communs et, là aussi, mon parcours de lecture me conduit à l'ADN chimique. Quelle fut la progression logique de la définition originale à la nouvelle ? Mais, davantage encore, cette définition me plonge dans la perplexité. Si quelque chose d' autre que l'ADN peut être modifié et, de façon importante, produire des conséquences susceptibles d'être héritées, pourquoi vos collègues définissent-ils le gène uniquement à l'aide de son composant d'ADN ? Plus précisément, le gène, quand il est décrit par ses composants chimiques une position que, je vous le rappelle, Johannsen désapprouverait certainement !, ne devrait-il pas être défini par tous ses composants, plutôt que par une seule partie de ce qui rend compte de son rôle dans la transmission des caractères ? Comme vous le voyez, avec cette dernière question, j'en reviens à mon interrogation initiale : qu'est-ce que le gène ?

Très respectueusement vôtre,

M. Bacon, voyageur, 9 janvier 1910.

Cher M. Bacon,

[...] Votre lettre se concentre sur trois mots. Pour chacun d'entre eux, vos questions tournent autour de l'attention, en apparence irrésistible, que nous portons à l'ADN, et plus généralement, à la nature physique et chimique de ces « choses » qui font l'hérédité. Votre perception est juste. A partir de votre époque, le désir d'identifier et de purifier les molécules responsables de l'hérédité ne cessera de s'intensifier et aura pour conséquence d'installer fermement l'ADN sous les projecteurs. L'histoire des faits qui se sont déroulés permettra, nous l'espérons, de répondre à certaines de vos questions. [...]

Votre époque est remarquable. Vous êtes le témoin de débats sur la validité de théories d'une immense importance : la théorie darwinienne de la sélection naturelle, la théorie chromosomique d'August Weissman, la théorie des mutations de Hugo de Vries, les théories anciennes de la pangenèse et de l'épigenèse la théorie de la préformation s'était effondrée beaucoup plus tôt, ou, plus récemment, la théorie mendélienne de l'hérédité et la théorie chromosomique due à Theodor Boveri et Walter Sutton. Nous centrerons notre discussion sur ces deux dernières.

A l'époque où vous nous écrivez, William Bateson est le plus franc promoteur de Gregor Mendel, mais il s'avère aussi être un opposant inflexible de la théorie chromosomique ; quant à Thomas Hunt Morgan, il fait preuve d'un profond scepticisme à l'égard de l'une et l'autre. Les arguments de Morgan sont les suivants : la relation mendélienne simple entre les caractères récessifs et dominants ne peut pas expliquer les innombrables variations dans la manifestation de certains traits ; le nombre de chromosomes présents dans le noyau est beaucoup plus petit qu'on doit l'imaginer si chacun représente un simple caractère mendélien : et si un seul chromosome représente en fait de multiples caractères, alors les taux de liaisons entre caractères sont bien moins nombreux que prévu. Mais une idée encore plus dérangeante pour Morgan et Bateson consiste à penser que l'hérédité se réduit à une entité matérielle : il est tout simplement inconcevable qu'une telle entité puisse engendrer les complexités de l'hérédité et du développement. En dépit des études cytologiques de Nettie M. StevensI et Edmund B. Wilson révélant un lien entre le sexe et les chromosomes X et Y, Morgan demande des preuves supplémentaires et Bateson est incrédule : comment les chromosomes, si peu dynamiques, pourraient-ils produire les événements miraculeux du développement ? En résumé, de là où vous êtes, Morgan et Bateson hésitent devant une théorie moléculaire de l'hérédité.

Vous serez donc probablement stupéfié d'apprendre que, dans les cinq années suivant votre lettre, Morgan deviendra le principal promoteur des deux théories, mendélienne et chromosomique ! En juillet de votre année, Morgan s'apprêtera à publier sa propre découverte : le chromosome X de la drosophile est associé à un trait la couleur des yeux qui n'est pas celui du sexe. Une année plus tard, Morgan affirmera que le chromosome X est aussi associé à des traits concernant la pigmentation du corps et la structure des ailes. Ces découvertes montreront qu'il est irraisonnable de considérer le chromosome X comme une structure « guidant » simplement le dimorphisme sexuel et forceront Morgan à admettre que la base de l'hérédité puisse bien être associée, de façon intime, à une structure physique. En 1911, Morgan écrira donc : « C e qui est de la plus haute importance, c'est la découverte que le chromosome X ne contient pas seulement l'un des facteurs essentiels de la détermination du sexe, mais aussi tous les autres caractères qui sont liés au sexe dans l'hérédité 1 . »

Dans ce remarquable article de 1911, Morgan discutera plusieurs autres observations fondamentales : les bases de la liaison entre traits, la théorie de la recombinaison entre gènes sur un seul chromosome, la possibilité qu'un seul gène puisse influencer davantage qu'un caractère et, enfin, la nature des mutations génétiques ! Ces observations vont convaincre Morgan que non seulement la théorie chromosomique est correcte, mais aussi que Mendel avait vu juste. Mais il y a encore plus important pour notre discussion : l'acceptation complète des deux théories, mendélienne et chromosomique, conduira Morgan à accepter la nature physique du gène. Voici ce qu'il écrira : « L a ségrégation, le point clé de tous les phénomènes mendéliens, doit se manifester dans la séparation, durant la maturation de l'oeuf et du sperme, des corps matériels substances chimiques [les parenthèses sont de Morgan] contenues dans les chromosomes » 2 .

Dès 1915, Morgan, Alfred H. Sturtevant, Hermann J. Muller et Calvin B. Bridges publieront leur traité de référence, Le mécanisme de l'hérédité mendélienne , puis, en 1917, Morgan défendra son point de vue avec élégance dans « La théorie du gène », un article publié dans The American Naturalist . Il écrira : « J usqu'ici, j'ai parlé du facteur génétique comme d'une unité dans le plasma germinatif dont la présence est déduite du caractère lui-même. Pourquoi, peut-on se demander, n'est-il pas plus simple de traiter des caractères eux-mêmes, comme le fit Mendel, plutôt que d'introduire une entité imaginaire, le gène ? Il y a plusieurs raisons pour lesquelles nous avons besoin d'une conception du gène 3 . » A ce point de son exposé, Morgan dresse une liste de ces raisons pertinentes et contraignantes, et il conclut : « T outes ces preuves ont joué un rôle pour nous persuader que les gènes postulés pour l'hérédité mendélienne ont une base réelle et sont localisés sur les chromosomes 4 . » Ainsi s'ouvrira une nouvelle phase de la génétique, où l'on abandonnera progressivement les discussions sur l'existence des gènes, dans lesquelles les gènes étaient définis par leurs conséquences sur les traits, pour se concentrer principalement sur la détermination de la nature physico-chimique du gène, un effort qui se focalisera vite sur l'acide nucléique, l'ADN. [...]

Oui, c'est vrai. L'ADN dont vous avez tant entendu parler est une simple substance chimique. Nous comprenons que, à votre époque, on préfère penser que les protéines sont le support matériel de l'hérédité : leur variabilité sans limites, dans leur forme et leur composition, semble si bien s'accorder avec la complexité des traits hérités. Cependant, le courant s'inversera, lentement à vrai dire. En 1928, Frederick Griffith découvrira qu'une version non pathogène de la bactérie pneumococcus peut se transformer en une redoutable version pathogène par une simple exposition à une préparation d'une souche pathogène, pourtant préalablement tuée par chauffage. Cette observation démontrera que le matériel génétique susceptible de conférer un caractère pathogène réside dans une substance inanimée qui, de plus, peut se déplacer d'un organisme à un autre ! Persuadés que l'identité du matériel transformé révélera la nature chimique du gène, Oswald T. Avery, Colin MacLeod et Maclyn J. McCarty démarreront des recherches qui les conduiront à annoncer en 1944, au plus grand étonnement de leurs collègues, que le matériel de transformation n'est certainement pas de nature protéique, mais de l'ADN.

Cette nouvelle sera accueillie avec un grand scepticisme. Mais les années ultérieures verront le développement de technologies révolutionnaires et une accélération dans la course à la détermination de la véritable nature chimique du gène. En 1952, Alfred Hershey et Martha Chase publieront des données suggérant fortement que l'ADN est la substance chimique infectieuse d'un bactériophage, c'est-à-dire d'un virus attaquant les bactéries. Pour la plupart des scientifiques et des historiens, cette expérience définit sans ambiguïté la nature du gène. C'est de l'ADN. [...]

Nous espérons que ce résumé malhabile de quelque quatre-vingt-dix ans de recherches entre nos époques respectives permet d'expliquer pourquoi nous nous soucions tant de l'ADN. En résumé, l'acceptation des théories mendélienne et chromosomique de l'hérédité et leur promotion par Morgan et ses collègues établiront l'idée que le gène est une particule. Une fois que ce concept est accepté, de grands efforts seront réalisés pour identifier la nature chimique du gène ; quand cette tâche sera accomplie, le gène et avec lui toute la génétique en viendra à être défini en termes de substance chimique, l'ADN. Et, vous, pensez-vous que cette position soit correcte ? [...]

Très sincèrement vôtre,

C.-T. Wu et J. Morris, 13 octobre 2000

Chers C.-T. Wu et J. Morris,

Votre lettre est arrivée par le courrier de ce matin et, depuis, elle n'a quitté ni ma main ni mon esprit. [...] Vous êtes trop aimables pour me demander mon opinion. De quelle utilité pourrait-elle être ? Cependant, comme vous avez été plus que généreux dans vos pensées, j'y consens : il n'y a aucune autre manière, je le crains, de vous retourner la faveur dont vous avez fait preuve à mon égard. Donc, avec tout le respect dû aux années qui nous séparent, et en requérant d'avance votre tolérance, je m'aventure avec ce qui suit.

Premièrement, je suis tout à fait surpris que l'étude des bactéries et de leurs virus ait réussi à convaincre si efficacement la communauté quant à la nature chimique du gène. N'y aura-t-il aucune exigence de preuves impliquant une diversité d'organismes ? Mon bureau croule sous des notes concernant des plantes à fleur, Piseum, Hieracium et autres, les volailles, lapins et papillons de Bateson, les cochons d'Inde de Castle, les oursins de Boveri, les scarabées, la mouche, le serpent ou l'étoile de mer. Qu'adviendra-t-il de l'étude de tous ces organismes ? Suffira-t-il de quelques décennies pour démontrer que les bactéries de van Leeuwenhoek, aussi bien que leurs tout petits parasites, sont des représentants, vrais et valides, de nous tous ?

Mais, de façon plus importante, vous désirez savoir si je pense que la définition des « gènes », et même de toute la « génétique », en termes d'acide nucléique ADN est correcte, si je pense que l'histoire à venir rendra justice à la génétique. Je vous prie de m'excuser, mais je répondrai sans réserve : non ! Les événements à venir font certes grande impression sur moi, et j'entrevois que, bientôt, je me réconcilierai avec la théorie moléculaire ; cependant je continuerai à penser que toute l'hérédité ne peut pas reposer uniquement aux pieds de quatre bases azotées. Souvenez-vous seulement de ma requête, dans ma lettre initiale, à propos de la définition du mot « épigénétique ». Votre emploi de ce mot implique que des substances autres que l'ADN affectent l'hérédité, et donc, j'insiste à nouveau, pourquoi ces substances sont-elles si profondément ignorées par vos chimistes ? Quelles sont ces autres substances ? Tout se passe comme si, après la découverte d'une nouvelle fleur, nous choisissions d'abord de célébrer sa couleur et que, plus tard, on ne l'identifie et la définisse communément que par sa couleur. Qui ne criera pas à la tricherie si, plus tard, cette fleur se trouve avoir un parfum capiteux mais, la fleur ayant été d'abord décrite par sa couleur, son parfum ne pouvait pas ensuite être considéré comme l'un de ses traits constitutifs ? S'il y a des éléments qui, outre l'ADN, sont responsables de la transmission d'un trait, je vous exhorte à ce qu'ils prennent place au centre de la théorie moléculaire du gène.

Mais j'ai été trop loin, et je crains maintenant vos reproches. Si seulement l'abominable temps anglais m'avait autorisé à faire mon habituelle promenade cet après-midi, je n'aurais pas eu le temps de radoter ainsi !

Respectueusement,

M. Bacon, 3 février 1910
1 T.H. Morgan, « An attempt to analyze the constitution of the chromosomes on the basis of sex-limited inheritance in Drosophila », J. Exp. Zool, 11 , 409, 1911.

2 Id. p. 383.

3 T.H. Morgan, « Theory of the gene » , Am. Nat., 51 , 517, 1917.

4 Id., p. 520.
LA NAISSANCE DU MOT « GÈNE »
« Il n'y a eu aucun doute sur le fait que les gamètes contiennent "quelque chose" qui est responsable d'un trait de l'organisme nouvellement conçu, ou qui l'influence. Le zygote, qui résulte de la fusion des gamètes durant la fertilisation, contient le "quelque chose" fourni par chaque gamète. Ce "quelque chose", auquel on peut attribuer le trait de l'organisme, on le désigne habituellement par le très ambigu "Anlage". De nombreux autres termes ont été proposés, mais ils sont tous malheureusement associés à des conjectures. Le terme le plus traditionnellement utilisé à la place de "Anlage" est "pangène", qui est dû à Darwin. Mais ce mot est un choix malheureux, parce qu'il est une combinaison de deux mots grecs pan , signifiant tout, tout le monde ; gen , signifiant "en devenir". Or, seule la signification du second convient pour décrire ce "quelque chose" qui, dans les gamètes, peut ou pourrait contribuer à un trait d'un organisme en développement. Aucune hypothèse sur la nature de ce "quelque chose" n'est de ce fait mise en avant ou ne sert à le fonder. Donc, il semble qu'il soit plus simple de n'utiliser que la dernière syllabe, "gène", empruntée au terme bien connu de Darwin, puisque lui seul semble nous intéresser. Ainsi, nous dirons désormais simplement gène à la place de pangène. Ce mot est totalement libre de toute hypothèse ; il exprime le seul fait, prouvé avec certitude, que, dans n'importe quel cas, de nombreuses caractéristiques d'un organisme résultent de conditions spéciales, séparables et donc indépendantes, en résumé ce que nous appellerons simplement "gènes", et qui sont présents dans les gamètes . »

W. Johannsen, Elemente der exakten Erblichkeitslehre, Gustav Fischer, Iena, 1909.
SAVOIR
A lire :

-A. Pichot, Histoire de la notion de gène , coll. « Champs » Flammarion, 1999.

-B. Lewin, Gènes VI , DeBoeck Université, 1999.

-P. Sonigo, J.J. Kupiec, Ni Dieu, ni gène , Seuil, Paris, 2000.

 

 DOCUMENT       la recherche.fr      LIEN

 
 
 
 

LA TRANSGENÈSE ET SES APPLICATIONS

 

 

 

 

 

 

 

Texte de la 30ème conférence de l'Université de tous les savoirs réalisée le 30 janvier 2000 par Louis-Maris Houdebine

LA TRANGENESE ET SES APPLICATIONS


Les découvertes des cinquante dernières années nous ont familiarisé avec lidée que la vie nest quun ensemble de réactions physico-chimiques qui se déroulent à lintérieur despaces bien délimités, les cellules. Ces actions sont effectuées pour une part essentielle par des protéines (enzymes, facteurs sanguins, hormones, anticorps, etc.) Les protéines de tous les organismes vivants sont composées des mêmes vingt acides aminés assemblés les uns derrière les autres pour former des chaînes dont la longueur est très diverse. Les protéines peuvent contenir de quelques unités à quelques milliers dacides aminés. Le nombre de combinaisons théoriques des vingt acides aminés est considérable et lensemble des protéines existantes ne représente quune faible partie des possibilités. Lactivité biologique des protéines est directement liée à lenchaînement des acides aminés mais dune manière très complexe. Les chaînes formant les protéines se replient de multiples manières qui sont définies par la séquence des acides aminés. Ces repliements forment les sites actifs des protéines.

La découverte des protéines sest accompagnée de la mise en évidence dune molécule omniprésente dans les organismes vivants : lacide désoxyribonucléique ou ADN qui renferme linformation génétique. Cette molécule est formée dune chaîne de phosphate et de désoxyribose sur laquelle sont accrochées quatre structures appelées bases et symbolisées par les lettres ATGC.

De multiples observations ont montré quun gène est constitué par une région de la chaîne dADN et quà un gène correspond essentiellement une protéine. Des études systématiques ont permis détablir que la succession des bases dans un gène définit directement lenchaînement des acides aminés de la protéine correspondante selon un code universel : le code génétique. Trois bases successives déterminent ainsi quel acide aminé doit participer à la formation de la protéine.

LADN peut donc considérer comme une banque de données dont la cellule fait usage en fonction de ses besoins en protéines. Une copie dun gène sous la forme dun acide ribonucléique messager (ARNm) est formé à la demande de la cellule et décrypté pour synthétiser la protéine correspondante. Ces faits établis il y a bientôt quarante ans définissaient déjà tout le principe du génie génétique. En effet, si les messages génétiques contenus dans lADN ne sont définis que par la succession des quatre bases, il doit être possible de modifier ces messages voire den créer de nouveaux dès lors que lon maîtrise la chimie de lADN. Les techniques essentielles qui permettent de manipuler ainsi lADN ont été définies il y a maintenant un peu plus de vingt ans et avec elles est né le génie génétique qui est désormais un outil très largement utilisé dans de nombreux laboratoires.

Il est admis quil y a une continuité stricte entre la matière inorganisée qui a précédé le Big Bang il y a quinze milliards dannée et la matière très organisée que constituent les organismes vivants apparus sur la terre il y a quatre milliards dannées. Les minéraux représentent un état de complexité intermédiaire.

Les organismes vivants sont eux-mêmes dune complexité très variable qui va croissante des bactéries aux mammifères et à lhomme en passant par les levures et les plantes. Très logiquement, on constate que les organismes vivants les plus complexes sont ceux qui ont le plus grand nombre de gènes. Les bactéries ont ainsi de 350 à 4000 gènes, les levures environ 6000, un des plus petits animaux connus de la famille des nématodes 19099, les plantes environ 20000 et lhomme autour de 100000 (le chiffre proche de la réalité sera connu au cours de lannée 2000). Ces données sont particulièrement révélatrices de la manière dont lévolution a procédé pour faire émerger les différentes espèces. Les mammifères sont en effet beaucoup plus complexes que les bactéries et ils nont pourtant que 50 fois plus de gènes. Les biologistes savent déjà que les gènes, les protéines et les molécules qui en dérivent sont capables dinteragir de manière de plus en plus complexe au fur et à mesure que lorganisme est lui-même devenus plus évolué. La complexité du vivant naît donc au moins autant dune combinatoire de plus en plus sophistiquée de molécules qui le compose que dune accumulation des informations génétiques primaires.

1/ Des gènes au génie génétique

Ces faits ont une répercussion directe et profonde sur les expériences impliquant le génie génétique. Les techniques actuelles permettent virtuellement disoler nimporte quel gène, den étudier la structure, de le modifier et de le réintroduire dans une cellule ou un organisme vivant. Cette dernière opération est une des plus essentielles. Un gène peut en effet se comparer à une bande magnétique. Tous les deux contiennent des messages linéaires codés et aisément modifiables. Ces messages sont en soi inertes. Ils nont dintérêt que par les produits qui en sont issus : une image ou un son dans un cas, une protéine dans lautre cas. Une différence fondamentale existe toutefois entre les deux systèmes ; le lecteur de bande magnétique est indifférent au message quil décode ce qui nest le plus souvent pas le cas pour les gènes dans la mesure où les protéines peuvent agir sur la cellule ou sur lorganisme entier qui les synthétisent.

Un gène peut dans une certaine mesure être comparé à un micro-ordinateur qui contient un message spécifique. Lintroduction dun gène isolé dans une cellule et à fortiori dans un organisme entier revient alors à connecter le micro-ordinateur à un réseau de micro-ordinateurs déjà interconnectés et interagissant. Une telle incursion peut enrichir le réseau de manière harmonieuse ou à linverse perturber profondément son fonctionnement.

La transgenèse est lopération qui consiste à ajouter un gène étranger à un organisme pluricellulaire (plantes ou animaux) entier ou à remplacer un des ses gènes par un autre. Il est bien évident que dans lun et lautre cas, les effets du transgène sur lorganisme ne peuvent être totalement prévisibles aussi bien connues que soient les propriétés du gène étranger et de la protéine correspondante. La transgenèse est donc par essence un retour au complexe, lisolement dun gène et son étude in vitro étant au contraire une étude volontairement réductionniste. Les conséquences dune transgenèse sont donc à priori inévitablement en partie inconnues. La gestion du complexe que représentent lagriculture et lélevage est en réalité une activité très familière pour les communautés humaines. La sélection génétique consiste classiquement à repérer les effets biologiques intéressants (prolificité, résistance aux maladies etc.) apparus spontanément chez quelques individus au hasard de la redistribution des gènes lors de la reproduction sexuée et de mutations résultant derreurs dans la réplication de lADN. La reproduction privilégiée des individus dotés des propriétés biologiques intéressantes conduit progressivement à létablissement de lignées ou de races. Cette méthode de sélection a largement fait ses preuves et nous en bénéficions grandement. La sélection classique est toutefois une opération le plus souvent réalisée en aveugle. Le sélectionneur ne sait en effet le plus souvent rien des gènes quil a sélectionnés ni de leurs effets individuels. Seul le résultat global est généralement pris en compte. Le remaniement des chromosomes dans les cellules germinales consiste à redistribuer les gènes parentaux de manière aléatoire. Ceci explique que les enfants dun même couple sont différents. Le remaniement des chromosomes parentaux concerne de longs segments dADN qui portent de nombreux gènes contigus. La sélection dun gène ayant un intérêt biologique attendu saccompagne donc inévitablement de la co-sélection de gènes voisins inconnus dont les effets ne sont pas toujours bénéfiques. Ainsi, des taureaux, des verrats, etc. retenus comme géniteurs en raison de leur potentiel génétique intéressant savèrent parfois à lusage porter également un gène parfaitement nuisible pour lélevage. Ces géniteurs doivent alors être éliminés non sans parfois avoir entraîné des pertes financières importantes. Il en est de même pour la sélection végétale.

La transgenèse évite, par essence, une bonne partie de ces effets imprévisibles. La modification génétique quelle représente a des effets en grande partie attendus, dans la mesure où les propriétés du gène étranger sont elles-mêmes connues. La transgenèse ne correspond par ailleurs quà une seule modification génétique de lorganisme. La transgenèse vue ainsi est donc en principe moins hasardeuse que la sélection classique. Tout bien considéré, les mutations obtenues par transgenèse ne sont généralement pas plus complexes que celles engendrées par les mécanismes naturels à chaque cycle de reproduction. La gestion des organismes transgéniques peut donc logiquement sinspirer de celle des organismes obtenus par sélection classique.

2/ Les techniques de transfert de gènes

Le transfert dun gène isolé à un organisme nest quexceptionnellement un phénomène spontané. Si tel nétait pas le cas, lintégrité des espèces ne serait pas une réalité puisque les organismes vivants sont très fréquemment en contact direct avec lADN dautres espèces. Les virus qui ne sont constitués que de quelques gènes associés à des protéines ont une capacité exceptionnelle à pénétrer dans les cellules. Ce processus que lon nomme une infection est primordiale pour le virus qui doit absolument utiliser la machinerie cellulaire dont il est dépourvu pour se répliquer. Lintroduction de gène étranger destiné à obtenir des organismes transgéniques requiert donc des méthodes expérimentales variées. La plus utilisée chez les animaux consiste à procéder à une microinjection directe du gène isolé en solution dans le noyau ou le cytoplasme dun embryon au stade une cellule. Dans une petite proportion de cas (de lordre de 1%) le gène étranger sintègre à LADN de lembryon et se transmet ainsi à ses cellules filles puis à sa descendance.

Cette méthode ne peut être appliquée aux végétaux. Deux techniques sont dans ce cas le plus souvent utilisées. Lune consiste à introduire le gène étranger dans un vecteur dérivé dune bactérie. Celui-ci pénètre aisément dans la cellule végétale et sintègre dans son ADN. Lautre méthode est utilisée pour les végétaux ne pouvant bénéficier du vecteur. Elle consiste à faire pénétrer de force des microbilles métalliques enrobées dADN contenant le gène étranger dans les cellules végétales en les projetant à haute vitesse. Dans lun et lautre cas, le transfert de gène doit être suivi dune régénération complète dune plante à partir de la cellule ayant subi la modification génétique.

Laddition de gène est lopération la plus simple et de loin la plus fréquemment pratiquée. Le remplacement spécifique de gène est également hautement souhaitable. Il permet en pratique de remplacer un gène de lorganisme par un gène inactif (ceci revient alors à supprimer sélectivement un gène de lorganisme) ou par un autre gène actif. Cette opération nest actuellement possible que chez les animaux (et les microorganismes). Elle implique en effet que lADN étranger contenant le gène de remplacement reconnaisse très spécifiquement le gène ciblé pour pouvoir se substituer à lui par un processus de recombinaison homologue. Cette opération nest finalement couronnée de succès que si la cellule dans laquelle a eu lieu le remplacement de gène peut donner naissance à un organisme entier. Cette régénération très couramment pratiquée chez bon nombre de plantes est particulièrement malaisée chez les animaux. En pratique, la cellule animale modifiée doit être celle dun embryon précoce capable, une fois introduite dans un embryon précoce hôte, de participer au développement de lorganisme jusquà transmettre la mutation à la descendance. Cette méthode laborieuse est utilisée depuis plus de 10 ans mais, pour des raisons techniques, chez la souris seulement. Le remplacement de gène par recombinaison homologue a donc pendant une décennie été réservée à cette seule espèce.

Une autre approche très séduisante peut en principe reposer sur la technique de clonage des animaux. Cette technique mise au point il y a environ quinze ans consiste à reconstituer léquivalent dun embryon en introduisant le double stock de chromosomes dune cellule dans un ovocyte préalablement énucléé. Ceci na pendant longtemps été possible quen partant de cellules embryonnaires non différenciées (totipotentes) et non cultivées. Des améliorations techniques relativement minimes ont permis dobtenir des clones de moutons en partant de cellules embryonnaires totipotentes cultivées (un an avant la naissance de Dolly) puis à partir de cellules fStales différenciées et enfin de cellules adultes. Ces expériences ont été menées essentiellement pour tenter de simplifier la technique de transgenèse. Il est en effet en principe possible de transférer des gènes étrangers dans des cellules cultivées utilisées ensuite pour engendrer des animaux qui se trouvent être transgéniques. Laddition de gène a ainsi été couronnée de succès (naissance de Polly) un an après la naissance de Dolly. En 1999, le remplacement de gène chez les moutons a pu être obtenu par recombinaison homologue par le même procédé.

Laddition de gène est ainsi simplifiée et le remplacement de gène est devenu possible chez les ruminants domestiques et très vraisemblablement chez dautres espèces dans le futur.

Les fragments dADN qui sont utilisés pour la transgenèse sont généralement construits au laboratoire pour diriger lexpression du gène étranger spécifiquement dans un tissu donné. La connaissance limitée que lon a actuellement du mode de fonctionnement des gènes ne permet encore quune approche empirique raisonnée dans la construction des futurs transgènes. Des progrès rapides récents dans ce domaine laisse prévoir pour un avenir assez proche un contrôle satisfaisant du fonctionnement des transgènes dans la majorité des cas.

3/ Les applications de la transgénèse

La transgenèse, a dès ses débuts chez les animaux en 1981 puis en 1983 chez les plantes, été définie avant tout comme un outil de recherche. Laddition ou le retrait dune information génétique dans un organisme entier est en effet un moyen incontournable pour déterminer les mécanismes moléculaires qui contrôlent le fonctionnement des gènes et le rôle des gènes eux-mêmes dans lexpression des fonctions biologiques. Lidentification systématique et massive des gènes de certains organismes par le séquençage complet de leur ADN va logiquement être suivie dune utilisation plus intense de la transgenèse chez quelques organismes modèles comme la souris et le tabac.

La maîtrise du vivant que représente la transgenèse a rendu possible des applications nouvelles dans le domaine médical et agronomique. Létude des maladies humaines ne peut se passer de modèles animaux. Les modèles pertinents résultant de mutations spontanées sont rares. Dans le meilleur des cas, des modèles particulièrement précieux peuvent être obtenus par addition ou remplacement de gènes. Cest surtout la souris qui est sollicitée en raison de son faible coût dutilisation. Dautres espèces sont parfois nécessaires pour diverses raisons, cest le cas notamment du rat, du lapin, du porc et des primates non humains. Cette approche expérimentale est devenue récemment plus simple et potentiellement plus utile à la suite de lamélioration des techniques de transgenèse.

Les animaux et les plantes sont depuis des temps immémoriaux la source de substances dotées de propriétés pharmacologiques. Ces substances nont, par le passé, été que rarement des protéines. Jusquà une époque récente en effet, un nombre relativement petit de protéines était connu et seulement quelque unes dentre elles pouvaient être extraites pour être administrées à lhomme. Cétait le cas de linsuline de porc pour le traitement des diabétiques. Le génie génétique offre la possibilité de préparer virtuellement nimporte quelle protéine en abondance en transférant le gène correspondant dans des bactéries, des levures, des plantes ou des animaux. Linsuline et lhormone de croissance humaine proviennent désormais essentiellement de bactéries recombinées. Plusieurs dizaines de protéines dintérêt pharmaceutique ont été obtenues à partir du lait danimaux ou de plantes transgéniques. La première protéine extraite ainsi du lait doit être mise sur le marché en 2000. Beaucoup dautres suivront et on peut considérer quune nouvelle branche de lindustrie pharmaceutique est née.

La transgenèse peut jouer un rôle décisif dans le domaine des greffes dorganes. Plusieurs milliers de personnes meurent chaque année en France par manque de greffon humain. Limpossibilité quil y a et qui persistera sans doute longtemps de remédier à cette situation a fait resurgir une idée déjà ancienne. Certains organes ou cellules des animaux et notamment ceux du porc pourraient probablement être utilisés à la place de matériel humain. Les rejets extrêmement violents des organes animaux ont jusquà maintenant empêchés les xénogreffes de devenir une réalité. Des succès partiels mais bien réels ont été obtenus dans la dernière décennie du XXème siècle. Des cSurs et des reins de porcs transgéniques abritant des gènes capables dinhiber le système du complément humain responsable du rejet hyper-aigu des éléments étrangers ont pu être maintenus, intègres, pendant plusieurs semaines après avoir été greffés à des singes.

De multiples obstacles, y compris dans le domaine de la connaissance des mécanismes de rejet, restent à franchir pour que la xénogreffe devienne une réalité médicale. La xénogreffe peut toutefois dans lavenir concerner plus les cellules qui sont moins sujettes aux rejets que les organes. La démonstration récente que des cellules embryonnaires humaines peuvent être différenciées in vitro en cellules souches dorganes laisse penser que des cellules humaines préparées de cette manière pourraient être dans lavenir utilisées plutôt que leurs homologues dorigine porcine. La situation actuelle incite à imaginer que la xénogreffe ou la greffe à partir de cellules humaines différenciées pourraient être retenues comme moyen thérapeutique au cas par cas en fonction des problèmes à résoudre. Le transfert de gène dans les cellules ou via la transgenèse pourrait permettre aux cellules porcines non seulement dêtre mieux tolérées mais également dapporter des protéines ayant une activité thérapeutique. Une thérapie génétique serait alors réalisée en même temps quune thérapie cellulaire.

Les applications agronomiques de la transgénèse commencent à être significatives, en ce qui concerne les végétaux. Elles sont, pour des raisons techniques, tout juste naissantes chez les animaux. La transgenèse permet dans certains cas de conférer aux plantes et aux animaux une résistance contre les maladies. Ceci se traduit ou se traduira par une moindre utilisation de pesticides et dantibiotiques ainsi que par une simplification de la tâche des agriculteurs et des éleveurs. La résistance des animaux à des maladies devenue ainsi génétiquement transmissible a par ailleurs toutes les chances de réduire la souffrance des animaux, de permettre de consommer des viandes plus saines et diminuer la fréquence des zoonoses.

Certains projets de transgenèse nont dautre but que de réduire la pollution. Des porcs transgéniques expérimentaux rejettent ainsi deux fois moins de phosphate dans lenvironnement. Des plantes transgéniques ont été spécialement conçues pour capter certains ions métalliques toxiques présents spontanément dans le sol ou apportés à la suite dune activité industrielle.

Des plantes capables de se développer dans des sols salés ou alcalins impropres à lagriculture ont été obtenues par transgenèse. Ceci permet denvisager de conquérir de nouvelles terres.

La modification volontaire de la composition des plantes ou des animaux via la transgenèse peut permettre de fournir aux consommateurs des aliments plus riches en éléments essentiels voire plus sapides. Le riz doré capable dapporter un supplément de vitamine A aux 400 millions dêtres humains qui en manquent et sont menacés de devenir aveugles ainsi que de fer aux 4 milliards de personnes carencées est un exemple éloquent. Le transfert de plusieurs gènes a dû être réalisé pour atteindre ce but.

Diverses améliorations des produits animaux sont également envisagées. Elles concernent la composition du lait, des graisses, de la carcasse, de la laine, etc.

Il est intéressant de mentionner également que les végétaux qui sont déjà la source de molécules non destinées à l'alimentation humaine ou animale vont de plus en plus être sollicités pour servir comme base à la synthèse de plastiques biodégradables, de carburants, etc. La transgenèse peut dans certains cas apporter des solutions uniques ou originales et très satisfaisantes.

4/ Les problèmes posés par la transgenèse

La transgenèse est actuellement vue surtout par ses applications très marginales mais spectaculaires dans lalimentation humaine. Les OGM (organismes génétiquement modifiés) ont très mauvaise presse. Ce fait ne laisse de surprendre la majorité des biologistes qui considèrent que la transgenèse appliquée à lalimentation est à priori une des techniques puissantes les moins dangereuses que lhumanité ait inventées. Certes, un organisme transgénique est par définition en partie inconnu, mais cela est aussi le cas dun organisme obtenu par sélection classique ou dun aliment exotique. Les tests classiques de toxicité, oncogénicité et allergénicité accompagnés dune traçabilité raisonnable doivent pouvoir réduire les risques à un niveau bien inférieur à celui de beaucoup dautres techniques très généralement acceptées. Il est incontestable que certaines plantes, transgéniques ou non, posent des problèmes environnementaux dont limportance ne peut pas être aisément évaluée. Les modèles de laboratoire ne peuvent en effet que difficilement prendre en compte de manière satisfaisante des paramètres comme lespace et le temps. Les biotechnologistes ont quelque difficulté à imaginer comment leurs actions dans le domaine agronomique pourraient faire ne serait-ce que dix ou cent fois moins de victimes que lautomobile. Les réticences actuelles des consommateurs ne sont toutefois pas incompréhensibles. Toute nouveauté effraie. Les condamnations actuelles des OGM ressemblent à sy méprendre à celles appliquées aux vaccins il y a un siècle. Il est vrai quune désinformation qui a atteint un niveau peu commun ne fait quentretenir la confusion. Les critiques vis à vis des OGM sont en fait bien souvent dirigées plus contre la société libérale mal contrôlée que contre la technique elle-même. Les OGM en font actuellement les frais. Il est vrai que leur utilisation ne devrait pas tomber sous la coupe dentreprises qui détiennent des monopoles de fait. Lobtention du riz doré financée par lUnion Européenne et la fondation Rockefeller indique que la situation est bien plus ouverte et diverse que certains ne le prétendent. Les réticences des pays riches vis à vis des OGM ne sont pas partagées par ceux qui souffrent de pénuries alimentaires. Les chinois consomment ou utilisent actuellement au moins sept plantes transgéniques. Il ne semble pas que ces cultures se fassent sans contrôle. Les agriculteurs chinois sappuient en effet sur les résultats des expériences réalisées dans les pays développés et notamment les USA. Lavenir de lagriculture ne peut reposer sur un retour aux techniques anciennes, pas plus que la médecine traditionnelle ne saurait être un remède à certaines dérives des pratiques médicales modernes. Une application raisonnée des techniques agronomiques modernes, y compris de la transgenèse, paraît plus appropriée. En face de la demande croissante des consommateurs humains, le principe de précaution invite à mettre à notre disposition toutes les techniques de transgenèse pour optimiser les productions végétales et animales, quitte à ne pas les utiliser si des alternatives au cas par cas savèrent tout aussi efficace.

La transgenèse appliquée à lespèce humaine est en principe possible. Tout le monde ou presque saccorde pour considérer quune telle opération ne devrait comporter aucun risque technique et ne concerner que des activités thérapeutiques. La première condition nest pas actuellement remplie mais on peut imaginer que cela sera un jour le cas. Les thérapies géniques germinales ne peuvent raisonnablement concerner que le remplacement de gènes responsables de maladies humaines par leurs homologues non mutés. Ce type dopération est et restera probablement difficile et elles devront être accompagnées de contrôles stricts pour sassurer que la modification génétique induite est bien celle que lon attendait. Cette approche thérapeutique se trouverait en compétition directe avec le tri des embryons portant les gènes défectueux. Il y a tout lieu de penser que la deuxième solution paraîtra majoritairement comme la plus satisfaisante.

La modification du patrimoine génétique dun être humain non destinée strictement à remplacer un gène défectueux par un gène sain paraît difficilement envisageable sans risque. Laddition dun gène, conférant une résistance vis à vis dune maladie infectieuse, paraît séduisante à première vue. Nul ne peut prévoir tous les effets du transgène et ce qui est acceptable pour les animaux et les plantes ne lest plus pour l'espèce humaine. Il est concevable de procéder à des transgènes réversibles. Ceci ne paraît pas suffire à justifier lutilisation de cette technique pour l'espèce humaine.

Les générations qui nous suivront trouveront peut-être légitime et souhaitable de modifier le patrimoine génétique humain pour toute sorte de bonnes raisons. On pourrait en effet par exemple souhaiter que les êtres humains soient plus sereins et moins féroces envers leurs semblables ou plus modestement quils aient une vieillesse biologiquement plus douce. Il nest en rien certain que la transgenèse, dans le meilleur des cas, puisse apporter une solution à des problèmes aussi complexes. Quoiquil en soit, il serait sans doute prétentieux de condamner par avance les décisions de nos descendants. Il nous suffit, dans les faits, dêtre pleinement en accord avec nos convictions actuelles. Elles nous indiquent sans ambiguïté que la transgenèse ne doit pas âtre appliquée à lespèce humaine.


 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

PERTE DE POIDS ...

 

 

 

 

 

 

Perte de poids et maladie : comment le cerveau réduit-il l’appétit et le stockage énergétique ?

Comment lier un état inflammatoire aigu à la perte d’appétit et de poids? Une équipe de l’Institut de pharmacologie moléculaire et cellulaire, en concertation avec deux autres groupes, met en évidence une nouvelle voie de contrôle reliant l’induction d’un choc inflammatoire, la production cérébrale de la chimiokine CCL2, et l’inhibition des neurones produisant la « Melanin concentrating hormone » dans l’hypothalamus, une zone du cerveau contrôlant notre balance énergétique. Cette étude pionnière sur les signaux neuro-immunologiques contrôlant notre poids est publiée dans la revue EMBO Reports.

Chacun l'a expérimenté ou l'expérimentera : atteints d'une maladie générant un état  inflammatoire plus ou moins fort, nous perdons l'appétit et en conséquence, nous perdons du poids.Afin de mieux comprendre la relation entre inflammation et perte de poids, les chercheurs reproduisent un état inflammatoire déclenché par une infection bactérienne, en injectant chez la souris un composant de la paroi de la bactérie, le lipopolysaccharide (LPS). L’injection de LPS chez la souris induit de facto une inflammation aiguë, identifiable par la surexpression de divers médiateurs inflammatoires, comme les cytokines et chimiokines. Elle est aussi associée à une fièvre et une perte de poids transitoires chez les animaux.
De nombreuses molécules inflammatoires, comme les cytokines Il1 béta, IL6 ou TNF alpha, ont été caractérisées et leurs effets démontrés dans la mise en place de ce qui est communément appelé le « comportement de maladie ». Cependant la correspondance entre la surexpression intracérébrale de ces médiateurs et leurs modes d’action sur les réseaux neuronaux impliqués dans de contrôle de l’appétit et du poids corporel restait mal définie.
Dans ce contexte, Carole Rovère et ses collaborateurs, au sein de l’équipe Génomique et Evolution en Neuro-endocrinologie dirigée par Jean-Louis Nahon, en concertation étroite avec le groupe de Nicolas Blondeau dans l’équipe de Catherine Heurteaux (IPMC/ CNRS/ UCA) et l’équipe de Serge Luquet, au laboratoire « Biologie fonctionnelle et adaptative » (CNRS/Université Paris Diderot) ont identifié une molécule inflammatoire particulière, la CCL2, comme un élément clé dans la cascade de signalisation initiée par l’administration du LPS et aboutissant  à la chute d’appétit et de poids. Cette protéine appartient à la famille des chimiokines, connues pour attirer les cellules inflammatoires au site lésé et auxquelles des études scientifiques récentes ont attribué la capacité de moduler l'activité neuronale. Elle est impliquée de fait dans certaines pathologies neurologiques.
En empêchant CCL2 de jouer son rôle par des d’agents pharmacologiques ou en utilisant des modèles d’animaux transgéniques, les chercheurs ont montré que l’effet amaigrissant associé à l’inflammation induite par le LPS était notablement diminué.
Les effets du LPS, qui entraîne une perte d’appétit, une augmentation de la consommation des réserves énergétiques contenues dans la masse grasse et donc une perte de poids, sont quant à eux retrouvés lors de l’injection intracérébrale de CCL2, confirmant ainsi le rôle central de CCL2 dans l’adaptation métabolique à l’inflammation chez la souris.
Les chercheurs ont ensuite identifié la cible de CCL2 dans l’hypothalamus, une zone du cerveau décrite comme le chef d’orchestre du comportement alimentaire. L’hypothalamus est une région complexe, abritant différents types de neurones produisant des molécules capables de moduler positivement ou négativement la prise alimentaire et les dépenses énergétiques. Parmi ceux-ci se trouvent les neurones produisant la « Melanin concentrating hormone » (MCH), un peptide connu pour favoriser la prise alimentaire et réduire les dépenses énergétiques.
En approfondissant leur recherche, les chercheurs ont montré que CCL2 peut agir directement sur les neurones, en se liant à son récepteur CCR2, et diminuer leur activité ainsi que leur capacité à sécréter le peptide MCH. Ainsi, l’action de CCL2 sur les neurones synthétisant la MCH pourrait expliquer en partie la perte d’appétit, l’augmentation des dépenses énergétiques et la perte de poids associées à un état d’inflammation. Cependant d’autres réseaux hypothalamiques, voire cérébraux, seraient la cible de cette chimiokine. Par ailleurs, l’expression d’autres chimiokines et facteurs inflammatoires apparait modifiée après une injection de LPS. Ce sont autant de cibles moléculaires prometteuses pour établir de nouvelles thérapies dans le contexte d’une perte de poids non-consécutive à un régime amaigrissant ou une anorexie mentale.
En conclusion, cette étude, combinant de multiples échelles d’investigation, représente l’exemple le plus détaillé de l’identification d’un mécanisme neuro-immunologique qui pourrait être commun à de nombreuses pathologies inflammatoires. De fait, nous ne sommes qu’aux prémices de l’exploration fonctionnelle des molécules inflammatoires cérébrales responsables des changements comportementaux observés lors d’une stimulation de la réponse immunologique.

 

 DOCUMENT         CNRS         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google