ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Une généralisation de la règle de Descartes

 

 

 

 

 

 

 

Une généralisation de la règle de Descartes

lundi 20 mars 2017

Ce résultat fondateur de la géométrie algébrique (voir [S]) concerne le nombre de racines strictement positives d’un polynôme donné. Plus précisément, si

est un polynôme réel et si l’on note s le nombre de monômes de P apparaissant avec un coefficient c_i non-nul, la règle de Descartes affirme que le nombre de racines strictement positives de P comptées avec multiplicité est majoré par le nombre total de changements de signe entre deux coefficients consécutifs non nuls de P. De plus, la règle stipule que ces deux nombres ont la même parité. La règle de Descartes est optimale et il en découle immédiatement la borne s-1, également optimale, sur le nombre de racines strictement positives de P, ainsi que la borne 2s-1 sur le nombre de racines réelles. Par conséquent, si P a peu de monômes comparativement à son degré alors, parmi ses racines complexes, peu seront réelles. Par exemple, le polynôme

 a d racines complexes mais au plus 2 racines réelles !
Ce phénomène est-il propre au cas des polynômes d’une variable ?


En 1980 A. Khovanskii a apporté une réponse négative à cette question dans son livre Fewnomials [K] en établissant un certain nombre de généralisations de la borne de Descartes au cas multivarié et dans un cadre plus général que le cadre purement algébrique.
Considérons un système polynomial formé de n équations polynomiales en n variables et notons s le nombre total de monômes apparaissant avec un coefficient non nul dans ce système (en écrivant chaque polynôme sous forme développée). Il est naturel de supposer que s soit au moins égal à n+1. Une solution du système est dite non-dégénérée si les différentielles des polynômes du système en ce point sont linéairement indépendantes. Le livre [K] contient la borne

sur le nombre de solutions non-dégénérées du système à coordonnées toutes strictement positives. Nous parlerons plus simplement de solutions positives. Malheureusement, cette borne est loin d’être optimale.

Elle fut grandement améliorée par F. Bihan et F. Sottile [BS] en 2007. Pour n=2 et s=5 par exemple, ils obtiennent 15 au lieu de la valeur 5184 donnée par la borne de Khovanskii, tandis que dans le cas général (n et s quelconques) ils obtiennent la borne

Cependant, malgré cette amélioration les familles de systèmes polynomiaux pour lesquelles on connait une borne optimale sont rares et vouloir généraliser la règle de Descartes au cas multivarié peut paraitre ambitieux.
C’est néanmoins ce qu’ont réussi à faire très récemment F. Bihan et A. Dickenstein [BD]. Leur généralisation porte sur les systèmes polynomiaux avec n quelconque et s=n+2. Un tel système est déterminé par sa matrice de coefficients C de taille n X (n+2) et par sa matrice d’exposants A de même taille (dont chaque colonne contient les exposants d’un monôme du système).
La borne obtenue dans [BD] est le nombre de changements de signe dans une suite ordonnée dont chaque élément est le produit d’un mineur maximal de C et du mineur maximal correspondant (mêmes colonnes) de A. L’ordre des éléments de la suite est déterminé par la matrice C (contrairement au cas univarié où l’ordre est donné par celui des exposants !). De plus, comme dans le cas univarié, il y a congruence modulo deux entre la borne et le nombre de solutions du système. Ce nouveau résultat ouvre la voie à d’autres généralisations de la règle de Descartes. D’ores et déjà, F. Bihan annonce une borne hybride valable pour tout n et s qui raffine la borne (2) plus haut et se présente sous la forme d’une somme d’un nombre de changements de signe et d’une fonction de n et de s. Une histoire à suivre…

Références
:
[BS] F. Bihan et F. Sottile, New fewnomial upper bounds from Gale dual polynomial systems, 2007, Moscow Mathematical Journal, Volume 7, Number 3, pages 387-407.
[BD] F. Bihan et A. Dickenstein, Descartes’ rule of signs for polynomial systems supported on circuits, 25 pages, à paraitre dans International Mathematics Research Notices, 2017 (disponible en ligne).
[K ] A. G. Khovanskii, Fewnomials, Translations of Mathematical Monographs, vol. 88, American Mathematical Society, Providence, RI, 1991.
[S] D. J. Struik (ed.), A source book in mathematics, 1200-1800, Source Books in the History of the Sciences. Cambridge, Mass. : Harvard University Press, XIV, 427 p., 1969.

Illustration
: Portrait de René Descartes (1596-1650) par Frans Hals, musée du Louvre, photo d’André Hatala, 1997.

Contact
: Frédéric Bihan | Laboratoire de Mathématiques | Université Savoie Mont Blanc & CNRS.

 

   DOCUMENT         CNRS         LIEN

 
 
 
 

PI

 




 

 

Pi


Ne doit pas être confondu avec la lettre « π ».   

Cette page contient des caractères spéciaux ou non latins. Si certains caractères de cet article s’affichent mal (carrés vides, points d’interrogation, etc.), consultez la page d’aide Unicode.


Si le diamètre du cercle est 1, sa circonférence est π.
π (pi), appelé parfois constante d’Archimèdea, est un nombre représenté par la lettre grecque du même nom en minuscule (π). C’est le rapport constant de la circonférence d’un cercle à son diamètre dans un plan euclidien. On peut également le définir comme le rapport de l'aire d'un disque au carré de son rayon.
Sa valeur approchée par défaut à moins de 0,5×10–15 prèsb est 3,141592653589793 en écriture décimale1,2.
De nombreuses formules de physique, d’ingénierie et bien sûr de mathématiques, impliquent π, qui est une des constantes les plus importantes des mathématiques3.
Le nombre π est irrationnel, c’est-à-dire qu’on ne peut pas l’exprimer comme un rapport de deux nombres entiers ; ceci entraîne que son écriture décimale n’est ni finie, ni périodique. C’est même un nombre transcendant, ce qui signifie qu’il n’existe pas de polynôme non nul à coefficients entiers dont π soit une racinec.
La détermination d’une valeur approchée suffisamment précise de π, et la compréhension de sa nature sont des enjeux qui ont traversé l’histoire des mathématiques ; la fascination exercée par ce nombre l’a même fait entrer dans la culture populaire.
L’usage de la lettre grecque π, première lettre de περίμετρος (« périmètre » en grec ancien), n’est apparu qu’au xviiie siècle à l'initiative du mathématicien William Jones (et ensuite adopté et popularisé par Euler). Auparavant, sa valeur était désignée par diverses périphrases comme la « constante du cercle » ou son équivalent dans diverses langues.

Définition et premières propriétés[modifier | modifier le code]

Définition[modifier | modifier le code]


On déduit d’une propriété analogue pour les polygones réguliers que l’aire d’un disque égale son demi-périmètre multiplié par son rayon.
Dans les dictionnaires et ouvrages généralistes4, π est défini comme le rapport, constant dans le plan usuel qu'est le plan euclidien, entre la circonférence d’un cercle et son diamètre. Ce rapport ne dépend pas du cercle choisi, en particulier de sa taille. En effet, tous les cercles sont semblables et pour passer d’un cercle à un autre il suffit de connaître le rapport de la similitude. Par suite, pour tout réel positif k, si un cercle possède un rayon r (ou un diamètre d = 2r) k fois plus grand qu’un autre, alors son périmètre P sera aussi k fois plus grand, ce qui prouve la constance du rapport.


Par ailleurs, cette même similitude multipliera l’aire A par le carré de k, ce qui prouve maintenant que le rapport A/r2 est constant. On peut montrer, par exemple par la méthode des indivisibles, que cette constante vaut également π.


Le dessin ci-contre illustre une autre méthode5, essentiellement due à Archimède (voir infra) : le périmètre du polygone vaut à peu près 2πr alors qu’en redistribuant les triangles formés on remarque que son aire vaut à peu près πr2. Pour formaliser le « à peu près », il faudrait faire tendre le nombre de côtés du polygone vers l’infini, ce qui illustre déjà la nature « analytique » de π.

Autres définitions[modifier | modifier le code]
La définition géométrique ci-dessus, historiquement la première et très intuitive, n'est pas la plus directe pour définir π mathématiquement en toute rigueur. Les ouvrages plus spécialisés, par exemple6 définissent π par l'analyse réelle, parfois à l'aide des fonctions trigonométriques, mais introduites sans référence à la géométrie :
* Un choix fréquent est de définir π comme le double du plus petit nombre positif x tel que cos(x) = 0, où cos peut être définie comme la partie réelle de l’exponentielle complexe7,8, ou comme la solution d'un problème de Cauchy.
* Une autre définition est envisageable en considérant les propriétés algébriques de la fonction exponentielle complexe qui découlent de sa définition par une série entière et qui font que l’application t ↦ exp(it) est un morphisme de groupes continu et surjectif de (ℝ, +) vers le groupe (𝕌, ×) des complexes de module 1. On démontre alors que l’ensemble des nombres réels t tels que exp(it) = 1 est de la forme aℤ où a est un réel strictement positif9. On pose alors π = a/2. Le calcul intégral permet ensuite de vérifier que cette définition abstraite correspond bien à celle de la géométrie euclidienne.
* Le groupe Bourbaki propose une autre définition très voisine en démontrant10 l’existence d’un morphisme de groupes topologiques f de (ℝ, +) vers (𝕌, ×), périodique de période 1, tel que f(1/4) = i. Il démontre11 que f est dérivable et que sa dérivée en 0 est de la forme αi pour un certain réel α > 0, qu'il note 2π.
Les deux méthodes précédentes consistent en réalité à calculer le périmètre du cercle, qu’on a défini par la fonction t ↦ exp(it), ou la fonction t ↦ exp(2iπt).
* Mais on peut aussi définir π grâce au calcul intégral en posant12

ce qui revient (par résolution de l'équation différentielle x' = –√1 – x2) à la définition ci-dessus de π/2 comme le premier zéro de cos.
    * On retrouve également cette intégrale quand on cherche à calculer la longueur du quart de cercle de rayon 1 paramétré par x


 


  
  Pour  lire  la  suite, consulter  le  LIEN

 

  DOCUMENT      wikipédia    LIEN 
 

 
 
 
 

MUSIQUE ET MATHÉMATIQUES

 

MUSIQUE  ET  MATHÉMATIQUES

 

 ( Faculté  des  Sciences  de  Luminy)

 

                                                    LIEN

 

   

 
 
 
 

Quand les algorithmes font parler l'ADN

 

 

 

 

 

 

 

Quand les algorithmes font parler l'ADN

Jean-Philippe Vert, École normale supérieure, Mines ParisTech et Institut Curie, Paris dans mensuel 529
daté novembre 2017 - 2026 mots

« Cracker » le code de notre génome, comprendre les facteurs externes qui régulent l'expression des gènes, déterminer les mécanismes responsables du développement de maladies génétiques : ce travail délicat et laborieux pourrait bientôt s'automatiser, grâce à de nouvelles techniques d'intelligence artificielle. De quoi faire entrer la génomique dans une nouvelle ère.

Imaginez un texte de 6 milliards de lettres, soit 600 fois plus que le nombre de caractères d' À la recherche du temps perdu, de Marcel Proust. Supposez maintenant que ce texte utilise un alphabet de quatre lettres (A, T, C, G) au lieu des 26 de notre alphabet latin. Ce texte, a priori indéchiffrable, c'est notre génome. Propre à chaque individu, ce dernier encode un message essentiel au bon fonctionnement de nos cellules. Certaines séquences de ce code peuvent aussi être délétères et provoquer l'apparition de maladies. La compréhension de ce texte constitue donc un Graal pour la biologie, et en particulier pour la génomique, discipline visant à comprendre la structure, la fonction, et l'évolution des génomes. Il aura fallu un demi-siècle de découvertes scientifiques et de prouesses technologiques pour réaliser le premier séquençage du génome humain, au début des années 2000. Cette entreprise, qualifiée parfois de « projet Apollo de la biologie », a ouvert la voie à l'analyse de ce texte immense.

Depuis, la technologie a progressé à une allure fulgurante, si bien que le séquençage d'un ADN humain (ou non humain) est presque devenu une opération de routine, réalisable en quelques heures pour un coût raisonnable. En parallèle, d'autres types de technologies ont été développés. D'une part, pour analyser l'épigénome, c'est-à-dire l'ensemble des modifications moléculaires qui agissent sur le fonctionnement de l'ADN sans en altérer le code. D'autre part, pour étudier le transcriptome, à savoir l'ensemble des petites molécules (ARN) produites à suite de la transcription du génome et qui jouent un rôle crucial dans la production de protéines et le fonctionnement de la cellule. Mises en commun, toutes ces données forment ce que l'on appelle un portrait moléculaire.
Comment l'analyser, donner du sens aux grandes quantités de données produites par ces technologies dites à haut débit ? Grâce à des techniques d'intelligence artificielle ! Et en particulier des algorithmes d'apprentissage statistique. Ces derniers « apprennent » et s'améliorent grâce à l'afflux de données. Ils parviennent ainsi à résoudre des tâches complexes, comme l'annotation des données génomiques. Ce travail délicat consiste à repérer des éléments fonctionnels dans le génome : des gènes ou des séquences régulatrices de ces gènes qui remplissent une certaine fonction biologique.

Imaginez ouvrir l'un des chapitres du génome humain : une longue suite de lettres A, T, C, G, sans structure manifeste, apparaît devant vous. Comment décrypter ce langage et comprendre le message codé dans le texte ? Comment identifier les régions codant les gènes et leurs structures fines, repérer les positions de l'ADN sur lesquelles se fixent les protéines qui réguleront l'expression de ces gènes ? En suivant la démarche du biologiste, vous commenceriez sans doute par chercher des répétitions, des régularités à différentes échelles pour, peu à peu, identifier des structures cachées, inférer une sorte de grammaire.

Comparer les génomes
La force des algorithmes d'apprentissage statistique est de reproduire cette démarche de façon à traiter automatiquement les 6 milliards de lettres du génome. Une classe d'algorithmes appelés modèles graphiques est particulièrement efficace pour cela. Ils permettent en effet aux chercheurs d'inclure leurs connaissances dans une modélisation probabiliste des données, puis d'inférer des informations pertinentes en laissant l'algorithme optimiser par lui-même les paramètres du modèle sur les données réelles. Dans le cas de l'annotation de l'ADN, on utilise des modèles graphiques particuliers, baptisés chaînes de Markov cachées. Ces dernières permettent d'inférer automatiquement l'annotation du génome à partir de régularités découvertes par le modèle dans la séquence d'ADN. Ces modèles rentrent dans la catégorie des méthodes d'apprentissage dites non supervisées, car elles apprennent à annoter le génome sans qu'on leur fournisse d'informations explicites sur certaines parties du génome dont l'annotation est déjà connue. Ces modèles graphiques offrent une grande flexibilité et s'adaptent à différentes situations. Par exemple, une autre application de ces méthodes consiste à extraire des informations épigénétiques, c'est-à-dire relatives à des modifications moléculaires autour de l'ADN. C'est ce qui a été fait dans le cadre du projet international Encode en 2012, visant à établir une annotation précise des parties fonctionnelles du génome humain à partir de portraits moléculaires mesurés dans différents types cellulaires.
Toutefois, le meilleur moyen de faire parler l'ADN est de comparer les génomes. En filant la métaphore littéraire, l'analyse d'un livre suffisamment long peut permettre de décrypter en partie les secrets d'un langage, en s'appuyant sur les répétitions de mots ou de structures grammaticales au sein du texte. Mais ce n'est qu'en comparant plusieurs livres que l'on peut voir émerger du sens. En effet, c'est en regroupant les mots par sujet lorsqu'ils apparaissent fréquemment ensemble que l'on voit apparaître des similarités entre certains livres en fonction de leur contenu ou de leur auteur. De la même manière, la génomique dite comparative, qui analyse les génomes en les comparant, est l'une des approches les plus puissantes pour acquérir de la connaissance à partir de données génomiques.

Traitement personnalisé
Historiquement, la génomique comparative s'est d'abord intéressée à la comparaison d'espèces, ce qui a permis de reconstruire l'arbre de la vie proposé par Darwin et d'identifier les gènes dont les fonctions sont spécifiquement associées à une famille d'espèces. Les modèles graphiques utilisés pour identifier la structure d'un génome unique peuvent d'ailleurs être étendus au traitement simultané de plusieurs génomes. Plutôt que de comparer les génomes entre plusieurs espèces, comme l'homme et la souris, on peut aussi comparer des portraits moléculaires de différents individus au sein d'une même espèce. Par cette approche, on peut établir des corrélations entre des variations observées dans un portrait moléculaire et des propriétés comme le rendement d'une plante ou le risque de développer une maladie.

Ce réseau représente les interaction (flèches) entre des protéines dans une cellule humaine. Il a été déduit de l'analyse des ARN messagers par un algorithme d'apprentissage. Cette approche pourrait permettre d'identifier de nouvelles cibles thérapeutiques pour certaines maladies. © Jean-Philippe Vert
Pour ce faire, la génomique comparative s'appuie essentiellement sur des modèles statistiques et des algorithmes d'apprentissage non supervisés. Le but ? Capturer les similarités et les variations entre données génomiques. Des techniques de réduction de dimension ou de classification non supervisées permettent, par exemple, d'identifier des sous-groupes homogènes au sein d'une population hétérogène. Ces techniques se sont invitées dans la recherche contre le cancer dès le début des années 2000, lorsqu'il a été possible d'analyser des transcriptomes complets de plusieurs centaines de tumeurs. Elles ont permis de réaliser des comparaisons qui ont révélé la grande hétérogénéité moléculaire de certains types de tumeurs. Les cancers du sein ont ainsi été divisés en cinq grandes classes en fonction de leur profil moléculaire. Selon ces classes, le pronostic et le traitement pressentis sont différents.
Aujourd'hui, cette classification va encore plus loin. En effet, nous sommes capables de séquencer des échantillons différents au sein d'une même tumeur, voire de séquencer des cellules uniques. Cela permet de mettre en lumière l'hétérogénéité moléculaire au sein même de la tumeur d'un patient. Grâce à des outils d'apprentissage non supervisés, comme des modèles graphiques ou des techniques de factorisation de matrice, on reconstruit ainsi l'histoire moléculaire de la tumeur à partir de ces données, et on identifie automatiquement les processus impliqués dans son apparition et sa progression. On peut par exemple déterminer si un cancer est apparu à la suite d'une exposition au soleil ou au tabac, en analysant des mutations observées dans l'ADN d'une tumeur. De façon étonnante, les techniques de factorisation de matrices utilisées pour réaliser ce genre d'expertise sont similaires à celles qui sont utilisées par les plateformes de vidéos à la demande comme Netflix pour personnaliser leurs recommandations. En génomique, ces informations précieuses peuvent aider les médecins à mieux caractériser la maladie pour un patient donné, et donc de lui apporter un traitement personnalisé. Outre ces informations d'ordre médical, certains algorithmes d'apprentissage statistique permettent d'inférer des connaissances plus fondamentales.
Comme toute science, la biologie accumule des connaissances en confrontant des hypothèses avec des observations. Historiquement, les hypothèses étaient formulées par les scientifiques à partir de leur intuition, et des expériences étaient réalisées pour les valider ou les invalider. La génomique, en produisant de grandes quantités de données, a quelque peu inversé ce paradigme de recherche : il est maintenant courant de commencer par générer beaucoup de données, par exemple de séquencer des centaines de génomes, puis de les analyser par des méthodes automatiques fondées sur les statistiques et l'intelligence artificielle. On fait ainsi émerger des hypothèses à partir des données.

Gènes exprimés ou non
Bien sûr, ces hypothèses doivent ensuite être validées grâce à d'autres expériences ciblées. Prenons l'exemple de la régulation de l'expression des gènes. Depuis les travaux de François Jacob, Jacques Monod et André Lwoff, qui leur valurent le prix Nobel de médecine en 1965, nous savons que chacun des 20 000 gènes codés dans notre ADN peut être exprimé ou pas - c'est-à-dire copié sous forme d'ARN messager afin de produire une protéine - en fonction de la présence ou non d'autres protéines, appelées facteurs de transcription. Ces derniers, en se fixant sur le brin d'ADN, commandent l'expression du gène cible. Mais comment identifier, pour chaque gène cible, les facteurs de transcription qui le régulent et l'ensemble des facteurs qui influent sur l'expression des gènes ? Une solution consiste à collecter des données de transcriptomes de plusieurs centaines d'échantillons soumis à diverses conditions expérimentales, et à les comparer. Si l'on observe qu'un gène cible A est systématiquement exprimé dans les conditions expérimentales où un facteur de transcription B est également exprimé, on peut supposer que le facteur B régule A. Mais lorsque l'on a plusieurs gènes cibles et plusieurs facteurs de transcription à considérer en même temps, la situation est plus compliquée. Et c'est là que les algorithmes se révèlent très utiles.
Risque de récidive

Les réseaux bayésiens, en particulier, offrent un cadre statistique rigoureux pour inférer des interactions entre plusieurs gènes et préciser les rapports qu'entretient tel gène avec tel facteur de transcription. Les réseaux bayésiens sont des modèles graphiques particuliers qui combinent théorie des graphes (*) et statistique pour inférer des relations de causalité, comme le fait que l'expression d'un gène est régulée par un autre gène.
Depuis quelques années, d'autres méthodes fondées sur les forêts aléatoires ou la régression lasso, deux techniques populaires d'apprentissage statistique, ont aussi démontré leur intérêt pour cette tâche : elles ont obtenu les meilleures performances lors d'une compétition internationale visant à reconstruire aussi précisément que possible le réseau de régulation d'organismes bactériens et de levure. Cela ouvre la voie à de nombreuses applications en biotechnologie et en médecine comme l'identification de nouvelles cibles thérapeutiques.
Outre la compréhension de ces interactions, l'intelligence artificielle excelle dans l'art de la prédiction. Prédire le rendement d'une plante à partir de son ADN ; évaluer le risque de récidive d'un cancer, et adapter le traitement en conséquence à partir de l'expression des gènes et des mutations dans l'ADN d'une biopsie ; prédire l'efficacité d'un traitement à partir du portrait moléculaire d'un cancer...

Ces multiples tâches prédictives sont aujourd'hui essentiellement remplies par des méthodes d'apprentissage statistique supervisé. Si l'on prend l'exemple de l'évaluation des risques de récidive d'un cancer, cette approche consiste à collecter des portraits moléculaires de la tumeur sur des groupes de patients au moment du diagnostic initial, puis de suivre ces patients pendant plusieurs années. On associe un label « récidive » aux portraits moléculaires des patients victimes d'un nouveau cancer avant cinq ans, et un label « non-récidive » aux autres. Puis, à partir de ces données dites « étiquetées », on entraîne un algorithme d'apprentissage à prédire la catégorie de la tumeur (récidive et non récidive) en fonction du portrait moléculaire réalisé au moment du premier diagnostic. Dans la pratique, on combine ces données génomiques avec d'autres informations dont on dispose sur la maladie, comme la taille de la tumeur ou l'âge du patient, qui peuvent influencer le risque de récidive. Cette tâche de classification supervisée se caractérise souvent par le fait qu'on dispose pour chaque patient d'un grand nombre de données moléculaires (le niveau d'expression de 20 000 gènes, les mutations à des millions de positions dans l'ADN, etc.). En revanche, le nombre de patients inclus dans de telles expériences est souvent limité à quelques centaines.

Ce déséquilibre entre le nombre ahurissant de données par individu et celui plus modeste d'individus, est une limite problématique pour l'efficacité des algorithmes d'apprentissage. Pour pallier ce que les statisticiens appellent « la malédiction des grandes dimensions », des projets visent à collecter des données sur de grandes cohortes d'individus. En parallèle, la recherche en mathématique et en informatique pour améliorer les techniques d'apprentissage statistique en grande dimension est en pleine ébullition !
Photo : Sur cette image, chaque ligne correspond à une tumeur du sein. Chaque colonne représente un gène plus ou moins exprimé dans cette tumeur : en vert, il l'est beaucoup ; en rouge, peu. Des algorithmes de classification non supervisée font apparaître des groupes de tumeurs aux caractéristiques génétiques proches et les classent en cinq catégories, ce qui aide les médecins à choisir un traitement adapté. © Jean-Philippe Vert

BIO-INFORMATICIEN Jean-Philippe Vert est professeur au département de mathématiques et applications de l'École normale supérieure, directeur de recherche à Mines ParisTech où il dirige le centre de bio-informatique, et chef d'une équipe travaillant sur la modélisation du cancer à l'Institut Curie.
(*) La théorie des graphes est une discipline visant à étudier des modèles abstraits de réseaux constitués de noeuds reliés entre eux par des liens. L'étude des interactions entre les gènes peut être formalisée comme un problème de graphe.

CONTEXTE
En 1953, Rosalind Franklin, Francis Crick, James Watson et Maurice Wilkins découvrent la structure en double hélice de l'ADN, support de l'information génétique. Certains gènes ont pu être caractérisés, mais une grande partie de notre code génétique n'a pas pu être déchiffrée. L'explosion de la puissance de calcul des ordinateurs, le séquençage de l'ADN à haut débit et l'amélioration des techniques d'intelligence artificielle changent la donne.
UN GRAND PROJET FRANÇAIS DE DÉCRYPTAGE DU GÉNOME

À l'instar des États-Unis, du Royaume-Uni ou de la Chine, la France a lancé en 2016 le projet France médecine génomique 2025, ambitieux programme visant à développer l'utilisation de la génomique dans les parcours de soins. Pour cela, des plateformes de séquençage seront créées sur le territoire pour, d'ici à 2020, être en mesure de séquencer 235 000 génomes par an.
Les énormes quantités de données récoltées seront traitées dans des centres de calculs et permettront d'améliorer la connaissance des maladies traitées, en particulier les maladies rares et les cancers. Cette approche aidera à personnaliser la prise en charge des patients.

DRESSER LE PORTRAIT DES CANCERS
L'union fait la force. Le dicton sonne particulièrement vrai pour l'International Cancer Genome Consortium, réunissant 88 équipes de recherche à travers le monde. L'objectif de cette organisation ? Étudier en profondeur le génome de 25 000 tumeurs et l'ensemble des facteurs qui régulent l'expression de leurs gènes. Tous ces portraits moléculaires de cancers, obtenus entre autres grâce aux techniques d'intelligence artificielle, permettront de mieux comprendre les mécanismes par lesquels les différentes catégories de tumeurs se développent. Et donc de mieux les soigner à l'avenir.

 

  DOCUMENT      larecherche        LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google