ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

ROBOTS : COMMENT S'ORIENTER

 

S'orienter dans un monde inconnu


spécial robots - par Simon Lacroix, Raja Chatila dans mensuel n°350 daté février 2002 à la page 48 (2329 mots)
Passer d'une pièce à l'autre semble élémentaire. Mais, pour un robot autonome, la tâche est plus ardue qu'il n'y paraît : il doit tout d'abord savoir où il se trouve, puis s'assurer qu'il pourra passer la porte et qu'il ne rencontrera pas une chaise sur son chemin. Et encore doit-il être en mesure de définir ce qu'est une porte ou une chaise.

Qu'il soit conçu pour explorer une planète inconnue, distribuer le courrier dans des bureaux ou passer l'aspirateur dans le salon, un robot autonome est confronté au même problème : il doit, sans compter sur notre assistance, faire face à un environnement dont il ne connaît pratiquement rien. Le robot est dans la situation d'un explorateur face à une contrée inconnue : afin d'accomplir sa mission se déplacer, saisir un objet, etc., il doit décider de stratégies de navigation, planifier ses trajectoires et passer à l'acte. A cette fin, il doit être capable de remplir deux fonctions essentielles : cartographier son environnement et s'y localiser. Pour la cartographie, il doit percevoir le lieu où il se trouve, et en construire une représentation qui soit intelligible pour lui. Pour la localisation, ainsi que pour contrôler les trajectoires qu'il emprunte, il doit connaître en permanence sa position.

Bien entendu, si le robot dispose d'une carte, sa situation ressemble davantage à celle d'un piéton muni d'un plan de la ville dans laquelle il se dirige. On pourrait alors penser qu'il n'a pas à modéliser son environnement et qu'il lui suffit de se localiser. Mais encore faut-il qu'il mette en relation ce qu'il perçoit et son plan : le problème de la modélisation reste entier. En outre, la carte dont il dispose n'est pas forcément précise, complète ou à jour, et il lui faut donc l'amender. Modélisation de l'environnement et localisation sont intimement liées : s'il est nécessaire de représenter des éléments d'un lieu pour s'y localiser, il est aussi indispensable de se localiser pour représenter cet endroit.

De même que l'Homme se fie à ses cinq sens, un robot autonome exploite les données fournies par ses capteurs1. Les capteurs proprioceptifs * accéléromètres, compas, gyromètres et odomètres* par exemple le renseignent sur ses mouvements ; les capteurs extéroceptifs* , l'informent sur son environnement. Ces derniers se regroupent en deux catégories : les télémètres* , qui fournissent au robot des indications sur la distance des objets qui l'entourent et, bien sûr, les caméras, qui lui permettent d'en appréhender l'aspect visuel lire l'article de Thierry Viéville et d'Olivier Faugeras, p. 42.

De même que nous pouvons être trompés par nos sens, les robots sont confrontés à l'imprécision des données enregistrées par leurs capteurs : tout processus physique de mesure comporte une part d'imprécision et peut conduire à des informations erronées au point de ne correspondre à aucune réalité. Enfin, de même que nous ne pouvons percevoir la totalité de notre environnement, les robots traitent des données incomplètes ou partielles, et doivent pouvoir prendre en compte des éléments éventuellement occultés.

Modéliser l'environnement. Trois types d'informations renseignent un robot sur son environnement : des informations géométriques la forme des lieux et des objets ; topologiques les relations spatiales entre différents lieux et objets ; et sémantiques la nature - le sens, la fonction - des lieux et objets. Planifier une trajectoire dans une pièce impose uniquement de déterminer l'espace accessible à partir de la position occupée : une information exclusivement géométrique est suffisante. En revanche, pour déterminer des stratégies de déplacement, une connaissance plus abstraite de l'environnement devient indispensable : le robot doit expliciter la topologie des lieux. Il pourra éventuellement y inclure des informations sémantiques pour, par exemple, planifier une séquence de déplacements décrits à la manière d'un itinéraire « emprunter le couloir A, pénétrer dans la pièce B par la porte C... ».

Comment un robot procède-t-il pour modéliser son environnement ? L'approche classique, développée dès le début des années 1980, repose sur une analyse géométrique. Prenons l'exemple simple, en deux dimensions, d'un robot qui, avant de se déplacer, acquiert des données télémétriques dans un appartement fig. 2. La modélisation consiste à représenter les données par des formes géométriques analytiques segments de droites, faces planes, volumes, définis par leurs équations que l'on appelle les primitives . Cette approche relève d'un processus de structuration des informations dont l'abstraction est faible : on passe simplement de données géométriques « brutes » à des données plus structurées. Il s'agit cependant d'une opération délicate car les mesures fournies par les capteurs sont imprécises et les primitives héritent de ces imprécisions2. Il devient donc crucial pour les algorithmes qui vont exploiter le modèle d'estimer ces imprécisions que l'on peut déduire de modèles de fonctionnement des capteurs : le logiciel qui planifie les trajectoires ne devra donner l'ordre au robot de passer entre deux segments que s'il est certain que la distance qui les sépare permet effectivement le passage ! L'évaluation des imprécisions est également nécessaire d'une part pour analyser le modèle, et d'autre part pour le compléter avec de nouvelles données au cours des déplacements. De récents progrès en matière de capteurs, de calculateurs et d'algorithmes ont permis d'adopter ce type de démarches pour construire des représentations tridimensionnelles de l'environnement3 fig. 1.

Représentations sémantiques. Une fois son modèle géométrique construit, le robot peut en extraire facilement des informations topologiques. Par exemple, si l'environnement est défini à l'aide de polygones, il suffit au robot de construire un graphe avec la définition des régions connexes, à partir duquel il pourra déterminer des chemins. Le robot connaît ainsi l'espace qui lui est accessible et peut générer des trajectoires et des chemins. Il n'en reste pas moins incapable de planifier des itinéraires ou d'interpréter ses missions. Pour cela, il a encore besoin de quelques notions sémantiques. Et les capteurs ne sont alors d'aucune aide directe : le robot doit interpréter ces notions en analysant les formes préalablement modélisées. On peut ainsi lui apprendre que deux segments parallèles et distants d'un mètre définissent une porte. Le processus relève cette fois de l'abstraction et de l'interprétation. Les informations numériques deviennent symboliques, tandis que les imprécisions sur les paramètres des segments sont traduites en une incertitude sur la nature de l'objet ici, la porte.

La construction de représentations sémantiques repose sur le succès de la modélisation géométrique. Aussi, les informations perçues à partir d'une seule position peuvent se révéler insuffisantes incomplètes, même pour reconnaître un objet tel qu'une porte. Afin d'affiner sa connaissance des lieux, le robot devra donc acquérir des données supplémentaires à partir d'autres positions qu'il aura lui-même à déterminer. Ce n'est que depuis le début des années 1990 que les chercheurs en robotique ont ainsi envisagé la modélisation comme un processus actif 4 , dont la portée dépasse l'interprétation d'une accumulation progressive de données : le robot doit décider des données à acquérir, et va pour cela planifier ses déplacements.

Affiner les représentations. Reste que la définition d'une porte de façon exclusivement géométrique est une approche très pauvre - notamment lorsque la modélisation est faite en deux dimensions : deux meubles parallèles et distants d'un mètre peuvent être interprétés comme une porte, tandis que les portes fermées ne seront pas détectées. Comment affiner les interprétations ? Outre la prise en compte de la troisième dimension, on peut inclure dans le modèle des caractéristiques telles qu'une poignée. Une démarche qui imposera l'intégration de nouveaux capteurs afin de prendre en considération dans un même modèle des attributs de natures diverses : géométrie, couleur, etc. On parle alors de fusion multisensorielle.

Mais, si multiplier les capteurs permet d'affiner l'interprétation, cela ne permet pas de s'affranchir des limites d'une approche qui ne définit la sémantique des éléments de l'environnement que par rapport à ce que le robot peut percevoir. En effet, suivant une telle approche, le concepteur est obligé de fournir au robot une description détaillée de la totalité des objets qu'il est susceptible de rencontrer. Or, décrire une chaise comme « un plateau horizontal posé sur quatre pieds, auquel est attaché un plateau vertical » ne permettra au robot d'identifier que les chaises de ce type, et non les milliers de modèles de chaises que nous utilisons couramment. Par contre, si l'on décide de définir une chaise conceptuellement, par sa fonction, comme « un objet sur lequel un bipède peut s'asseoir en faisant reposer son dos » , le robot est en passe de reconnaître une infinité d'objets qui lui sont inconnus. Les chercheurs en robotique commencent seulement à exploiter cette voie plus complexe : la « porte » devient une « frontière franchissable entre deux lieux », et un « lieu » une « zone dans laquelle le robot peut évoluer aisément » . Nous sommes ici confrontés à la problématique bien connue du lien très fort entre la perception du monde et l'action ou la capacité d'action dans ce monde.

Quelles qu'elles soient, les modélisations qui reposent exclusivement sur la géométrie de l'environnement - que l'on peut qualifier de « reconstruction- nistes » - se heurtent rapidement à un obstacle que nous n'avons pas évoqué jusqu'à présent : les limites des calculateurs peu adaptés au calcul géométrique. Les chercheurs n'ont jamais abandonné, depuis les débuts de la robotique, la quête de méthodes moins gourmandes en calcul. Ainsi, un moyen aujourd'hui devenu courant de représenter l'espace accessible est de décrire l'environnement par un ensemble de petites cellules analogues aux pavés d'un carrelage5. Pour chacune d'entre elles, on détermine la probabilité qu'elle corresponde à un obstacle fig. 2. L'intérêt d'une telle représentation est qu'elle explicite la notion « obstacle » directement à partir des mesures et non de constructions intermédiaires. Autre avantage : les relations de voisinage entre les cellules contiennent des informations topologiques, et il est possible de « regrouper » les cellules similaires pour réduire la quantité d'informations à stocker.

Aisé à construire et à manipuler, ce type de représentations donne par ailleurs au robot une estimation précise de la quantité d'informations dont il dispose sur une zone donnée. Il pourra ainsi affiner ses stratégies d'exploration et s'orienter de façon à percevoir les cellules pour lesquelles l'incertitude reste grande. La sémantique de ce type de représentations est cependant restreinte à la notion d'obstacle : une porte demeure toujours aussi difficile à discerner. Une piste aujourd'hui explorée pour extraire des informations sémantiques est la conception de méthodes qui, sans structurer les données en primitives, en comparent certains attributs à des exemples préalablement appris. Elles permettront à terme de reconnaître les lieux ou les objets par la vision.

Lorsqu'il se déplace, le robot accumule les informations. A chaque « pas », il doit affiner la représentation globale de l'environnement qu'il se crée à partir de représentations locales. Outre les imprécisions sur les données brutes et les primitives, et les incertitudes sur les notions sémantiques avec lesquelles il devait composer en observant à partir d'un point donné, le robot doit désormais prendre en compte les incertitudes liées à son déplacement et à sa nouvelle position.

Pour cela, il exploite cette fois les informations que lui fournissent ses capteurs proprioceptifs. Il peut également analyser, par exemple, le mouvement des éléments des images que lui transmettent ses caméras lire l'article de Thierry Viéville et d'Olivier Faugeras, p. 42. Ces capteurs permettent au robot de naviguer « à l'estime », à la manière d'un marin qui mesure ses déplacements à partir de son cap et de sa vitesse, mais sans se référer à son environnement. Inconvénient majeur : la position ne s'obtient que par intégration des déplacements élémentaires, avec pour conséquence d'accroître l'erreur sur l'estimation. On dit que la méthode « dérive ». C'est par une seconde analogie avec la navigation maritime, les amers * , que les chercheurs ont désigné les éléments de l'environnement qui permettront à des algorithmes de corriger cette dérive6 fig. 3. Les algorithmes, dits de cartographie et localisation simultanées, qui permettent ce « recalage » raisonnent explicitement sur les imprécisions des capteurs et font appel à des théories de l'estimation* fig. 4. Ils nécessitent la construction et la mise à jour d'une description des amers de l'environnement7.

Mettre en relation les amers mémorisés et perçus exige un raisonnement probabiliste qui peut se révéler complexe. En effet, si, entre deux positions proches occupées par le robot, la seule connaissance de la position des amers peut permettre de les associer, en revanche, à l'issue d'un long déplacement, l'imprécision sur la position du robot peut devenir telle que cette association devient impossible. La seule solution est alors, en plus de la position, de définir les amers avec d'autres attributs identifiables par les techniques de reconnaissance d'objets ou par les relations topologiques entre les amers. Intégrer et gérer de très nombreux amers peut alors nécessiter des calculs lourds, sans pour autant offrir l'assurance d'aboutir à un modèle spatialement cohérent...

Multiplier les approches. Récemment, des méthodes de localisation plus robustes, ne reposant plus uniquement sur des considérations géométriques ont été proposées. Citons les techniques de reconnaissance d'images panoramiques, qui permettent d'identifier des lieux préalablement traversés8. D'autres approches exploitent la représentation topologique de l'environnement pour se localiser à long terme : on ne cherche plus à estimer précisément la position d'amers, mais on identifie un lieu qualitativement, en vérifiant que les relations spatiales entre les objets correspondent à un endroit déjà modélisé.

Enfin, une façon de garantir la cohérence spatiale des représentations et la qualité de la position estimée est d'exploiter une carte initialement fournie au robot. Les cartes sont le plus souvent conçues avec d'autres outils que ceux dont dispose le robot : images satellites, plan d'architecte, etc. Pour mettre en relation les éléments de la carte et ce qu'il perçoit, le robot doit construire une nouvelle carte qui intègre des informations géométriques, topologiques et sémantiques compatibles avec les informations dont il dispose.

Existe-t-il une solution idéale parmi toutes les approches que nous avons brièvement présentées ? Toutes ont leurs limites et leurs imperfections et, après une vingtaine d'années de recherches sur la cartographie et la localisation, il semble clair maintenant que seule la multiplicité des approches permet de concevoir un robot au fonctionnement cohérent et robuste.

Par ailleurs, ces travaux ne peuvent être considérés en dehors des autres tâches effectuées par le robot : la cartographie et la localisation sont des processus actifs qui vont influencer l'ensemble de ses décisions.

Par Simon Lacroix, Raja Chatila

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

ROBOTS : COMMENT S'ORIENTER

 

S'orienter dans un monde inconnu


spécial robots - par Simon Lacroix, Raja Chatila dans mensuel n°350 daté février 2002 à la page 48 (2329 mots)
Passer d'une pièce à l'autre semble élémentaire. Mais, pour un robot autonome, la tâche est plus ardue qu'il n'y paraît : il doit tout d'abord savoir où il se trouve, puis s'assurer qu'il pourra passer la porte et qu'il ne rencontrera pas une chaise sur son chemin. Et encore doit-il être en mesure de définir ce qu'est une porte ou une chaise.

Qu'il soit conçu pour explorer une planète inconnue, distribuer le courrier dans des bureaux ou passer l'aspirateur dans le salon, un robot autonome est confronté au même problème : il doit, sans compter sur notre assistance, faire face à un environnement dont il ne connaît pratiquement rien. Le robot est dans la situation d'un explorateur face à une contrée inconnue : afin d'accomplir sa mission se déplacer, saisir un objet, etc., il doit décider de stratégies de navigation, planifier ses trajectoires et passer à l'acte. A cette fin, il doit être capable de remplir deux fonctions essentielles : cartographier son environnement et s'y localiser. Pour la cartographie, il doit percevoir le lieu où il se trouve, et en construire une représentation qui soit intelligible pour lui. Pour la localisation, ainsi que pour contrôler les trajectoires qu'il emprunte, il doit connaître en permanence sa position.

Bien entendu, si le robot dispose d'une carte, sa situation ressemble davantage à celle d'un piéton muni d'un plan de la ville dans laquelle il se dirige. On pourrait alors penser qu'il n'a pas à modéliser son environnement et qu'il lui suffit de se localiser. Mais encore faut-il qu'il mette en relation ce qu'il perçoit et son plan : le problème de la modélisation reste entier. En outre, la carte dont il dispose n'est pas forcément précise, complète ou à jour, et il lui faut donc l'amender. Modélisation de l'environnement et localisation sont intimement liées : s'il est nécessaire de représenter des éléments d'un lieu pour s'y localiser, il est aussi indispensable de se localiser pour représenter cet endroit.

De même que l'Homme se fie à ses cinq sens, un robot autonome exploite les données fournies par ses capteurs1. Les capteurs proprioceptifs * accéléromètres, compas, gyromètres et odomètres* par exemple le renseignent sur ses mouvements ; les capteurs extéroceptifs* , l'informent sur son environnement. Ces derniers se regroupent en deux catégories : les télémètres* , qui fournissent au robot des indications sur la distance des objets qui l'entourent et, bien sûr, les caméras, qui lui permettent d'en appréhender l'aspect visuel lire l'article de Thierry Viéville et d'Olivier Faugeras, p. 42.

De même que nous pouvons être trompés par nos sens, les robots sont confrontés à l'imprécision des données enregistrées par leurs capteurs : tout processus physique de mesure comporte une part d'imprécision et peut conduire à des informations erronées au point de ne correspondre à aucune réalité. Enfin, de même que nous ne pouvons percevoir la totalité de notre environnement, les robots traitent des données incomplètes ou partielles, et doivent pouvoir prendre en compte des éléments éventuellement occultés.

Modéliser l'environnement. Trois types d'informations renseignent un robot sur son environnement : des informations géométriques la forme des lieux et des objets ; topologiques les relations spatiales entre différents lieux et objets ; et sémantiques la nature - le sens, la fonction - des lieux et objets. Planifier une trajectoire dans une pièce impose uniquement de déterminer l'espace accessible à partir de la position occupée : une information exclusivement géométrique est suffisante. En revanche, pour déterminer des stratégies de déplacement, une connaissance plus abstraite de l'environnement devient indispensable : le robot doit expliciter la topologie des lieux. Il pourra éventuellement y inclure des informations sémantiques pour, par exemple, planifier une séquence de déplacements décrits à la manière d'un itinéraire « emprunter le couloir A, pénétrer dans la pièce B par la porte C... ».

Comment un robot procède-t-il pour modéliser son environnement ? L'approche classique, développée dès le début des années 1980, repose sur une analyse géométrique. Prenons l'exemple simple, en deux dimensions, d'un robot qui, avant de se déplacer, acquiert des données télémétriques dans un appartement fig. 2. La modélisation consiste à représenter les données par des formes géométriques analytiques segments de droites, faces planes, volumes, définis par leurs équations que l'on appelle les primitives . Cette approche relève d'un processus de structuration des informations dont l'abstraction est faible : on passe simplement de données géométriques « brutes » à des données plus structurées. Il s'agit cependant d'une opération délicate car les mesures fournies par les capteurs sont imprécises et les primitives héritent de ces imprécisions2. Il devient donc crucial pour les algorithmes qui vont exploiter le modèle d'estimer ces imprécisions que l'on peut déduire de modèles de fonctionnement des capteurs : le logiciel qui planifie les trajectoires ne devra donner l'ordre au robot de passer entre deux segments que s'il est certain que la distance qui les sépare permet effectivement le passage ! L'évaluation des imprécisions est également nécessaire d'une part pour analyser le modèle, et d'autre part pour le compléter avec de nouvelles données au cours des déplacements. De récents progrès en matière de capteurs, de calculateurs et d'algorithmes ont permis d'adopter ce type de démarches pour construire des représentations tridimensionnelles de l'environnement3 fig. 1.

Représentations sémantiques. Une fois son modèle géométrique construit, le robot peut en extraire facilement des informations topologiques. Par exemple, si l'environnement est défini à l'aide de polygones, il suffit au robot de construire un graphe avec la définition des régions connexes, à partir duquel il pourra déterminer des chemins. Le robot connaît ainsi l'espace qui lui est accessible et peut générer des trajectoires et des chemins. Il n'en reste pas moins incapable de planifier des itinéraires ou d'interpréter ses missions. Pour cela, il a encore besoin de quelques notions sémantiques. Et les capteurs ne sont alors d'aucune aide directe : le robot doit interpréter ces notions en analysant les formes préalablement modélisées. On peut ainsi lui apprendre que deux segments parallèles et distants d'un mètre définissent une porte. Le processus relève cette fois de l'abstraction et de l'interprétation. Les informations numériques deviennent symboliques, tandis que les imprécisions sur les paramètres des segments sont traduites en une incertitude sur la nature de l'objet ici, la porte.

La construction de représentations sémantiques repose sur le succès de la modélisation géométrique. Aussi, les informations perçues à partir d'une seule position peuvent se révéler insuffisantes incomplètes, même pour reconnaître un objet tel qu'une porte. Afin d'affiner sa connaissance des lieux, le robot devra donc acquérir des données supplémentaires à partir d'autres positions qu'il aura lui-même à déterminer. Ce n'est que depuis le début des années 1990 que les chercheurs en robotique ont ainsi envisagé la modélisation comme un processus actif 4 , dont la portée dépasse l'interprétation d'une accumulation progressive de données : le robot doit décider des données à acquérir, et va pour cela planifier ses déplacements.

Affiner les représentations. Reste que la définition d'une porte de façon exclusivement géométrique est une approche très pauvre - notamment lorsque la modélisation est faite en deux dimensions : deux meubles parallèles et distants d'un mètre peuvent être interprétés comme une porte, tandis que les portes fermées ne seront pas détectées. Comment affiner les interprétations ? Outre la prise en compte de la troisième dimension, on peut inclure dans le modèle des caractéristiques telles qu'une poignée. Une démarche qui imposera l'intégration de nouveaux capteurs afin de prendre en considération dans un même modèle des attributs de natures diverses : géométrie, couleur, etc. On parle alors de fusion multisensorielle.

Mais, si multiplier les capteurs permet d'affiner l'interprétation, cela ne permet pas de s'affranchir des limites d'une approche qui ne définit la sémantique des éléments de l'environnement que par rapport à ce que le robot peut percevoir. En effet, suivant une telle approche, le concepteur est obligé de fournir au robot une description détaillée de la totalité des objets qu'il est susceptible de rencontrer. Or, décrire une chaise comme « un plateau horizontal posé sur quatre pieds, auquel est attaché un plateau vertical » ne permettra au robot d'identifier que les chaises de ce type, et non les milliers de modèles de chaises que nous utilisons couramment. Par contre, si l'on décide de définir une chaise conceptuellement, par sa fonction, comme « un objet sur lequel un bipède peut s'asseoir en faisant reposer son dos » , le robot est en passe de reconnaître une infinité d'objets qui lui sont inconnus. Les chercheurs en robotique commencent seulement à exploiter cette voie plus complexe : la « porte » devient une « frontière franchissable entre deux lieux », et un « lieu » une « zone dans laquelle le robot peut évoluer aisément » . Nous sommes ici confrontés à la problématique bien connue du lien très fort entre la perception du monde et l'action ou la capacité d'action dans ce monde.

Quelles qu'elles soient, les modélisations qui reposent exclusivement sur la géométrie de l'environnement - que l'on peut qualifier de « reconstruction- nistes » - se heurtent rapidement à un obstacle que nous n'avons pas évoqué jusqu'à présent : les limites des calculateurs peu adaptés au calcul géométrique. Les chercheurs n'ont jamais abandonné, depuis les débuts de la robotique, la quête de méthodes moins gourmandes en calcul. Ainsi, un moyen aujourd'hui devenu courant de représenter l'espace accessible est de décrire l'environnement par un ensemble de petites cellules analogues aux pavés d'un carrelage5. Pour chacune d'entre elles, on détermine la probabilité qu'elle corresponde à un obstacle fig. 2. L'intérêt d'une telle représentation est qu'elle explicite la notion « obstacle » directement à partir des mesures et non de constructions intermédiaires. Autre avantage : les relations de voisinage entre les cellules contiennent des informations topologiques, et il est possible de « regrouper » les cellules similaires pour réduire la quantité d'informations à stocker.

Aisé à construire et à manipuler, ce type de représentations donne par ailleurs au robot une estimation précise de la quantité d'informations dont il dispose sur une zone donnée. Il pourra ainsi affiner ses stratégies d'exploration et s'orienter de façon à percevoir les cellules pour lesquelles l'incertitude reste grande. La sémantique de ce type de représentations est cependant restreinte à la notion d'obstacle : une porte demeure toujours aussi difficile à discerner. Une piste aujourd'hui explorée pour extraire des informations sémantiques est la conception de méthodes qui, sans structurer les données en primitives, en comparent certains attributs à des exemples préalablement appris. Elles permettront à terme de reconnaître les lieux ou les objets par la vision.

Lorsqu'il se déplace, le robot accumule les informations. A chaque « pas », il doit affiner la représentation globale de l'environnement qu'il se crée à partir de représentations locales. Outre les imprécisions sur les données brutes et les primitives, et les incertitudes sur les notions sémantiques avec lesquelles il devait composer en observant à partir d'un point donné, le robot doit désormais prendre en compte les incertitudes liées à son déplacement et à sa nouvelle position.

Pour cela, il exploite cette fois les informations que lui fournissent ses capteurs proprioceptifs. Il peut également analyser, par exemple, le mouvement des éléments des images que lui transmettent ses caméras lire l'article de Thierry Viéville et d'Olivier Faugeras, p. 42. Ces capteurs permettent au robot de naviguer « à l'estime », à la manière d'un marin qui mesure ses déplacements à partir de son cap et de sa vitesse, mais sans se référer à son environnement. Inconvénient majeur : la position ne s'obtient que par intégration des déplacements élémentaires, avec pour conséquence d'accroître l'erreur sur l'estimation. On dit que la méthode « dérive ». C'est par une seconde analogie avec la navigation maritime, les amers * , que les chercheurs ont désigné les éléments de l'environnement qui permettront à des algorithmes de corriger cette dérive6 fig. 3. Les algorithmes, dits de cartographie et localisation simultanées, qui permettent ce « recalage » raisonnent explicitement sur les imprécisions des capteurs et font appel à des théories de l'estimation* fig. 4. Ils nécessitent la construction et la mise à jour d'une description des amers de l'environnement7.

Mettre en relation les amers mémorisés et perçus exige un raisonnement probabiliste qui peut se révéler complexe. En effet, si, entre deux positions proches occupées par le robot, la seule connaissance de la position des amers peut permettre de les associer, en revanche, à l'issue d'un long déplacement, l'imprécision sur la position du robot peut devenir telle que cette association devient impossible. La seule solution est alors, en plus de la position, de définir les amers avec d'autres attributs identifiables par les techniques de reconnaissance d'objets ou par les relations topologiques entre les amers. Intégrer et gérer de très nombreux amers peut alors nécessiter des calculs lourds, sans pour autant offrir l'assurance d'aboutir à un modèle spatialement cohérent...

Multiplier les approches. Récemment, des méthodes de localisation plus robustes, ne reposant plus uniquement sur des considérations géométriques ont été proposées. Citons les techniques de reconnaissance d'images panoramiques, qui permettent d'identifier des lieux préalablement traversés8. D'autres approches exploitent la représentation topologique de l'environnement pour se localiser à long terme : on ne cherche plus à estimer précisément la position d'amers, mais on identifie un lieu qualitativement, en vérifiant que les relations spatiales entre les objets correspondent à un endroit déjà modélisé.

Enfin, une façon de garantir la cohérence spatiale des représentations et la qualité de la position estimée est d'exploiter une carte initialement fournie au robot. Les cartes sont le plus souvent conçues avec d'autres outils que ceux dont dispose le robot : images satellites, plan d'architecte, etc. Pour mettre en relation les éléments de la carte et ce qu'il perçoit, le robot doit construire une nouvelle carte qui intègre des informations géométriques, topologiques et sémantiques compatibles avec les informations dont il dispose.

Existe-t-il une solution idéale parmi toutes les approches que nous avons brièvement présentées ? Toutes ont leurs limites et leurs imperfections et, après une vingtaine d'années de recherches sur la cartographie et la localisation, il semble clair maintenant que seule la multiplicité des approches permet de concevoir un robot au fonctionnement cohérent et robuste.

Par ailleurs, ces travaux ne peuvent être considérés en dehors des autres tâches effectuées par le robot : la cartographie et la localisation sont des processus actifs qui vont influencer l'ensemble de ses décisions.

Par Simon Lacroix, Raja Chatila

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

FUKUSHIMA

 

Accident nucléaire à Fukushima


et aussi - par Denis Delbecq dans mensuel n°460 daté février 2012 à la page 6 (3045 mots)
Pour la première fois, trois réacteurs nucléaires ont simultanément échappé à tout contrôle. Cette catastrophe a durablement pollué des dizaines de milliers d'hectares au Japon, et ses rejets font aussi peser une lourde menace sur la pêche dans la région. Elle remet en question l'avenir de l'énergie nucléaire civil dans le monde.

1. Un enchaînement de catastrophes
V endredi 11 mars 2011. En ce début d'après-midi, la population japonaise est au travail, à quelques heures d'un week-end qui s'annonce ordinaire. Mais à 14 h 46, tout bascule. Un violent séisme survient à 24 kilomètres sous le plancher de l'océan Pacifique, à environ 72 kilomètres de la côte nord-est de l'île principale d'Honshu, à 373 kilomètres de Tokyo. Sa magnitude * est de 9.

Depuis les premières mesures de ces phénomènes, au début du XXe siècle, c'est le plus puissant séisme qui ait jamais frappé le Japon et le cinquième plus important enregistré sur la planète. Comprimée par l'enfoncement de la plaque tectonique Pacifique, à l'est du pays, la plaque d'Okhotsk, qui porte la partie septentrionale du Japon, s'est brutalement détendue lire « Un séisme et un tsunami », p. 10

Fort heureusement, accoutumé aux séismes, le Japon dispose d'un système d'alerte. Trente et une secondes après la secousse, celle-ci est donnée dans la région de Tokyo. Les trains s'arrêtent ; les vannes des gazoducs sont fermées ; les opérations chirurgicales sont interrompues. La population est prévenue quelques dizaines de secondes avant l'arrivée de l'onde sismique la plus puissante.

Plus près de l'épicentre, le nord-est du pays n'a pas eu le temps de réagir. Il est transformé en un immense champ de ruines. Et le pire est encore à venir. Trois minutes plus tard, l'Agence japonaise de météorologie prévient de l'imminence d'un tsunami qualifié de « majeur ». La population côtière se précipite dans les abris désignés.

Cinquante minutes plus tard, les vagues déferlent, dépassant parfois 15 mètres de haut, et de nombreux abris sont submergés. L'impact du tsunami a été amplifié sur des centaines de kilomètres de côte Pacifique par un effondrement du sol de 60 centimètres, consécutif au mouvement de la plaque tectonique.

Trois réacteurs à l'arrêt. Aussi tragique qu'il soit, le bilan de ces catastrophes naturelles, près de 20 000 morts et disparus, va être relégué au second plan par la catastrophe nucléaire qu'elles ont également déclenché. Dans les quatre centrales nucléaires situées dans la zone touchée par le séisme, onze réacteurs se sont mis en arrêt automatique d'urgence dès les premières secousses. Mais des nouvelles inquiétantes parviennent de l'une d'entre elles, celle de Fukushima Daiichi, exploitée par l'industriel Tepco.

3 des 6 réacteurs de la centrale - numérotés 1, 2 et 3 - étaient en service le 11 mars. Ils sont passés en phase d'arrêt, comme le prévoient les systèmes de sécurité. La centrale restait alimentée en électricité par les batteries de secours et les groupes électrogènes qui ont pris le relais de l'alimentation réseau pour faire fonctionner notamment les pompes à eau.

Tant qu'il y a du combustible dans un réacteur, même arrêté, les réactions de fission spontanées du combustible, qui continuent de se produire, dégagent en effet de la chaleur. Il faut donc continuer à faire circuler de l'eau pour éviter que le réacteur ne s'échauffe trop et devienne incontrôlable. De même, il faut refroidir les piscines où les combustibles usagés sont entreposés le temps que diminue leur radioactivité, productrice de chaleur.

Immédiatement après le séisme, tout semble donc sous contrôle à la centrale de Fukushima, mais elle est construite à une centaine de mètres du bord de mer seulement, et à 15 h 45 des vagues atteignant probablement 14 mètres submergent les digues et dévastent le site. Le tsunami est arrivé. Pompes à eau de mer et groupes électriques de secours sont emportés. Pour la première fois de l'histoire de l'industrie nucléaire, un réacteur est privé durablement de refroidissement et d'électricité. Et pour la première fois aussi, un accident touche simultanément 3 réacteurs.

Après le passage du tsunami, la température s'envole dans ceux-ci : l'eau bout, et la pression grimpe en flèche. Vers 18 heures, le niveau d'eau baisse dans le réacteur 1. La gaine en alliage de zirconium qui enrobe les barres d'uranium - et qui enferme les produits de fission - réagit avec la vapeur d'eau, et se désagrège, libérant l'uranium et les produits de fission. L'eau se décompose en hydrogène et en oxygène. Ce mélange très explosif s'accumule dans le réacteur.

Explosions. Dans la soirée, les autorités japonaises décrètent l'état d'urgence et ordonnent l'évacuation d'un périmètre de 3 kilomètres autour de la centrale. Le lendemain matin, les responsables de Tepco constatent que de l'hydrogène s'est accumulé dans l'enceinte de confinement du réacteur 1 et décident de purger les gaz pour faire baisser la pression figure ci-contre. L'hydrogène et l'oxygène s'accumulent alors dans le bâtiment qui l'entoure, et explosent dans l'après-midi. Le soir, le périmètre d'évacuation est porté à 20 kilomètres.

Le même scénario se reproduit dans le réacteur 3, dont le bâtiment explose le 14 mars. Une autre explosion survient dans un équipement situé sous le réacteur 2, tandis que les piscines du réacteur 4 semblent endommagées. Leur assèchement pourrait être catastrophique, car ces piscines se trouvent hors de toute enceinte de confinement. Le 16 mars, les réacteurs 5 et 6 - qui contiennent du combustible usagé en attente d'être remplacé - et leurs piscines, jusque-là indemnes, commencent à se réchauffer.

Le 17 mars débute un étrange ballet dont les images sidèrent l'opinion publique : privées d'information sur l'état des réacteurs 1, 2, 3, les autorités ont envoyé des hélicoptères de l'armée pour les asperger d'eau. Un ballet absurde pour le physicien nucléaire Mamoru Fujiwara, de l'université d'Osaka. « Les autorités n'avaient pas compris l'enjeu : les réacteurs dégageaient encore 5 mégawatts, une puissance capable de vaporiser 8 tonnes d'eau par heure. Les hélicoptères ne pouvaient rien contre cela. »

Liquidateurs. Le lendemain, 30 camions-pompes prennent le relais, avec plus d'efficacité cette fois. Peu à peu, des « liquidateurs » vont se relayer pour regagner du terrain, pied à pied, sans toujours disposer de dosimètres : il leur faut rebrancher la lumière dans les salles de contrôle, tirer des câbles électriques, installer des instruments de mesure, déblayer les gravats en pataugeant dans une eau radioactive et par une chaleur étouffante, et réinstaller des pompes. Le travail est constamment interrompu par de nouvelles secousses et des bouffées de radioactivité si fortes qu'elles sont capables de tuer en quelques minutes.

Fin mars, le niveau de contamination de l'océan au pied de la centrale indique que de grandes quantités d'eau très radioactive s'échappent des sous-sols. La fuite est découverte le 2 avril près du réacteur 2 et colmatée après quatre jours d'efforts. Le 15 avril, les autorités nucléaires japonaises reconnaissent ce qui est une quasi-certitude aujourd'hui : le combustible des 3 réacteurs a fondu pour former un corium - mélange de combustible et de métal fondu - au fond des cuves, voire au fond des enceintes de confinement, augmentant considérablement le risque de rejets de radioéléments dans l'environnement.

Le 3 juillet, après deux semaines d'essais, Tepco met en service un système de décontamination de l'eau des sous-sols. Désormais, le refroidissement des réacteurs est assuré par un circuit faussement fermé : l'eau des sous-sols est décontaminée puis injectée dans les réacteurs, avant de s'échapper à nouveau vers les sous-sols. Les substances radioactives solubles sont ainsi progressivement retirées.

Quatre mois s'écoulent sans incident notable jusqu'à l'annonce, le 2 novembre, de la découverte de xénon 135 sur un filtre à radioéléments du bâtiment 2. Pendant deux jours, les spéculations vont bon train : cet élément est-il produit par le redémarrage d'une réaction en chaîne dans le réacteur ? Cela sonnerait le glas des espoirs de reprise en main de la situation. « Ces valeurs de xénon semblent très faibles, et les paramètres du réacteur pression et température, notamment n'ont pas grimpé, analyse Thierry Charles, directeur de la sûreté à l'Institut français de radioprotection et de sûreté nucléaire IRSN. Il est probable que cet élément soit issu seulement de réactions spontanées. » Le lendemain, Tepco confirme cette seconde hypothèse, le Japon peut respirer.

Enceintes étanches. Huit mois après l'accident, où en est la centrale ? « Après l'accident, Tepco a mis en oeuvre un plan de sortie de crise qui apparaît cohérent, analyse Thierry Charles. Dans un premier temps, il s'agissait de sécuriser les combustibles des réacteurs et des piscines. » Autrement dit, mettre en place un refroidissement en circuit fermé pour abaisser la température et la pression dans les réacteurs, et garantir le refroidissement des piscines. Dans les réacteurs, la température est désormais inférieure à 100 °C, et il n'y a donc plus d'émission de vapeur et de radioactivité vers l'extérieur. Dans les piscines, elle avoisine 35 °C, signe d'un refroidissement normal.

Ensuite, Tepco s'est attaché à limiter les rejets en recouvrant de résine sols et bâtiments pour fixer les poussières en érigeant un mur souterrain pour empêcher l'eau des sous-sols de gagner la mer et en couvrant les bâtiments. C'est désormais chose faite pour le numéro 1, qui est enfermé dans une enceinte étanche, équipée de filtres, au cas où il y aurait des surpressions. Des travaux identiques vont démarrer pour les réacteurs 2 et 3.

Quant à l'eau accumulée dans les bâtiments, son niveau a baissé grâce au pompage mis en place. Selon Tepco, il ne peut plus y avoir de débordement. Mi-octobre, environ 130 000 tonnes d'eau avaient été traitées, laissant des boues radioactives à stocker pour des décennies, voire des siècles. « Désormais, la situation se stabilisant pour les réacteurs, l'urgence va être de retirer le combustible des piscines et de le stocker de manière fiable, prévient Thierry Charles. Ce n'est pas simple, il faut évacuer les gravats sans abîmer les combustibles, et installer des ponts capables de soulever des dizaines de tonnes. » Cela prendra des années. Pour le démantèlement des réacteurs, on parle de décennies. Tepco parle de trente ans. C'est optimiste : à la centrale de Three Miles Island, où un accident grave s'est produit en 1979, le démantèlement n'a pas commencé.

2. Des dizaines de milliers d'hectares à décontaminer
L es réacteurs de la centrale de Fukushima Daiichi semblent en équilibre, même si celui-ci est précaire, et à la merci par exemple d'une nouvelle secousse sismique. Le Japon doit désormais gérer la contamination de son territoire et de ses eaux côtières par les produits de fission radioactifs dispersés lors de l'accident.

Le plus dangereux pendant les premières semaines, l'iode 131, fort émetteur de rayons gamma susceptibles de provoquer des cancers de la thyroïde, a totalement disparu. La moitié des atomes de cet élément disparaissent en effet tous les huit jours, que ce soit à terre, et même dans l'eau et les organismes marins qui l'avaient absorbé.

« C'est important de le dire, affirme Nicolas Foray, radiobiologiste à l'Inserm. Il y aura peut-être des cas de cancer chez des enfants qui vivaient près de la centrale. On en compte 6 848 à Tchernobyl. L'iode avait principalement été absorbé par le lait. À Fukushima, la population est éduquée, et il y a eu beaucoup d'informations, il est probable qu'elle aura peu consommé de lait et d'autres produits susceptibles d'être contaminés à l'iode. » Les autorités japonaises ont entrepris un suivi à long terme de 350 000 enfants.

Pour le radiobiologiste, comme pour Didier Champion, directeur de l'environnement et de l'intervention à l'IRSN : « Le problème aujourd'hui est le césium 137, dont la demi-vie * est de 30 ans. » Il faut donc plus d'un siècle pour que sa radioactivité devienne négligeable. Le césium contamine les sols, puis est absorbé par les plantes, et de là passe dans la chaîne alimentaire.

La radioactivité cartographiée. Selon une étude norvégienne publiée fin octobre, l'accident aurait rejeté 36 000 terabecquerels * de césium-137 dans l'atmosphère - trois fois plus que les estimations officielles. Toujours selon cette étude, environ 20 % de ce césium se serait déposé sur le sol japonais, principalement dans une zone de plusieurs centaines de kilomètres carrés. Celle-ci sort du périmètre d'évacuation circulaire de 20 kilomètres de rayon décrété par le gouvernement.

Ce sont bien évidemment le vent, la pluie et la géométrie du sol qui dessinent la carte des retombées radioactives au sol. Mais « dans l'urgence de la situation, on n'est jamais sûr de la direction que va prendre le vent dans les heures à venir, explique Didier Champion. C'est pour cela que l'on définit une zone de protection circulaire ». De fait, la zone terrestre la plus contaminée est une bande de 15 kilomètres de large pour 50 kilomètres de long qui s'étend au nord-ouest de Fukushima, bien au-delà du périmètre d'évacuation. Dans cette région, le niveau d'exposition est aujourd'hui supérieur à 5 microsieverts * par heure près de vingt fois la radioactivité naturelle. Dans la partie centrale, il dépasse les 20 microsieverts par heure, avec des pointes plus élevées. Ainsi, à Iidate, à 40 kilomètres de Fukushima, 100 microsieverts par heure ont été relevés, comme le confirme Mamoru Fujiwara.

Le Japon a engagé une vaste opération pour cartographier la radioactivité, préalable au choix d'une stratégie de gestion à long terme. Les autorités considèrent qu'un lieu reste vivable jusqu'à un niveau d'exposition de 2,3 microsieverts par heure en continu la norme française est deux fois plus faible. Peu d'options sont offertes : laisser des zones fermées en attendant que le césium cesse de présenter une menace ; décaper les sols et les constructions ; ou cultiver des plantes capables de pomper les radioéléments.

Cette dernière technique a prouvé son efficacité avec d'autres éléments, tel le technétium. Mais il sera difficile de la mettre en oeuvre pour le césium. « Cet élément se lie au sol, explique Jean-Louis Morel, du laboratoire sols et environnement de l'université de Lorraine. Les plantes ne peuvent en extraire que quelques pour-cent à chaque culture. » Cette solution pourrait quand même être tentée dans des territoires peu contaminés. Les plantes sont ensuite stockées, ou incinérées dans des installations équipées de filtres à césium. D'autres plantes, choisies pour leur faible capacité à diffuser le césium dans leur partie aérienne, pourraient produire des aliments consommables sans risque.

Pas de retour. Pour Didier Champion : « Il n'est pas envisageable de laisser des gens revenir rapidement dans la zone la plus contaminée car l'exposition au rayonnement émis par le dépôt radioactif est difficilement évitable, à moins d'abattre la végétation et retirer les 20 ou 30 premiers centimètres de sol. » Une option complexe, car la quantité de déchets serait immense : 30 centimètres de terre représentent 300 000 mètres cubes par kilomètre carré... Quant à la traiter avant de la réintroduire dans le milieu naturel, « en général, cela ne vaut pas la peine, prévient Bruno Cahen, directeur industriel de l'Andra, organisme français en charge du stockage des déchets radioactifs, qui intervient aussi dans la réhabilitation des sites contaminés par des pollutions radioactives. Cela nécessite de l'énergie, du temps, de l'argent, des substances chimiques, et peut altérer la fertilité de la terre retraitée ».

La situation sera presque plus gérable dans les zones urbaines. Le césium a imprégné les matériaux de construction et les sols artificialisés. « Un nettoyage à l'eau sous pression est très peu efficace et peut diffuser le césium dans le sol, note Didier Champion. Mais on peut retirer les revêtements de surface, remplacer les toits, le bitume et les trottoirs. » Les déchets ainsi produits sont en volume limité et stockables de façon sécurisée.

Avant de décider des mesures à prendre, « il faudra de toute façon prendre le temps de dresser une cartographie très détaillée de la contamination, mettre en place les infrastructures nécessaires, et surtout prendre les décisions en concertation avec la population concernée », avertit Bruno Cahen. Laquelle devrait, en parallèle, faire l'objet d'un suivi épidémiologique : selon le gouvernement, 2 millions de personnes, qui ont pu être exposées, seront suivies sur le long terme.

La population, elle, s'est ruée sur les détecteurs. La méfiance est en effet de mise vis-à-vis des données officielles, et il n'existe pas d'organisme de mesure indépendant. « Les gens veulent savoir si leurs enfants sont en danger » , souligne Mamoru Fujiwara.

Une telle vigilance est d'autant plus impérative que la pollution radioactive touche aussi l'océan. Et qu'elle pourrait se propager dans la chaîne trophique, un problème pour une population japonaise très friande de poisson et d'algues.

Surveiller la mer. À ce jour, c'est l'IRSN qui a produit l'étude la plus complète sur les rejets en mer de l'accident de Fukushima. Selon ses calculs, les rejets liquides représentent - sur la période de mars à juillet- 27 000 terabecquerels de césium, pour l'essentiel avant le 8 avril : une brutalité jamais vue puisque les rejets de radioéléments dans les océans ont toujours été répartis dans la durée. Quant aux retombées de césium atmosphérique sur l'eau, elles ne représentent que 0,3 % de ce volume.

« Depuis avril, la quantité de césium dans l'eau de mer baisse de moitié tous les sept jours près des côtes, sous l'effet de la dilution liée aux apports, par les courants, d'eau de mer non contaminée, se félicite Didier Champion. Les niveaux de contamination mesurés dans les sédiments sont pour le moment plus faibles que ce à quoi nous nous attendions. Mais on ne peut pas exclure que les transports naturels de particules sédimentaires venant des terrains contaminés concentrent le césium dans certains lieux du littoral proche de la centrale. »

Faute de pouvoir agir, les pouvoirs publics en sont donc réduits à surveiller. Aujourd'hui, ils surveillent surtout l'eau. « Les mesures de la radioactivité de l'eau servent essentiellement à détecter rapidement d'éventuels nouveaux rejets, explique Didier Champion. Pour mesurer l'impact de la pollution résiduelle, il est plus efficace d'utiliser des bio-indicateurs, autrement dit de surveiller les espèces de poissons et d'algues qui concentrent le plus la contamination, en mettant l'accent aussi sur celles qui sont consommées par la population. »

Aujourd'hui, alors que la pêche est encore rare sur la côte touchée, ces mesures sporadiques se font sur les lieux de débarquement des prises. « Il faudra que le Japon mette sur pied des campagnes scientifiques en mer, en ciblant notamment les poissons sédentaires qui concentrent le plus la pollution. Mais on ne peut exclure que certaines espèces appartenant aux niveaux plus élevés de la chaîne trophique qui ne sont pas contaminées aujourd'hui le deviennent plus tard. »

Par Denis Delbecq

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

ROBOTS ET NEUROSCIENCES

 

A l'heure des neurosciences


spécial robots - par Jean-Jacques Slotine dans mensuel n°350 daté février 2002 à la page 16 (3027 mots)
Connaît-on l'ascidie, ce petit animal marin qui, après s'en être servi pour se mouvoir, digère tranquillement son cerveau, car il n'en a plus besoin ? Plus que jamais à l'école du vivant, la robotique s'aventure aujourd'hui vers la prise en compte de phénomènes qui vont bien au-delà de la conception classique du « cerveau dans la boîte ».

« Alors la babouine demande timidement au babouin, les yeux chastement baissés : Aimez-vous Bach ? » Albert Cohen .


L'heure est au dialogue entre robotique et neurosciences, et, au-delà des analogies les plus évidentes, à l'élaboration de problématiques communes. Partout dans le monde se créent des centres regroupant neurosciences, biologie, modélisation mathématique et robotique. Témoin de l'ampleur du phénomène : le nouveau McGovern Institute, au MIT, qui va y consacrer pas moins de 350 millions de dollars - à peu près autant que le synchrotron Soleil ! Nous sommes sans doute à l'aube d'une véritable approche « système » de la compréhension du cerveau, réalisant le vieux rêve de la cybernétique.

Cette fertilisation croisée, cette coévolution, pourrait-on dire, n'est certes pas nouvelle. La nature inspirait déjà la robotique du temps des tortues de Grey Walter, en 1950. Mais l'accélération considérable au cours des vingt dernières années des découvertes sur le cerveau, la physiologie de l'action, ou encore l'acquisition de la parole et du langage, a changé la donne. Jim Watson, le codécouvreur de la structure de l'ADN et le promoteur du programme « Génome humain », fait avec raison de la compréhension du cerveau le grand défi scientifique du XXIe siècle. Compréhension susceptible de remettre en question notre conception de la science elle-même : c'est avec notre cerveau que nous créons des théories !

Mais à l'inverse, la robotique peut éclairer la physiologie, l'artificiel illuminer le vivant. Comme le remarque le biologiste Edward O. Wilson, dans son classique Consilience : the Unity of Knowledge 1998 « Le moyen le plus sûr d'appréhender la complexité du cerveau, comme de tout autre système biologique, est de le penser comme problème d'ingénierie . »I 1 L'ambition de la robotique est de comprendre de quelles capacités on peut doter une machine en interaction physique avec son environnement, et comment cette machine peut par elle-même s'adapter et apprendre.

En neurosciences, on associe de plus en plus l'évolution et le développement des processus cognitifs au raffinement des fonctions sensori-motrices2. Le neurologue Rodolfo Llinas3, à l'université de New York, cite l'exemple de l'ascidie, petit animal marin qui, après avoir nagé vers le rocher où il s'installera, digère son cerveau, devenu inutile dès lors qu'il n'a plus à se déplacer ! De même, l'interaction physique et dynamique avec l'environnement, le contrôle du mouvement, poussent la robotique au-delà du domaine conceptuel classique de l'intelligence artificielle, du brain in a box cerveau dans une boîte.

Mémoire parfaite. En règle générale, la robotique est très loin d'égaler la nature, mais ses contraintes ne sont pas les mêmes et, pour certaines tâches, elle fait même mieux que la nature. Malgré la grande flexibilité de positionnement des actionneurs moteurs, muscles artificiels, etc. et des capteurs caméras, encodeurs, etc., le hardware mécanique est très à la traîne, tant en complexité qu'en robustesse et en adaptabilité. En revanche, la robotique bénéficie de la possibilité de coder explicitement des relations mathématiques complexes les équations de la mécanique, par exemple, permettant souvent soit des raccourcis à travers les calculs de la nature, soit des techniques fondamentalement différentes. Les robots possèdent également une mémoire parfaite et une capacité de répétition exacte. Si l'on veut qu'un robot apprenne à marquer des paniers au basket-ball, il lui suffit de déterminer une fois pour toutes la relation entre son mouvement et l'endroit où la balle tombe : problème mathématique simple qui conduira à un apprentissage rapide. Le robot dispose également de possibilités de simulation en temps très accéléré, alors qu'il faut à l'homme à peu près autant de temps pour imaginer un mouvement que pour l'effectuer. Un robot peut « penser » en 5 ou 10 dimensions aussi facilement qu'en 3. Enfin la robotique tire profit de l'accélération constante des moyens de calcul4, au point de pouvoir calculer plus vite que la nature elle-même.

Un autre avantage des robots sur les systèmes biologiques est la rapidité de la transmission de l'information. La vitesse de transmission des impulsions nerveuses est bien inférieure à la vitesse du son. Elle est donc environ un million de fois plus petite que celle de l'information dans un câble électrique. De plus, à chaque connexion synapse entre neurones le signal électrique est transformé d'abord en signal chimique, puis de nouveau en signal électrique à l'arrivée, perdant chaque fois environ 1 ms : un peu comme un train qui prend un ferry-boat. Ce rôle central des délais conditionne certains aspects de l'architecture des systèmes biologiques, par exemple l'organisation massivement parallèle des calculs dans les cent milliards de neurones du cerveau et leurs millions de milliards de synapses. Laquelle architecture parallèle, il faut le reconnaître, se prête particulièrement bien aux problèmes d'approximation distribuée, c'est-à-dire d'apprentissage.

Cette question du temps est aussi au coeur de bien des aspects importants de la robotique, qu'il s'agisse de la téléprésence - comment commander un robot à l'autre bout de la planète ou au fond de l'océan, « comme si vous y étiez » -, pour coordonner la vision par ordinateur et la manipulation, et, comme chez les êtres vivants, pour tous les mécanismes permettant l'unité de la perception binding.

Notre laboratoire a beaucoup étudié l'adaptation et la coordination vision-manipulation5,6, et leur illustration expérimentale sur des robots rapides. Comment un robot attrape-t-il un objet qu'on lui lance ? Il doit anticiper la trajectoire de l'objet, sur la base d'informations visuelles - obtenir ces informations avec une précision suffisante peut nécessiter d'utiliser des caméras mobiles, comme le fait l'oeil quand il suit un objet en mouvement. Il doit planifier une trajectoire pour intercepter l'objet et l'attraper - il peut être judicieux, par exemple, d'attraper l'objet tangentiellement à sa trajectoire, de façon à nécessiter moins de précision du timing de la fermeture de la main, et aussi à attraper l'objet plus délicatement. Une fois l'objet attrapé, il faut le décélérer progressivement et ne pas le laisser tomber, en s'adaptant très vite à ses propriétés dynamiques inconnues masse, position du centre de masse, moments d'inertie. Ces travaux nous ont conduits à rechercher des méthodes et des concepts généraux pour aborder systématiquement des questions de plus en plus complexes, impliquant une réflexion plus directe sur ce que nous apprend le monde du vivant.

Primitives motrices. La solution de la nature à la construction progressive de tels systèmes est, bien sûr, l'évolution. Tout objet biologique, et le cerveau en particulier, résulte de l'évolution. Celle-ci procède par accumulation et combinaisons d'éléments intermédiaires stables, créant ainsi des structures fonctionnelles de plus en plus complexes7,8. Selon la formule de François Jacob, « De la bactérie à la drosophile, quel bricolage depuis trois milliards d'années ! » La réponse émotionnelle humaine, par exemple, combine deux éléments intermédiaires stables, une boucle archaïque rapide ne passant pas par le cortex, et une boucle corticale plus lente9. Le système immunitaire humain se compose d'une série de couches fonctionnelles, où se combinent notamment des mécanismes rapides et archaïques d'immunité innée, et des mécanismes plus lents d'immunité acquise ou adaptative, dont le temps de réponse dépend de l'exposition antérieure au pathogène.

De même, l'architecture de contrôle du mouvement chez les vertébrés utilise des combinaisons de primitives motrices. Emilio Bizzi et ses collègues, au MIT, ont fait, sous divers protocoles expérimentaux, l'expérience suivante. On excite la moelle épinière d'une grenouille anesthésiée, et un capteur placé sur la cheville de l'animal mesure le champ de forces ainsi créé. Deux conclusions. Tout d'abord, si l'on déplace l'excitation le long de la moelle épinière, on n'obtient que quatre champs de forces, correspondant à quatre régions de la moelle. De plus, si l'on excite deux régions en même temps, on obtient essentiellement la somme vectorielle des champs de forces. Ces résultats et des expériences plus récentes suggèrent que les mouvements de la grenouille, par exemple quand elle saute pour attraper un insecte, sont obtenus par simples combinaisons de primitives motrices élémentaires, modulées temporellement dans la moelle épinière sur la base d'informations provenant du cerveau.

Les accumulations progressives de configurations stables sont un thème récurrent dans l'histoire de la cybernétique et de l'intelligence artificielle, depuis les tortues de Grey Walter à la « Society of Mind10 » de Marvin Minsky 1986, en passant par les architectures hiérarchiques de Herbert Simon11 1962, les véhicules de Valentino Braitenberg12 1984, et autres insectes de Rodney Brooks13 1986, 1999.

Ces accumulations progressives forment aussi la base de théories récentes sur le fonctionnement du cerveau, qui privilégient l'interaction massive entre structures spécialisées pour expliquer la pensée et la conscience14,15,16.

Un des thèmes centraux des neurosciences est de comprendre comment des informations provenant de diverses modalités sensorielles, traitées par des centaines de régions spécialisées dans le cerveau, aboutissent à une perception unifiée. Dans le seul système visuel, par exemple, certaines aires corticales traitent les contours, d'autres les formes, le mouvement, les distances, la couleur... Mais ces processus sont inconscients. Vous ne voyez qu'un enfant en train de jouer au ballon sur la plage. Des recherches récentes suggèrent que cette unité de la perception, sans système centralisé de coordination « Il n'y a pas d'aire en chef » , comme le dit Gerald Edelman, pourrait essentiellement être le résultat de milliers de connexions réciproques entre aires spécialisées, particulièrement dans le système thalamo-cortical. Le thalamus est une formation qui a évolué avec le cortex. Toutes les informations sensorielles qui arrivent au cortex passent par le thalamus, où elles sont sélectionnées. De plus, beaucoup des connexions entre les différentes aires du cortex passent également par le thalamus17.

Boucles lentes. Il s'agit là de boucles rapides. La description se complique si on intègre l'existence de milliers d'autres boucles, « lentes » et inconscientes, qui partent du cortex, passent par les ganglions de la base ou le cervelet deux structures intervenant notamment dans la planification et dans le contrôle des mouvements, puis par le thalamus, avant de revenir au cortex. D'autres boucles encore passent par l'hippocampe une autre structure, liée à la mémoire à long terme. L'un des rôles de ces boucles pourrait être de permettre une sorte de « jeu des vingt questions » sélectionnant les informations les plus pertinentes pour une tâche donnée. Le délai de transmission de l'information à travers chacune de ces boucles est de l'ordre de 150 ms. Comment le système converge-t-il malgré ces délais ?

Intrinsèquement, accumulations et combinaisons d'éléments stables n'ont aucune raison d'être stables, et donc d'être retenues à l'étape suivante de l'évolution ou du développement. D'où notre hypothèse que l'évolution favorise une forme particulière de stabilité, automatiquement préservée en combinaison. Une telle forme de stabilité peut être caractérisée mathématiquement. Cette propriété, dite de contraction, fournit également un mécanisme très simple de construction progressive de systèmes robotiques arbitrairement complexes à partir d'un grand nombre de sous-systèmes eux-mêmes contractants, en sachant que la stabilité et la convergence des combinaisons seront automatiquement garanties18.

Plus spécifiquement, un système dynamique non linéaire est contractant s'il « oublie » exponentiellement ses conditions initiales. Autrement dit, si l'on perturbe temporairement un tel système, il reviendra à son comportement nominal - il reprendra ce qu'il était en train de faire - en un temps donné. On peut montrer que ce type de système peut être caractérisé par des conditions mathématiques relativement simples. Mais surtout que la propriété de contraction est automatiquement préservée par toute combinaison parallèle, en série ou hiérarchique, et certains types de rétroaction ou recombinaison dynamique de sous-systèmes eux-mêmes contractants. Permettant du coup de jouer au Lego avec des systèmes dynamiques19.

Remarquons qu'au moins pour des petites perturbations, un tel type de robustesse est en fait une condition nécessaire à tout apprentissage : un système dont les réponses seraient fondamentalement différentes à chaque essai serait incompréhensible.

Revenons à la grenouille d'Emilio Bizzi. L'architecture simplifiée mise à jour est intéressante intuitivement, car elle réduit considérablement la dimension et donc la complexité des problèmes d'apprentissage et de planification. Mathématiquement, ce type d'architecture est proche du concept - très classique en robotique - de champs de potentiels, où l'on utilise les moteurs du robot pour créer des « ressorts » virtuels dans des problèmes de navigation et de contrôle. Mais il en est aussi différent, de par la modulation temporelle des primitives, elle-même le résultat de processus dynamiques en amont. On peut montrer que chacune des primitives motrices de la grenouille vérifie la propriété de contraction, et donc que toutes ces combinaisons, parallèles et hiérarchisées, sont automatiquement stables.

Les signaux mesurés dans le système nerveux, par exemple ceux impliqués dans le contrôle du mouvement, correspondent rarement à des quantités physiques « pures », mais plutôt à des mélanges2, par exemple de positions et de vitesses. Alors qu' a priori ces signaux composites pourraient paraître mystérieux ou même être des imperfections, ils relèvent sans doute de bonnes raisons mathématiques. En effet, on peut montrer que l'utilisation de combinaisons judicieuses de variables peut réduire très sensiblement la complexité des problèmes d'estimation et de contrôle, et même réduire l'effet des retards de transmission de l'information.

En théorie du contrôle, par exemple, on utilise souvent des variables dites « de glissement » sliding variables , combinaisons linéaires d'une quantité et de ses dérivées temporelles. Ces combinaisons peuvent être facilement choisies de façon à réduire un problème d'ordre quelconque à un problème du premier ordre, beaucoup plus simple à résoudre. Elles correspondent à créer mathématiquement des séries de modules contractants.

D'autres problèmes que le système nerveux doit résoudre sont essentiellement identiques à des problèmes résolus par les ingénieurs. Dans le système vestibulaire humain l'oreille interne, par exemple, les « otolithes » mesurent l'accélération linéaire, et les « canaux semi-circulaires » mesurent la vitesse angulaire au moyen d'une mesure tres filtrée de l'accélération angulaire. Cette configuration est essentiellement la même que dans les systèmes dits strapdown de navigation inertielle sur les avions modernes, où un algorithme classique utilise ces mêmes mesures pour estimer la position et l'orientation de l'avion.

Faculté de prédire. Une notion essentielle à prendre en compte est la faculté de prédire2,3. Prédire est l'une des principales activités du cerveau. On la retrouve dans l'anticipation de la trajectoire d'une balle à attraper20, l'évitement d'obstacles mobiles, la préparation du corps à l'éveil dans les dernières heures de la nuit, voire dans l'aberrante efficacité de l'effet placebo plus de 30 % dans la plupart des maladies bénignes.

Prédire joue également un rôle fondamental dans la perception active orienter le regard, par exemple et l'attention. Dans le système nerveux, l'information est sélectionnée, filtrée, ou simplifiée à chaque relais sensoriel. Si l'on considère par exemple la partie du thalamus correspondant à la vision, moins de 10 % des synapses amènent des informations provenant des yeux et déjà préfiltrées au passage, et toutes les autres synapses servent à moduler ces informations17 !

Du point de vue mathématique, toutes ces questions relèvent de la théorie des observateurs, qui sont des algorithmes utilisés pour calculer ou pour prédire l'état interne d'un système en général non linéaire à partir de mesures partielles, souvent externes et bruitées. Typiquement, un observateur se compose d'une simulation du système utilisant un « modèle interne » peut-être approximatif, guidée et corrigée par les mesures prises sur le système. Dans les problèmes de perception active et sous certaines conditions, l'observateur permet aussi de sélectionner, a priori , la mesure ou la combinaison fusion de mesures à effectuer qui seront les plus utiles pour améliorer l'estimation de l'état du système à un instant donné, une idée inspirée du système nerveux et utilisée aujourd'hui dans les systèmes de navigation automobile automatique.

Parce qu'ils se fondent sur des mesures partielles, les observateurs permettent aussi de généraliser à des processus dynamiques la notion de mémoire adressable par le contenu content-addressable memory , chère aux amateurs de réseaux de neurones artificiels. Par exemple, une personne peut être reconnue à partir seulement d'une image de ses yeux, un concerto de Ravel à partir des premières mesures. Et, dans un processus physiologique minutieusement décrit, élaboré sur le plus archaïque de nos sens, la madeleine de Proust conduit automatiquement aux huit volumes de la Recherche .

Pour le problème de l'unité de la perception, la notion de contraction suggère un modèle possible pour expliquer la convergence globale des interactions rapides dans le système thalamo-cortical et la variation régulière de la perception au fur et à mesure que les données sensorielles changent : il suffirait que la dynamique de chacune des aires impliquées soit contractante. Inversement, le principe d'un vaste réseau de systèmes contractants spécialisés, totalement décentralisé mais globalement convergent, peut être utilisé dans un système artificiel pour intégrer diverses informations sensorielles et algorithmes de traitement. De plus, on peut montrer que ces boucles d'interaction sont un moyen particulièrement efficace et rapide de partager le traitement de l'information entre divers systèmes, puisque le temps de réponse de l'ensemble ne dépasse pas celui du système le plus lent. Cette rapidité contraste fortement avec celle d'une architecture centralisée ou hiérarchisée, où les temps de réponse s'accumulent et deviennent totalement prohibitifs pour de grands systèmes.

Téléprésence. Petite note historique : en Union soviétique, les discours fleuve annuels sur le socialisme scientifique ont suivi, littéralement, l'évolution de la cybernétique interprétée au sens large comme science du « gouvernement » et ont donc vu apparaître au début des années 1980 les ancêtres des systèmes décentralisés que nous venons de décrire. On connaît la suite.

Un problème similaire à celui des boucles lentes se rencontre en téléprésence, où des délais de transmission non négligeables entre robot-maître et robot-esclave créent d'importants problèmes de stabilité. L'une des façons de le résoudre est d'utiliser pour les transmissions un type particulier de variable composite, qui revient à ce que chaque transmission simule une onde dans une poutre mécanique virtuelle. En effet, une poutre transmet des ondes dans deux directions avec des délais, mais est naturellement stable. Le cerveau utilise-t-il de telles combinaisons dans ses boucles lentes14,18,21 ?

Ce type d'architecture et de telles « variables d'onde » pourraient également être exploités dans d'autres systèmes artificiels. Par exemple, dans les problèmes de calcul asynchrone distribué, où des milliers d'ordinateurs, communiquant entre eux par Internet, doivent être coordonnés pour résoudre un problème commun.

Par Jean-Jacques Slotine

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google