ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA TRIBOLOGIE

 

 

 

 

 

 

 

Texte de la 597 e conférence de l'Université de tous les savoirs prononcée le 19 juillet 2005

Par Lydéric Bocquet: « Approche physique du frottement »

La tribologie est la science des frottements. Un « frottement » intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est de fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement de craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., etc. On pourrait multiplier les exemples connus de tous. Le frottement est ainsi intimement associé à la perception de notre environnement immédiat. Au cours de l'histoire humaine, les efforts pour s'en affranchir ont d'ailleurs été un facteur de progrès considérable, depuis l'invention de la roue plus de 3000 ans avant Jésus-Christ, jusqu'aux développements technologiques les plus récents dans la recherche de nouveaux matériaux (par exemple les composites céramiques pour la réalisation de prothèses artificielles). L'augmentation des performances techniques passe souvent par le développement de matériaux spécifiques qui permettent de diminuer les efforts de frottement : on limite ainsi l'usure, tout en réduisant la consommation énergétique, et en limitant le vieillissement des pièces. Dans d'autres domaines, l'effort est inversement plutôt concentré sur une augmentation du frottement, par exemple dans les dispositifs de freinage, ou les composites constituants les freins.

Les sciences du frottement sont donc intimement liées au développement technologique, tournées vers l'application. Pourtant c'est un domaine qui continue de soulever de nombreuses questions au niveau le plus fondamental. L'origine même du frottement reste largement incomprise et suscite de nombreuses études au niveau mondial, avec des découvertes récentes très prometteuses.

Des lois simples pour des phénomènes complexes -

La plupart des phénomènes associés au frottement peuvent se comprendre sur la base des lois phénoménologiques du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant). Ces lois empiriques font intervenir une quantité clef : le coefficient de frottement, coefficient sans dimension que l'on note en général m. Plaçons un objet sur une surface plane : par exemple un kilo de sucre sur une table. Pour déplacer cet objet, de poids P (la masse multipliée par la constante de gravité, g=9.8 m/s2), il faut exercer une force FT parallèlement à la surface de la table. Mais l'expérience montre que cet objet ne se déplacera pas tant que la force FT est inférieure à une force minimale. De plus Amontons et Coulomb ont montré que cette force minimale est directement proportionnelle à la force normale, donc ici au poids : autrement dit, l'objet ne se déplace pas tant que

|FT |S |P|,

mS définissant le « coefficient de frottement statique ». D'autre part, si l'objet se déplace maintenant à vitesse constante sur la surface, l'expérience montre dans ce cas que la force de frottement tangentielle subie par l'objet est également proportionnelle à la force normale et (quasiment) indépendante de la vitesse :

|FT | = mD |P|,

mD définissant le « coefficient de frottement dynamique ». De façon générale on mesure que mD est plus petit que mS. De plus, Amontons et Coulomb, mais également Léonard de Vinci, ont mis en évidence que ces coefficients mS et mD ne dépendent pas de l'aire de contact de l'objet frottant (voir figure 3) : que l'on pose le kilo de sucre bien à plat ou sur la tranche, la force de frottement est la même, ce qui est assez peu conforme à l'intuition ! Nous reviendrons plus loin sur ce « mystère des surfaces », qui n'a été élucidé qu'assez récemment.

Un autre fait étonnant concerne la valeur typique de ces coefficients de frottement, qui s'écarte assez peu de m~0.3, pour des surfaces très différentes les unes des autres. La technologie permet toutefois de concevoir des surfaces avec des coefficients de frottement soit bien plus petits (m~0.001) soit plus grand (m > 1).

Le stick-slip, du violon aux tremblements de terre -

Ces lois simples permettent de rationaliser beaucoup des phénomènes observés pour les objets frottants. Nous nous attardons en particulier sur l'une des manifestations les plus marquantes du frottement, le stick-slip. Cette expression anglophone traduit parfaitement le phénomène, le stick-slip caractérisant un mouvement saccadé. Ce type de mouvement est observé lorsque l'on tire sur un objet frottant par l'intermédiaire d'un ressort : par exemple un paquet de sucre tiré par un élastique. Le mouvement de l'objet qui en résulte n'est en général pas uniforme mais saccadé : avec des périodes où l'objet résiste et ne bouge pas (« stick ») ; puis des périodes plus courtes où le seuil de résistance est dépassé et l'objet glisse sur une distance importante (« slip »). Les lois de Amontons-Coulomb permettent d'en comprendre les mécanismes élémentaires, et montrent que l'origine du « stick-slip » dans ce système mécanique simple {objet-ressort} est liée à l'inégalité des coefficients de frottement soulignée précédemment mD S. Les deux phases du mouvement reflètent ainsi deux états distincts du système : la phase statique (« stick ») est sous contrôle du frottement statique entre l'objet et la surface, tandis que la phase de glissement (« slip ») correspond au mouvement presque libre de l'objet sous l'action du ressort.

Cette dynamique saccadée se retrouve de façon générique dans des phénomènes pourtant très différents : du grincement des portes aux tremblements de terre, en passant par la mise en vibration d'une corde de violoncelle sous le frottement d'un archer. Même si ils se produisent à des échelles spatiales très différentes, ces phénomènes sont tous associés à une dynamique intrinsèque de type « stick-slip », associant les deux éléments mécaniques clefs : un corps frottant et un « ressort ». Dans le cas des instruments à cordes frottés, ces deux éléments sont aisés à identifier : le frottement se déroule à l'interface entre les crins de l'archer et la corde de l'instrument (via la colophane, résine qui augmente le frottement), tandis que la corde joue le rôle du « ressort ». Le mouvement continu de l'archer provoque une suite de petits déplacements de la corde, telle une multitude de pizzicati, qui produit in fine ce son velouté caractéristique des cordes frottées. Dans le cas des tremblements de terre, le frottement a lieu à l'interface entre plaques continentales qui jouent donc à la fois le rôle d'objet frottant (à leurs interfaces) et de ressort (dans leur globalité). Le déplacement des plaques continentales les unes par rapport aux autres pendant la phase stick conduit à l'accumulation de contraintes gigantesques à l'interface entre plaques. Le relâchement brutal de ces contraintes lorsque le seuil de résistance est atteint libère une énergie considérable et destructrice pendant la phase slip. Ici encore, le caractère saccadé du phénomène conduit à la production de vibrations, sous la forme d'ondes sismiques qui sont enregistrées par les sismographes. Si les mécanismes de base sont simples, la prédiction des tremblements de terre s'avère extrêmement complexe et continue à susciter des recherches poussées.

De l'origine des lois de Amontons-Coulomb -

Les lois du frottement énoncées précédemment sont très simples dans leur formulation, qui ne nécessite que l'introduction de coefficients sans dimension (mS et mD). Pourtant l'évidence apparente de ces lois cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, et cette liste n'est pas exhaustive. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes mis en jeu, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans.

Les premières tentatives d'explication des lois du frottement ont été proposées par Belidor et Coulomb au 18ème siècle, qui ont associé l'existence du frottement à la rugosité des surfaces. L'idée originale se base sur l'emboîtement des rugosités de surface qui conduit à l'existence d'un coefficient de frottement (voir Figure 1). Une schématisation simple de cette idée est représentée sur la figure 1 (droite), avec deux surfaces présentant des rugosités en dents de scie. Si l'on applique une force normale N sur la surface supérieure et une force horizontale T, un bilan des forces horizontales permet de montrer que l'équilibre des forces est rompu lorsque la force tangentielle est supérieure à une valeur de rupture : Tmax=mS |N|, définissant ainsi un coefficient de frottement statique mS=tan(a). L'angle a est ici la pente de la rugosité par rapport à l'horizontale. Aussi simpliste qu'il soit, cet argument permet de lier le frottement (statique) aux caractéristiques de la rugosité. De plus les valeurs expérimentales typiques des coefficients de frottement statique, de l'ordre de 0.3, correspondent à des pentes de la rugosité de surface de l'ordre de 15-20 degrés, ce qui est tout à fait compatible avec les caractéristiques typiques que l'on peut mesurer pour les rugosités de surfaces.

Cet argument repose cependant sur une hypothèse implicite : l'emboîtement parfait entre les rugosités des deux surfaces, tel que cela est illustré de façon schématique sur la figure 1, et sur la figure 2 (gauche) pour une surface schématique à l'échelle « atomique ». On parle dans ce cas de surfaces commensurables. Ca n'est bien sûr pas le cas en général dans la nature : même à l'échelle atomique, deux surfaces idéales, telles que celles qui sont représentés à l'échelle atomique sur la figure 2, présentent des légères différences de distance interatomique. Une légère disparité suffit à rendre très irrégulière la répartition des points de contact entre les deux surfaces (voir figure 2 droite), contrairement au cas commensurable (figure 2 gauche). On parle alors de surfaces incommensurables. On peut montrer par un raisonnement similaire à celui mené précédemment que la répartition irrégulière des contacts entre surfaces incommensurables conduit à l'annulation des

Figure 2 : Contact schématique entre deux surfaces (les disques esquissant les atomes de chaque surface en contact. (gauche) Deux surfaces commensurables en contact. Les points de contact entre surfaces (étoiles) sont répartis régulièrement. (droite) Deux surfaces incommensurables en contact. Les contacts entre surfaces (étoiles) se répartissent de façon irrégulière.
forces de frottement tangentielles : la force de frottement statique est identiquement nulle entre surfaces incommensurables !

Autrement dit, on aboutit à la conclusion que le frottement entre deux surfaces commensurables est non-nul, tandis qu'il s'annule exactement si ces deux surfaces sont incommensurables.

Ce résultat très étonnant a été confirmé pour la première fois dans des expériences très récentes par le groupe de M. Hirano et collaborateurs au japon [Hirano1997], puis confirmé par d'autre groupes de recherche, notamment pour des surfaces de graphite [Dienwiebel 2004].

Ce phénomène est désormais connu sous le nom de « supra friction » et a ouvert une voie de recherche très prometteuse pour le développement de surfaces avec des frottements très faibles, le graal des tribologues.

Cependant, la suprafriction est pour l'instant observée dans des conditions drastiques, assez éloignées des conditions de la vie réelle. Ces mesures sont notamment réalisées en plaçant ces surfaces dans une enceinte où un vide très poussé est réalisé. On supprime ainsi tout contaminant présent dans l'atmosphère (poussière, molécule organique, ...) qui, comme on va le voir, supprimerait cet état de suprafriction et conduirait à une force de frottement non-nulle. Il reste donc encore du chemin à parcourir pour obtenir des surfaces « supra-frottantes » dans des conditions d'utilisations technologiques, où il est difficile de supprimer la présence de polluants.

Le « troisième corps »- le grain de sable dans les rouages

La remarque précédente pointe le rôle joué dans le frottement par les contaminants et plus généralement les corps intersticiels. Ce rôle a été reconnu assez récemment dans l'histoire de la tribologie. Pourtant les corps intersticiels constituent un ingrédient incontournable du frottement. En effet, les surfaces laissées à l'air libre se polluent très rapidement sous l'effet de poussières, molécules organiques, de l'humidité, etc. présentes dans l'air. De plus le contact frottant entre deux surfaces génère lui-même des débris d'usure, grains de matière de tailles variées qui vont se retrouver dans les interstices à l'interface entre les deux surfaces. Une illustration simple est la trace laissée par une craie sur un tableau, ou d'un pneu lors du freinage.

Or la présence de contaminants modifie profondément le frottement, et notamment le scénario discuté précédemment en ce qui concerne la commensurabilité des surfaces frottantes. Des travaux récents utilisant des simulations numériques de ces processus à l'échelle moléculaire ont montré que la présence de quelques contaminants dans l'interstice entre les deux surfaces suffit à rétablir systématiquement un coefficient de frottement non-nul, même dans le cas où les deux surfaces sont incommensurables [Robbins]. Les contaminants mobiles viennent se placer dans les interstices laissés libres entre les surfaces et contribuent à rétablir une « commensurabilité effective » des surfaces, sous la forme d'un emboîtement partiel. Le coefficient de frottement prend alors une valeur non nulle, même pour des surfaces incommensurables. Les contaminants viennent jouer le rôle du « grain de sable » dans les rouages.

A cause de ces corps intersticiels, le contact entre deux surfaces dans des conditions de la vie quotidienne a donc assez peu à voir avec l'idée d'une assemblée d'atomes telle qu'elle est représentée sur la figure 2. Le « frottement idéal » qui y est représenté n'existe que dans des conditions très particulières. Ce résultat donne donc une perspective différente concernant l'origine du frottement entre surfaces, en pointant la contribution essentielle des impuretés.

Pour prendre en compte ces impuretés, les tribologues ont introduit la notion de « 3ème corps », qui regroupe l'ensemble des corps situés entre les deux surfaces en contacts (les deux premiers corps). Un problème de frottement doit donc en principe prendre en compte ces trois corps et les échanges (de matière, chaleur, etc.) qui peuvent exister entre eux. On voit ici poindre la complexité du problème de frottement. Les lois de Coulomb et l'origine même du frottement prennent leur origine non pas dans un seul phénomène bien identifié à l'échelle atomique, mais résulte d'un ensemble de phénomènes couplés.

Le mystère des surfaces -


Figure 3 : dessins de Léonard de Vinci, illustrant ses expériences démontrant l'indépendance du coefficient de frottement vis-à-vis de l'aire de contact entre le corps frottant et la surface (tiré de [Dowson]).
Cette complexité sous-jacente se retrouve dans une autre manifestation des lois de Amontons-Coulomb : l'indépendance des coefficients de frottement vis-à-vis de l'aire de contact. Léonard de Vinci avait déja observé ce phénomène, comme le montre l'une de ses planches (figure 3). Quelque soit la surface de contact de l'objet frottant, la force de frottement est identique. Ce résultat très contre-intuitif a défié l'imagination des scientifiques plusieurs siècles avant que Bowden et Tabor au Cavendish à Cambridge n'en proposent une explication dans les années 1950.

La clef de ce phénomène est une nouvelle fois la rugosité de surface. Comme on le montre schématiquement sur la figure 4, à cause de la rugosité, les zones de contact réel entre les surfaces sont bien plus petites que l'aire de contact apparente entre les surfaces, telle qu'elle nous apparait de visu.


Aréelle
Figure 4 : Illustration de deux surfaces rugueuses en contact. L'aire de contact réelle (Aréelle) entre les surfaces est bien plus petite que l'aire apparente (Aapp).
Aapp
Cette distinction entre surface réelle et surface apparente a été démontré par visualisation optique directe de la surface de contact, notamment par Dieterich et Kilgore et plus récemment par Ronsin et Baumberger. Cette observation donne une image de zones de contact réel très clairsemées, avec une taille typique pour chaque zone de l'ordre du micron. Ainsi l'aire de contact réelle entre deux objets macroscopiques ne représente typiquement que 0.1 % de l'aire de contact totale : Aréelle /Aapp~0.001.

Une conséquence immédiate est que la force normale (FN) à laquelle on soumet l'objet ne se répartit que sur les aspérités en contact et non sur l'ensemble de la surface de l'objet. En conséquence la pression au sein de ces contacts, c'est-à-dire la force par unité de surface, Pcontact=FN/Aréelle , est bien plus grande que celle que l'on attendrait a priori si la force FN se répartissait sur l'ensemble de la surface, Papp=FN/Aapp. Or aux très grandes pressions, un matériau devient en général plastique, c'est à dire qu'il s'écrase sans que sa pression ne varie. La valeur de la pression à laquelle se déroule ce phénomène est appelée dureté du matériau, que l'on notera H. La pression au sein des contacts étant fixée à H, on en déduit alors que l'aire réelle du contact est directement proportionnelle à la force appliquée : Aréelle = FN/H. Autrement dit, plus la force appliquée est grande, plus le contact réel est grand, ce qui est finalement assez intuitif.

Ce mécanisme permet de retrouver les lois de Coulomb. En effet, l'aire frottante étant l'aire réelle, on s'attend à ce que la force de frottement tangentielle soit proportionnelle à cette aire : Ffrottement = g Aréelle. Le coefficient de proportionalité g a les dimensions d'une force par unité de surface (donc d'une pression). On note plus généralement ce coefficient sY, « contrainte de cisaillement ». En utilisant l'expression précédente pour l'aire de contact réelle, Aréelle = FN/H, on aboutit à une force de frottement qui prend la forme d'une loi de Amontons-Coulomb : Ffrottement = m FN, avec m=sY/H qui est bien une caractéristique du matériau à la surface.

Cette explication de Bowden et Tabor au phénomène de frottement permet donc de comprendre la proportionalité de la force de frottement vis-à-vis de la force normale, mais également l'indépendance du coefficient de frottement vis-à-vis de la surface apparente de contact.

Cette explication repose cependant sur l'hypothèse de déformation plastique des aspérités, qui, si elle est pertinente pour des métaux, pose question pour d'autres matériaux (comme par exemple les élastomères). De fait, Greenwood et Williamson ont montré dans les années 1960 que le point clef du raisonnement précédent, c'est à dire la proportionalité entre aire de contact réelle et force normale FN, est maintenu même dans le cadre d'aspérités qui se déforment élastiquement, par un effet de moyenne statistique sur l'ensemble des aspérités en contact.

Une autre hypothèse implicite du raisonnement précédent est que la contrainte de cisaillement que nous avons introduit, sY, est une caractéristique des matériaux, indépendante des conditions du frottement, notamment de la vitesse. Ce point mérite de s'y attarder un peu plus longuement. La contrainte de cisaillement sY est associée aux propriétés mécaniques du contact à l'interface entre aspérités de tailles micrométriques. Des expériences récentes ont pu sonder indirectement les propriétés mécaniques de ces jonctions [Bureau]. Ces expériences suggèrent qu'à la jonction entre deux aspérités en contact, le matériaux se comporte comme un milieu « vitreux » et que la contrainte seuil est intimement associée à ces propriétés vitreuses. Qu'est-ce qu'on appelle un « milieux vitreux » ? Ce sont des milieux dont la structure microscopique est désordonnée (comme un liquide), mais figée (comme un solide). Leur propriétés sont intermédiaires entre celles d'un liquide et celles d'un solide : entre autres, ils ne coulent pas au repos (comme des solides), mais au delà d'une contrainte minimale appliquée, ils s'écoulent (comme des liquides). De tels matériaux sont omniprésents dans notre vie quotidienne : verre, mousses alimentaires, émulsions (mayonnaise), gels, milieux granulaires, etc. Ce sont justement ces propriétés mi-liquide, mi-solide qui constituent leur intérêt industriel (et notamment agro-alimentaire). Au delà des intérêts industriels évidents, ces milieux vitreux font actuellement l'objet d'une recherche fondamentale très intense, avec des progrès récents dans la compréhension des mécanismes élémentaires associés à leur façon très particulière de couler.

La question du frottement se trouve précisement liée à la compréhension des processus d'écoulement de tels milieux, pourtant à une tout autre échelle spatiale. Comprendre l'origine de la contrainte de cisaillement à l'échelle (quasi-nanométrique) des jonctions entre aspérités en contact rejoint ainsi la compréhension des propriétés d'écoulement de la mayonnaise ! Au delà de l'anecdote, cette compréhension soulève dans les deux cas des problèmes fondamentaux très délicats.

La lubrification -

Jusqu'à présent, nous avons concentré notre discussion sur le frottement dit « sec », qui correspond à la situation où les deux surfaces frottantes sont en contact direct. Mais du point de vue technologique et pratique, cette situation est à proscrire si l'on veut un frottement faible. Cela apparaît comme une évidence pratique qu'il faut lubrifier les pièces mécaniques et « mettre de l'huile dans les rouages ». Un moteur à explosion qui « tourne » sans huile va chauffer, jusqu'à subir des dommages définitifs. La diminution du frottement par l'ajout de lubrifiants est connu depuis des milliers d'années, comme le démontre ce bas-relief égyptien représenté sur la figure 5, datant de 1880 avant Jésus-Christ (document tiré de [Dowson]). Parmi les centaines d'hommes occupés à déplacer le traîneau sur lequel repose la statue, un personnage a un rôle bien particulier puisqu'on le voit verser du liquide devant le traîneau déplacé afin de lubrifier le contact entre le traîneau et le sol.


Figure 5 : Bas-relief égyptien montrant une statue tirée par 170 hommes. Le personnage encerclé verse du liquide pour lubrifier le frottement entre le support de la statue et le sol (tiré de [Dowson]).
Un autre exemple est la lubrification des articulations du corps humain. Par exemple, au niveau du genou, ce rôle du lubrifiant est tenu par le liquide synovial, liquide rendu très visqueux par la présence de molécules organiques très longues (l'acide hyaluronique). A l'inverse certaines pathologies, comme l'arthrose, sont associées à la baisse du pouvoir lubrifiant de ce liquide, notamment par la baisse de la viscosité.

Il apparaît donc naturel d'utiliser des liquides très visqueux comme lubrifiants (huiles, ou graisses). Ainsi, l'eau, liquide très peu visqueux, est en général un très mauvais lubrifiant. On peut s'en convaincre par une expérience très simple : des mains mouillées par de l'eau et frottées l'une contre l'autre maintiennent un fort frottement lors du mouvement, tandis que quelques gouttes d'huile suffisent à rendre les mains complètement glissantes. Si ce phénomène paraît intuitivement évident, il est toutefois étonnant de réaliser que c'est le liquide le moins fluide qui conduit au frottement le plus réduit.

Attardons-nous sur le rôle du lubrifiant dans le frottement. L'action du lubrifiant est double : d'une part le frottement entre les deux objets se réalise via un liquide et non plus directement sous la forme d'un frottement « sec » entre solides, ce qui conduit à un frottement fluide beaucoup plus faible ; et d'autre part, et c'est le point crucial, il permet d'éviter le contact solide direct. Autrement dit, l'un des rôles du lubrifiant est de maintenir la présence d'un film liquide entre les deux parois solides, empêchant ainsi les aspérités solides d'entrer en contact direct.

C'est justement là où va intervenir la viscosité. Un liquide visqueux coule « difficilement ». Lorsque l'on va presser les deux surfaces l'une contre l'autre (par exemple les mains dans l'exemple précédent), le liquide le plus visqueux sera le plus difficile à déplacer. Il se maintiendra donc sous la forme d'un film liquide entre les deux surfaces et c'est ce film liquide maintenu qui assurera le frottement fluide, donc la lubrification. A l'inverse, l'eau, fluide peu visqueux, va disparaître du contact lorsque les deux surfaces seront pressées l'une contre l'autre : un contact solide direct sera rétabli et l'on retrouve ainsi un frottement « sec » avec un coefficient de frottement élevé.

D'autres propriétés du lubrifiant vont également jouer un rôle dans ce mécanisme, notamment la « mouillabilité », c'est à dire l'affinité du liquide vis-à-vis de la surface, qui va influer sur la capacité du lubrifiant à recouvrir la surface et ses anfractuosités.

Le lubrifiant doit donc assurer des fonctions relativement antagonistes : l'une est d'être suffisamment fluide pour assurer un faible frottement, l'autre d'être suffisamment visqueux pour éviter le contact direct. Une huile de type moteur est donc un mélange complexe, contenant des dizaines d'additifs dont l'assemblage permet au final d'atteindre ces deux objectifs de façon optimale.

Conclusions :

Dans ce texte, nous avons présenté quelques points intervenant dans le problème du frottement entre solide. En aucun cas, il ne s'agit ici d'un panorama exhaustif et nous n'avons pas parlé ici de nombre de phénomènes également présent dans les problèmes de frottement, comme la physico-chimie des surfaces, la thermique, le vieillissement, l'usure, l'abrasion, etc...qui auraient tout aussi bien nécessités une discussion approfondie.

La tribologie est ainsi une science par essence pluridisciplinaire. Le phénomène de frottement résulte non pas d'un mécanisme unique, mais d'une multitude de phénomènes complexe et souvent couplés, qui aboutissent in fine aux lois pourtant simples d'Amontons-Coulomb.

C'est également vrai dans l'approche scientifique de ces problèmes. La science des frottements associe ingénieurs et scientifiques, recherche appliquée et fondamentale. Ces deux approches sont par nature couplées. Ainsi, si les questions soulevées sont anciennes, c'est un domaine dans lequel les derniers développements fondamentaux ont permis de mettre en évidence des phénomènes complètement inattendus, laissant augurer de progrès technologiques important dans un avenir proche.

Références :

[Bowden-Tabor] F.P. Bowden and D. Tabor, « The friction and lubrication of solids » (Clarendon Press, London, 1950).

[Bureau] L. Bureau, T. Baumberger, C. Caroli, « Jamming creep at a frictional interface », Physical Review E, 64, 031502 (2001).

[Dowson] D. Dowson « History of Tribology » (Longman, New York, 1979).

[Dienwiebel] M. Dienwiebel et al., « Superlubricity of Graphite », Physical Review Letters, 92, (2004).

[Hirano1997] M. Hirano, K. Shinjo, R. Kaneko and Y. Murata, « Observation of superlubricity by scanning tunneling microscopy », Physical Review Letters, 78, pp.1448-1451 (1997)

[Robbins] G. He, M. Müser, M. Robbins « Adsorbed Layer and the origin of static friction », Science 284 1650-1652 (1999).

 

DOCUMENT       canal-u.tv     LIEN 

 
 
 
 

LES LIMITES DE LA CONNAISSANCE PHYSIQUE

 

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 26 juillet 2000.


La connaissance physique a-t-elle des limites ?
par Jean-Marc Lévy-Leblond
Il n’est pas indifférent que dans ce cycle de conférences sur “tous les savoirs”, la question des limites de la connaissance n’ait été posée qu’à la physique. C’est sans doute son statut implicite de science modèle qui lui vaut cet honneur. C’est aussi que, depuis le début du XXe siècle, la physique s’est à elle-même posé la question. « L’homme devrait garder son humilité devant la nature puisque la précision avec laquelle il peut l’observer rencontre des limitations intrinsèques. » Ainsi l’Encyclopædia Britannica conclut-elle son article sur le “principe d’incertitude” de Heisenberg. De fait, la révolution quantique a donné lieu à d’abondantes exégèses sur ce thème : l’impossibilité de mesurer à la fois la position et la vitesse des corpuscules signalerait une limite absolue de nos connaissances. La Nature elle-même refuserait de se laisser dévoiler, et notre science la plus avancée buterait ainsi sur des frontières infranchissables. L’impossibilité de dépasser la vitesse de la lumière, mise en évidence par Einstein, a été interprétée dans la même veine : nous ne pouvons savoir ce qui s’est passé sur le Soleil durant les huit dernières minutes, faute qu’aucun signal ne puisse nous en prévenir. Mais avec un recul de quelques décennies, cette conception résignée, traduite par des vocables qui paraissent aujourd’hui pour le moins inadaptés (relativité, incertitudes), a perdu sa pertinence. Loin d’imposer des bornes à notre savoir, ces découvertes ont au contraire permis à notre compréhension de considérables progrès, en réorientant nos conceptualisations et nos interrogations. Elles ont montré l’inadéquation au réel de nos formulations antérieures. Si certaines questions (« Que se passait-il sur le Soleil il y a deux minutes ? », « Où est l’électron et à quelle vitesse va-t-il ? ») n’admettent pas de réponses, c’est qu’elles sont dépourvues de pertinence. De même, la question « Qu’y a-t-il sur la Terre à 30 000 kilomètres au Sud de Paris ? » est-elle rendue caduque par la rotondité de la Terre et la connaissance de sa circonférence (40 000 kilomètres) ; dira-t-on pour autant que cette découverte impose une limitation à la géographie ? Les mutations théoriques de la physique du XXe siècle n’ont nullement découvert des limites intrinsèques à notre connaissance scientifique, mais, bien au contraire, lui ont ouvert de nouveaux espaces. En témoigne l’approfondissement considérable de notre maîtrise, intellectuelle mais aussi matérielle, du monde quantique. Reste que la persistance des interprétations négatives et des métaphores abusives (voir un récent article du Monde sur la « politique quantique de Jacques Chirac » !) montre bien cependant une limitation effective de nos connaissances – nous y reviendrons.
Au cours des dernières décennies, le défaitisme a plutôt cédé la place à un triomphalisme naïf, selon lequel la physique ne rencontrerait aucun obstacle et serait en mesure d’accéder à une connaissance complète de l’univers : le réel obéirait à un petit nombre de lois fondamentales, que nous serions sur le point de découvrir ; c’est le fantasme de la “théorie ultime” ou d’une “théorie du Tout”. La connaissance physique rencontrerait alors, effectivement, ses limites : finie par essence, elle toucherait bientôt à ses bornes, et s’épuiserait dans son succès. Une première réserve devant cette perspective, pourtant entretenue par des physiciens réputés, est suscitée par sa répétitivité : déjà Newton pensait avoir découvert une théorie universelle de la gravitation, capable d’expliquer l’ensemble des phénomènes physiques ; le développement de l’électromagnétisme a fait litière de cette prétention. À la fin du XIXe siècle, un aussi grand esprit que Lord Kelvin considérait que la physique était (presque) terminée – juste avant que l’on ne découvre les interactions nucléaires… Que la physique depuis plus d’un demi-siècle n’ait mis en évidence aucune nouveauté radicale, ne l’autorise en rien à proclamer la clôture du registre des forces essentielles à l’œuvre dans la nature. Mais surtout, l’autosatisfaction des physiciens fondamentalistes repose sur une vision bien pauvre de la réalité : la multiplicité des formes concrètes d’organisation de la matière, la richesse de comportement des innombrables objets de la nature, rend toujours plus large le hiatus entre les explications générales et la compréhension détaillée des faits. Un nombre croissant de phénomènes matériels, récemment découverts (la supraconductivité à haute température) ou connus depuis longtemps (la flottabilité de la glace) restent mal compris, bien que la théorie quantique abstraite qui les sous-tend soit connue. S’il y a une leçon à retenir du XXe siècle, c’est bien la faillite de tout réductionnisme naïf, selon lequel la connaissance théorique remonte nécessairement des principes à leurs manifestations. Une (très éventuelle) “théorie du Tout” ne serait certainement pas une théorie de tout… Le programme qui consiste à « remplacer du visible compliqué par de l’invisible simple » (selon les mots de Francis Perrin) ne saurait prétendre à l’universalité : l’invisible aussi peut être compliqué et, tel le vivant, ne guère se plier aux méthodes éprouvées de la physique – expérimentations dûment reproductibles, formalisation mathématique sophistiquée. C’est dire a fortiori que la physique rencontre effectivement des limites : celles des domaines où elle doit céder la place aux autres sciences. La scientificité ne peut se figer en critères généraux. Malgré ses prétentions à régir l’ensemble de nos connaissances scientifiques, ni son ancienneté, ni sa précision n’évitent à la physique de devoir reconnaître l’autonomie et la souveraineté des autres disciplines.
Mais on ne peut s’en tenir à un point de vue exclusivement épistémologique qui considèrerait la question des limites de la connaissance sous l’angle d’une confrontation abstraite entre la nature et l’esprit. Cet esprit est celui d’humains vivant en des sociétés particulières qui fournissent le cadre où se déroule le processus de connaissance, détermination qui à la fois permet et contraint la recherche de savoir. Il y eut des temps où ce conditionnement était essentiellement idéologique, comme le montre le rôle du christianisme dans la révolution scientifique du XVIIe siècle, rôle à la fois négatif (le procès de Galilée !) et positif (l’idée même du “Grand livre de la Nature”, liée au poids culturel des Écritures). Aujourd’hui prime l’économie. Le succès pratique de la physique au XXe siècle (électronique, nucléaire, etc.) tend à l’assujettir à des programmes à court terme, au détriment de projets plus spéculatifs. En même temps, l’industrie fécondée par la science reflue en son propre sein, conduisant à la “Big Science” dont le gigantisme semble atteindre ses bornes. La proportion des ressources sociales consacrées à la recherche fondamentale plafonne depuis quelques années, pour la première fois en quatre siècles de science moderne. L’abandon par les États-Unis, voici dix ans, de la construction d’un accélérateur de particules géant (SSC), signale ce changement d’ère. Les hésitations du politique devant les projets d’instrumentation scientifique à grande échelle (voir le récent conflit autour du projet de synchrotron “Soleil”) sont désormais la règle, ce qui ne saurait surprendre au vu de leurs budgets, couramment chiffrés en milliards de francs. Autant dire que la connaissance physique, dans certains de ses secteurs traditionnellement les plus prestigieux atteint les limites du socialement acceptable : la recherche du boson de Higgs, aussi excitante soit-elle pour l’esprit (de qui ?), présente un rapport coût/intérêt assez élevé pour que soit justifié son examen critique par la collectivité. Comme pour d’autres projets scientifiques, un ajournement de quelques décennies ne constituerait peut-être pas un retard majeur dans le développement de l’humanité. Après tout, d’autres entreprises humaines atteintes de gigantisme ont connu un coup d’arrêt au plus fort de leur développement. Les pyramides du Haut-empire égyptien et les cathédrales de l’Europe gothique ont laissé la place à des projets plus modestes – mais non moins féconds. Le redéploiement, historiquement bien tardif d’ailleurs, d’une physique à notre échelle (turbulence, matière molle) pointe dans cette direction. Mais on peut comprendre l’amertume des chercheurs devant les difficultés de leurs desseins désintéressés les plus ambitieux, alors que, en même temps, c’est un développement débridé que connaît la poursuite du savoir lorsqu’elle se confond avec celle du profit. Les mêmes phénomènes affectent (plus rapidement et plus vivement encore) les autres sciences, celles de la vie tout particulièrement. Mais la relative ancienneté de la physique permet d’étudier son cas avec quelque lucidité – privilège d’une ancienne aristocratie sur une jeune bourgeoisie.
Pour autant, cette domination et cette limitation de la science par l’économie et la politique n’est pas sans rapports avec ses problèmes épistémiques. Car, s’il est légitime de s’interroger sur les limites de la connaissance, encore faut-il savoir quel sens attribuer au mot “connaissance”. La polysémie de ce terme l’écartèle entre une signification réduite, celle d’un savoir factuel et particulier (la connaissance de la valeur de la vitesse de la lumière, ou la connaissance des éléments du tableau de Mendeleïev), et une signification large, celle d’une compréhension profonde et générique (la connaissance du rôle structurel de la vitesse-limite pour l’espace-temps, ou le rapport entre le tableau de Mendeleïev et la théorie quantique de l’atome). Force est de reconnaître que la physique moderne a accumulé un retard considérable quant à la maîtrise intellectuelle de ses propres découvertes. Bien des pseudo-paradoxes et des formulations insatisfaisantes continuent à la hanter, faute d’une refonte conceptuelle menée à bien ; le plus difficile à comprendre quant aux remarquables développements récents sur la notion de “non-séparabilité” quantique, par exemple, est encore leur considérable délai historique. La sophistication de nos formalismes a grandement crû beaucoup plus vite que notre capacité à en maîtriser le sens non ; déjà Maxwell s’écriait, il y a plus d’un siècle, que « nos équations semblent plus intelligentes que nous ! ». C’est là le contrecoup de la technicisation de la science, et de la division du travail qui s’y accentue, sans parler de la pression productiviste de son organisation sociale. Il est probable que ce déficit de notre connaissance – au sens le plus noble et le plus ambitieux du terme – handicape fortement les possibilités pour la science physique de dépasser certaines de ses difficultés actuelles. Mais si cette limitation a de sérieux effets au sein de la communauté scientifique, elle en a de bien plus graves encore dans la société en général. Comment développer une véritable acculturation de la science si ses praticiens eux-mêmes sont en manque aigu à cet égard ? Et, faute d’une reconquête intellectuelle, peut-on espérer que la science puisse devenir l’objet du débat démocratique dont la nécessité se fait chaque jour plus vive ? Ainsi, l’analyse des limites de la connaissance scientifique exige-t-elle d’abord la reconnaissance des limites de la science.
Bibliographie : Jean-Marc Lévy-Leblond, Aux contraires (l’exercice de la pensée et la pratique de la science), Gallimard, 1996 ; Impasciences, Bayard, 2000.

 

 DOCUMENT       canal-u.tv     LIEN

 

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

 

 
 
 
 

Apprentissage profond : le supercerveau du Net

 

Apprentissage profond : le super cerveau du Net
Gautier Cariou dans mensuel 498
daté avril 2015 -


L'intelligence artificielle s'apprête à bouleverser les réseaux sociaux. Comment ? Grâce à l'apprentissage profond, une discipline émergente qui a franchi récemment un cap décisif.
L'intelligence artificielle (IA) est devenue le nouveau pari de Facebook, Google et Baidu. Depuis deux ans, ces géants du Net y investissent des milliards de dollars et débauchent parmi les meilleurs chercheurs du domaine. Il faut dire que les performances actuelles de l'IA laissent entrevoir des applications aussi inédites que séduisantes pour ces grands groupes. « Les algorithmes d'apprentissage profond, une discipline émergente de l'intelligence artificielle, permettent d'identifier automatiquement et de façon très efficace les images et les vidéos, explique ainsi Yann LeCun, pionnier de l'apprentissage profond et directeur du laboratoire d'intelligence artificielle de Facebook (FAIR). Depuis deux ans, les résultats dans le domaine de la compréhension par la machine du langage naturel, parlé, sont également très prometteurs. De quoi analyser les goûts des utilisateurs de façon plus fine et leur recommander des contenus plus pertinents. »

Si l'intérêt pour l'apprentissage profond (ou deep learning) est relativement récent, la recherche dans ce domaine a débuté dès la fin des années 1980. En 1994, le Français Yann LeCun met au point un algorithme qui permet à un ordinateur de reconnaître automatiquement des mots écrits à la main [1]. Ses travaux sont rapidement exploités à grande échelle dans les lecteurs automatiques de chèques de nombreuses banques américaines. Malgré ce succès, la recherche tombe en désuétude à la fin des années 1990 : la puissance de calcul des ordinateurs est bien trop faible pour améliorer de façon notable les performances des algorithmes d'apprentissage profond.

Il faut attendre une dizaine d'années et le franchissement de cette barrière technologique (lire « L'accélération de la vitesse de calcul », p. 32) pour que l'apprentissage profond remporte l'adhésion de la plupart des spécialistes de la reconnaissance visuelle. Nous sommes en 2012. « L'équipe de Geoffrey Hinton, professeur à l'université de Toronto, au Canada (et engagé depuis par Google dans le groupe de recherche « Google Brain », NDLR), remporte alors haut la main une compétition - ImageNet Large Scale Visual Recognition Challenge - qui permet chaque année à de nombreux laboratoires de confronter leurs algorithmes de reconnaissance d'image et de mesurer leur efficacité sur des milliers d'images », raconte Yann LeCun.

Neurones artificiels
Lorsqu'on présente des images issues d'une banque de données [2] au système de l'équipe canadienne - le seul de la compétition fondé sur l'apprentissage profond-, il parvient à les identifier avec 15 % d'erreurs seulement. Du jamais vu. Le meilleur système concurrent affiche un taux d'erreurs de 26 %. « Ce résultat a impressionné la communauté de la vision informatique. Si bien que, deux ans plus tard, tous les participants utilisaient des algorithmes d'apprentissage profond pour analyser les images. Aujourd'hui, cette technologie égale voire surpasse l'homme dans certaines tâches, comme la reconnaissance des visages. » C'est ainsi qu'en 2014, Facebook présente DeepFace, un programme capable de reconnaître automatiquement un individu sur deux photos différentes avec un taux de réussite de 97,35 % contre 97,53 % en moyenne lorsqu'un homme se prête à l'exercice. Une amélioration de 27 % par rapport à l'état de l'art.

Ce succès dans le domaine de la reconnaissance visuelle s'explique par l'utilisation de ce que l'on appelle des « réseaux de neurones convolutifs », une classe d'algorithmes imaginée par Yann LeCun à la fin des années 1980 [3]. Comme le suggère leur nom, ces réseaux s'inspirent de l'organisation des cellules nerveuses du cerveau, et en particulier du cortex visuel. Lorsque l'oeil observe une scène, une image s'imprime sur la rétine. Des impulsions électriques sont alors transmises vers le cortex visuel qui traite cette information. Des millions de neurones interconnectés échangent des messages, travaillent de concert pour identifier le contenu de la scène.

Les neurones artificiels utilisés en apprentissage profond sont des entités informatiques qui reproduisent de façon très simplifiée l'action de leur analogue biologique. « Concrètement, ce sont des blocs de code informatique qui exécutent des calculs élémentaires : des additions et des multiplications », explique Yoshua Bengio, directeur de l'Institut de Montréal pour les algorithmes d'apprentissage, à l'université de Montréal. Ces neurones artificiels se comptent par millions et sont organisés en plusieurs « couches » successives. Chaque neurone est doté de plusieurs entrées et d'une sortie par lesquelles transite l'information. Les entrées des neurones de la première couche reçoivent les informations élémentaires : des triplets de nombres réels qui correspondent aux couleurs rouge, vert et bleu des pixels de l'image. Leur sortie est quant à elle connectée aux entrées des neurones de la deuxième couche, eux-mêmes connectés aux entrées des neurones de la troisième couche et ainsi de suite.

Le lien entre deux neurones de couches successives (un neurone source et un neurone destinataire) est défini par un « poids synaptique », un nombre réel qui quantifie la force de ce lien. Selon la valeur de ce poids, les signaux envoyés par un neurone source vers un neurone destinataire sont soit amplifiés, soit atténués. Ces signaux sont ensuite additionnés. Si cette somme dépasse un certain seuil fixé au préalable par l'ordinateur, le neurone destinataire envoie alors un signal vers les neurones de la couche suivante. En revanche, si cette valeur est inférieure à ce seuil, le neurone est inhibé : il ne transmet aucun signal. Le cheminement de l'information à travers un réseau de neurones et l'interprétation de cette information par le réseau dépendent donc de la valeur de ces poids synaptiques.

Entraînement à l'identification
Pour identifier un objet dans une image, l'ordinateur utilise un programme informatique qui envoie vers la première couche de neurones des informations élémentaires sur la nature de l'image : la couleur ou le niveau de gris des pixels. « Pris séparément, ces pixels ne contiennent pas d'information pertinente sur la nature de l'image, précise Yann LeCun. Or, dans une image naturelle, la probabilité que des pixels proches possèdent la même couleur est très élevée. La première couche de neurones est donc configurée pour tirer parti de cette particularité statistique et parvient à détecter automatiquement des configurations particulières de pixels, par exemple des contours orientés selon la même direction. »

En sortie de la première couche, ces configurations sont codées sous la forme de vecteurs qui contiennent des informations spécifiques sur la nature de l'objet à identifier. « Ces vecteurs dits "caractéristiques" sont ensuite envoyés vers une seconde couche de neurones qui les combinent et en extraient des motifs plus abstraits : arrangements de contours, parties d'objets, etc. Les neurones des couches suivantes réalisent le même type d'opération et produisent des vecteurs caractéristiques de plus haut niveau, qui contiennent des informations telles que l'identité des objets. »

Cette identification n'est toutefois possible que si le réseau de neurones a été entraîné au préalable à reconnaître une image. Cette tâche nécessite de disposer d'une quantité colossale d'images étiquetées, classées dans différentes catégories (races de chiens, marques de voitures ou de sacs, etc.). Chez Google et Facebook, qui disposent de milliards d'images, des équipes entières sont chargées de ce travail fastidieux. Mais les laboratoires plus modestes peuvent aussi utiliser les millions d'images étiquetées contenues dans la base ImageNet, créée en 2012 par des universitaires de Stanford, aux États-Unis.

Pour que l'ordinateur apprenne à reconnaître une image à coup sûr (ou presque), par exemple un chien, les chercheurs utilisent un algorithme « d'optimisation par gradient stochastique ». À chaque nouvel exemple qu'on soumet à l'ordinateur, cet algorithme modifie la valeur des poids synaptiques du réseau de neurones. « Après des centaines de millions d'exemples présentés à l'ordinateur, la distribution des poids synaptiques ne varie plus ou presque, explique Yoshua Bengio. Quand vient ce moment, le réseau de neurones a terminé son apprentissage, et il peut alors associer à n'importe quelle image une représentation apprise, c'est-à-dire un vecteur de caractéristiques, qui permet de prédire la catégorie à laquelle l'objet appartient. »

De cette façon, un réseau de neurones entraîné pourra reconnaître avec une grande probabilité n'importe quel chien, sous n'importe quel angle de prise de vue, sans l'avoir jamais vu auparavant. Simplement parce que sa représentation mathématique associée à la catégorie « chien » est suffisamment générale. Avec cette technologie, Facebook compte améliorer l'analyse des goûts des utilisateurs en identifiant automatiquement le contenu des images et des vidéos qu'ils postent ou qu'ils « like » (lire « Facebook réinvente Facebook » p. 28).

Des mots transformés en vecteurs
Après la reconnaissance des images, l'apprentissage profond est sur le point de révolutionner la compréhension automatique du langage naturel. Avec des applications très concrètes en préparation dans les laboratoires de Facebook telles que l'analyse des sentiments dans les textes (lire « L'ordinateur qui comprend l'ironie », p. 34), la traduction instantanée ou la mise en place de boîtes de dialogue entre l'homme et la machine. Des tâches que les algorithmes actuellement utilisés pour analyser les phrases sont incapables d'accomplir. Ces derniers permettent uniquement de compter la « co-occurrence » de mots, c'est-à-dire leur fréquence d'apparition dans un texte et le nombre de mots qui les séparent d'autres mots. De cette manière, un ordinateur calcule la probabilité que tel mot apparaisse à tel endroit dans une phrase, sans vraiment en comprendre le sens.

Or, en 2000, Yoshua Bengio démontre pour la première fois que les machines sont capables d'apprendre par elles-mêmes le langage naturel grâce à des algorithmes d'apprentissage profond [4]. Parmi ces algorithmes, se distinguent les réseaux de neurones dits « récurrents », dont le principe général est analogue à celui des réseaux de neurones convolutifs. Avec ces algorithmes, un ordinateur comprend mieux le sens des mots et les liens qui les unissent. « Autrement dit, il développe une compréhension sémantique de la langue, explique Yoshua Bengio. À la manière des algorithmes de reconnaissance des images, ceux utilisés pour la compréhension du langage naturel apprennent automatiquement à représenter des séquences de mots sous la forme de vecteurs de caractéristiques à partir de milliards d'exemples. »

Pour chaque mot que l'ordinateur repère dans un texte, par exemple « stylo », l'algorithme génère automatiquement un ensemble de nombres, des attributs sémantiques. Ensemble, ces attributs forment un vecteur correspondant au mot « stylo ». Ce vecteur est construit de telle façon que les mots de signification proche ou apparaissant dans des contextes voisins possèdent des attributs sémantiques en commun. Le mot « crayon » partagera ainsi de nombreux attributs avec « stylo » ou « pinceau ».

Ces vecteurs constituent le premier niveau de représentation. Dans un second temps, ils sont combinés par les couches suivantes du réseau de neurones qui génèrent des vecteurs de plus haut niveau encore. Ces derniers résument le sens de séquences entières de mots, puis celui de phrases complètes. « Cette technique qui consiste à représenter des textes par des vecteurs a été popularisée en 2008, à la suite d'une publication de Ronan Collobert et James Weston [5], aujourd'hui chercheurs dans le laboratoire FAIR, précise Yann LeCun. Ce sont leurs travaux en particulier qui ont réveillé l'intérêt de la communauté pour ces techniques. »

La représentation des mots par des vecteurs permet également aux ordinateurs d'appréhender le langage en raisonnant par analogie. En 2013, Tomas Mikolov, jeune chercheur au laboratoire d'intelligence artificielle chez Google (et actuellement chez Facebook), montre qu'en réalisant des opérations élémentaires entre plusieurs vecteurs, un ordinateur découvre des analogies entre les mots [6]. En réalisant le calcul suivant : vecteur « Madrid » moins vecteur « Espagne » plus vecteur « France », il remarque que le résultat obtenu est un vecteur très proche de celui de « Paris ». À sa manière, la machine a donc compris par elle-même le concept de capitale. « Ce résultat peut paraître anodin mais pour la communauté de chercheurs en intelligence artificielle, c'est extraordinaire, explique Yoshua Bengio. D'autant plus que le réseau de neurones n'a pas été entraîné pour cela : c'est un effet secondaire de l'apprentissage, une heureuse surprise ! »

Sens commun intégré
Cette technologie est aussi très prometteuse pour la traduction [7,8]. Pour cette application, les chercheurs en intelligence artificielle utilisent deux réseaux de neurones qui sont entraînés ensemble avec des centaines de millions de phrases étiquetées, c'est-à-dire traduites au préalable. « Les exemples choisis pour l'étape d'entraînement sont des textes multilingues provenant des parlements canadiens ou européens, ou des traductions d'ouvrages disponibles sur Internet. » Le premier réseau reçoit une phrase dans la langue source et produit une représentation sémantique de cette phrase, sous la forme de vecteurs.

Le second réseau de neurones reçoit ces vecteurs en entrée et est entraîné à produire une séquence de mots dans la langue désirée. Pour une même phrase source, l'ordinateur peut donc générer un grand nombre de traductions différentes, mais de signification semblable, en mobilisant différents vecteurs dont les attributs sont proches. Cette technologie sera bientôt utilisée par Facebook pour traduire les textes de façon plus naturelle.

L'un des objectifs de l'apprentissage profond est de permettre à l'usager de dialoguer avec son ordinateur en langage naturel en lui demandant par exemple de répondre à la question « mes amis ont-ils aimé le concert du lycée ? » à partir de l'analyse des messages postés par ces derniers. Pour cela, il est indispensable d'instiller à la machine une forme de sens commun. Ce qui lui fait pour l'instant défaut ! En effet, lorsqu'une machine analyse un texte évoquant des actions exécutées dans un ordre donné, il lui est difficile de répondre à des questions simples sur les conséquences de ces actions. Ainsi, dans le texte « Joe est allé dans la cuisine. Joe a pris du lait. Il est allé dans le bureau. Il a laissé le lait. Il est ensuite allé dans la salle de bains », la machine aura du mal à répondre correctement aux questions : « où se trouve le lait maintenant ? » ou « où était Joe avant d'aller dans son bureau ? »

Dans le laboratoire FAIR, Jason Weston, Antoine Bordes et Sumit Chopra ont proposé de pallier cette difficulté en dotant un réseau de neurones récurrents d'une mémoire à court terme [9]. Pour cela, ils ont utilisé un type particulier de réseau de neurones récurrents, baptisé « Memory Network ». Cet algorithme comporte un module « mémoire » séparé du réseau de neurones qui le rend capable d'analyser de longues séquences de mots. Cela a permis à l'ordinateur de créer des représentations qui, non seulement captent le sens des phrases, mais intègrent l'enchaînement temporel des actions. Résultat : la machine a répondu juste, sur le fond comme sur la forme.
L'ESSENTIEL
- FACEBOOK, GOOGLE ET BAIDU ont investi massivement dans l'apprentissage profond, une branche de l'intelligence artificielle en plein essor.

- LES ALGORITHMES d'apprentissage profond s'inspirent du fonctionnement du cortex cérébral pour analyser les données.

- CETTE TECHNOLOGIE est à l'origine des progrès spectaculaires déjà réalisés dans les domaines de la reconnaissance automatique des images et de la compréhension du langage naturel.
L'ACCÉLÉRATION DE LA VITESSE DE CALCUL
Identifier le contenu d'une image n'est pas de tout repos pour un ordinateur : cette tâche mobilise plusieurs millions de neurones artificiels, des blocs de code informatique, qui exécutent des calculs élémentaires. À chaque fois qu'une image apparaît, le système exécute donc des millions d'additions ou de multiplications. Or, pour exercer un programme à reconnaître une image, il faut l'entraîner au préalable sur des millions d'exemples. Au total, il doit donc exécuter des milliards de calculs dans un délai respectable. Il y a encore un an, cette phase d'entraînement prenait deux semaines. Aujourd'hui, elle ne prend que deux jours. Une nette amélioration due à l'utilisation de cartes graphiques toujours plus puissantes. Pour entraîner son système, Yann LeCun, directeur du laboratoire d'intelligence artificielle de Facebook, en a branché quatre en parallèle dans un seul et même ordinateur. Ces cartes graphiques, utilisées par les passionnés de jeux vidéo, calculent à la vitesse de cinq téraflops, soit cinq milliers de milliards d'opérations chaque seconde ! À terme, les chercheurs aimeraient encore améliorer ces performances, en branchant plusieurs ordinateurs en parallèle.
L'ORDINATEUR QUI COMPREND L'IRONIE
Les algorithmes utilisés par les publicitaires pour analyser les sentiments des internautes ont du mal à percevoir le second degré ou le sarcasme. Cela provient en grande partie du fait qu'ils ne s'attachent pas à l'ordre des mots. De fait, les algorithmes en question fonctionnent avec des « sacs de mots », autrement dit, des vecteurs contenant des centaines de milliers de mots-clés, chacun associé à un sentiment positif ou négatif. Chaque coordonnée de ce vecteur est un nombre qui correspond à la fréquence d'apparition d'un mot dans un texte. Plus la fréquence d'un mot positif est élevée, plus le texte sera considéré comme tel, indépendamment de l'ordre des mots. Or les internautes anglo-saxons, par exemple, expriment souvent l'ironie en écrivant le contraire de ce qu'ils pensent suivi de « not ». Une phrase peut donc être associée à un contenu positif alors qu'elle exprime le contraire. De la même façon, une phrase contenant de nombreuses négations, comme « il n'est pas possible de ne pas détester cette image », brouille les pistes, et l'ordinateur peinera à classer cette phrase dans la bonne catégorie (positif ou négatif). Avec des technologies d'apprentissage profond, l'ordinateur prend en considération l'ordre des mots, leur rôle sémantique, le contexte dans lequel ils apparaissent. Il détecte ainsi mieux la teneur des commentaires et leurs nuances.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

DES ROBOTS HUMANOÏDES

 

Paris, 12 février 2016
Des robots humanoïdes dans les usines aéronautiques de demain

Développer des technologies de robotique humanoïde pour effectuer des tâches difficiles dans les usines aéronautiques, c'est le programme de recherche commun, d'une durée de quatre ans, du Joint Robotics Laboratory (CNRS/AIST)1 et d'Airbus Group. Il sera officiellement lancé le 12 février 2016 à l'ambassade de France à Tokyo2. L'introduction d'humanoïdes sur les lignes d'assemblage aéronautiques permettra de décharger les opérateurs humains des tâches les plus laborieuses ou dangereuses. Ils pourront ainsi se concentrer sur des tâches à plus forte valeur ajoutée. La principale difficulté pour ces robots sera de travailler dans un environnement exigu : comment réaliser certains mouvements sans entrer en collision avec les nombreux objets alentours ? C'est la première question à laquelle devront répondre les chercheurs, en développant de nouveaux algorithmes de planification et contrôle des mouvements précis.
Du fait de la taille des appareils aéronautiques (par exemple des avions de ligne) et du très grand nombre de tâches à effectuer sur peu d'unités, l'utilisation de robots spécialisés à base fixe, déjà utilisés dans l'industrie automobile, est impossible dans l'industrie aéronautique. D'autres difficultés s'ajoutent : même si des robots constitués d'une base mobile et d'un bras manipulateur peuvent être utilisés par l'industrie (comme chez Airbus Group par exemple), ceux-ci sont limités dans leurs déplacements. Ils n'ont, en effet, pas la possibilité de monter des escaliers ou des échelles, de passer des obstacles au sol, etc. De son côté, le Joint Robotics Laboratory (JRL, CNRS/AIST) développe, à partir des modèles de robots HRP-2 et HRP-43, des nouvelles technologies de locomotion dites multi-contacts : en s'aidant de tout son corps pour prendre contact avec son environnement, et non seulement avec ses pieds, ce type de robot peut monter des échelles et entrer dans des endroits exigus. La possibilité d'avoir des contacts multiples permet aussi d'accroître la stabilité du robot et la force qu'il peut appliquer lorsqu'il effectue une tâche. De plus, la forme anthropomorphique de ces robots offre une polyvalence utile pour effectuer un grand nombre de tâches différentes dans des environnements variés.

La collaboration entre les chercheurs du JRL et Airbus Group a donc pour but de permettre aux robots humanoïdes d'effectuer des tâches de manipulation dans un environnement contraint et limité, les lignes d'assemblage, où ils devront faire un usage coordonné de leur corps pour mener à bien leur mission. Les espaces exigus requièrent en effet des postures particulières. Le calcul de telles postures s'avérant mathématiquement complexe, les chercheurs devront tout d'abord développer de nouveaux algorithmes, bien plus puissants que ceux existants actuellement, tout en gardant ces calculs suffisamment rapides pour que les mouvements des robots restent efficaces. Les tâches typiques que les robots auront à effectuer seront, par exemple, de serrer un écrou, de nettoyer une zone de ses poussières métalliques ou d'insérer des pièces dans la structure de l'appareil. Ils pourront également vérifier le bon fonctionnement des systèmes une fois la fabrication terminée.

Ces algorithmes seront testés sur un ensemble de scénarios tirés des besoins des différentes branches d'Airbus Group (Aviation Civile, Hélicoptères, et Spatial), et dont le réalisme ira croissant au fil des années. Du côté de la recherche en robotique, en plus de l'apport des nouveaux algorithmes, cette collaboration mettra peut-être en lumière des insuffisances des robots actuels (design, précision ou puissance, par exemple). Elle pourrait également permettre de spécifier le cahier des charges de la première génération de robots humanoïdes dédiés à la manufacture de grandes structures, d'ici 10 à 15 ans.

 

 DOCUMENT         cnrs        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google