Type:

II/ Interactions chez les agents autonomes

Introduction

        Au vue de l'explicitation de la notion de norme, il devient évident que la question principale du sujet ne pourra se traiter que comme multitude de sous-questions. Parmi celles-ci, les conditions d'apparition de la norme, leur légitimité, et la place de l'individu dans les interactions qu'elles mettent en place semblent primordiales. En conséquent, nous allons étudier graduellement les niveaux d'interactions sociales en tentant de comprendre les normes qui les régissent.
        Qui dit interaction sociale signifie implication de plusieurs agents autonomes dans un projet commun. Qu'il s'agisse de la résolution d'un problème, d'une conversation ou même d'une cohabitation dans un milieu, l'interaction vise à satisfaire un ensemble d'individu dans un but commun.

        En informatique, la nécessité de systèmes multi-agents devient de plus en plus évidente comme perspective de résolution de problème complexe, non plus par mise en œuvre d'un seul mécanisme élaboré mais par multiplication des acteurs aux compétences variées.
        Ces systèmes multi-agents se trouvent ainsi confrontés à divers problèmes liés aux points suivants:29

  • Interaction et planification entre agents
  • Représentation de l'environnement
  • Apprentissage et distribution du savoir
  • Résolution des conflits
        Ce n'est que par des règles et des normes d'interactions sociales précises entre ces agents que ces difficultés peuvent être surmontées.

Interactions simples: le troupeau d'herbivore

        La première des interactions sociales entre plusieurs systèmes individuels quelque soit leur nature est la prise de conscience de la présence de l'autre dans l'environnement. L'évitement est ainsi la première interaction nécessaire pour une entité corporelle évoluant dans le monde physique. Le moindre robot ou animal doit pouvoir percevoir son monde au moyen de capteurs et disposer d'un moyen de traitement adapté de ces informations.
        Considérons l'expérience suivante.30 Quinze participants figurent les entités d'un monde représenté par une salle de cours vide. Les normes d'interactions sociales sont les suivantes: naviguer dans le monde en occupant un maximum d'espace et en évitant les autres entités. Aucune stratégie commune n'a été élaborée au départ et les participants n'ont pas le droit de communiquer.
        A faible vitesse, l'opération s'exécute sans encombre. Ne demandant pas de stratégie particulière pour la résolution, les participants n'ont que peu à anticiper les mouvements des autres et l'on voit apparaître régulièrement des zones non couvertes par "négligence" de prévisions, puis par conséquence du délai dû aux déplacements lents.
        A un rythme plus élevé en revanche, un délai est nécessaire à l'émergence d'une stratégie commune intuitive. Durant cette phase, les participants s'esquivent souvent de justesse, le tout ressemblant à un mouvement de type Brownien. Cependant, une stratégie implicite commune émerge rapidement lorsque les participants se mettent instinctivement à se suivre, à se diriger dans un même sens, recouvrant l'intégralité du territoire par un effet de trajectoire. On pourrait considérer cela comme "l'effet patinoire", où les participants tournent tous dans un même sens, d'ailleurs souvent celui des ronds points!
        De nombreuses expériences en robotique ont montré la possibilité d'apparition de comportement de collaboration similaire entre divers agents autonomes. Ces comportements non préprogrammés émergent lors de ces expériences comme réponse ou stratégie à la résolution d'un problème donné. L'expérience précédente a été effectuée de nombreuses fois sur des populations de robots identiques ou non. La plus connue de ces expériences est certainement celle des "Seven Dwarfs", une population de sept robots identiques, nommés en référence aux sept nains du conte.31
        Dans l'ensemble de ces expériences, des comportements similaires à ceux expérimentés chez l'humain se développent, sans pour autant avoir été explicitement programmés. Ce phénomène est appelé comportement émergent et désigne l'apparition de nouvelles fonctionnalités à un certain degré de complexité. Les fonctionnalités du tout sont donc supérieures à la somme des fonctionnalités individuelles.32
        Le problème précédent se traduit, lorsque mis en place sur des robots comme décrit précédemment, par l'apparition de comportement tels que le suivi d'un leader auto-désigné, ou encore par le "suicide" de l'un des participants. Ce robot, met en place une stratégie de couverture circulaire de l'espace: dans un coin de l'environnement, il tourne selon un petit cercle, sans plus se soucier du monde au dehors.33

        Cette première catégorie montre que l'interaction sociale, au moins basique, ne nécessite pas une théorie de l'esprit. L'étude présentée par Des moutons et des robots rappelle que des règles extrêmement simples peuvent simulées des interactions sociales entre animaux, notamment le phénomène de troupeau. Le leader implicite est alors le robot le plus "devant" suivant l'endroit ou l'ensemble doit se déplacer. Dans le cas où le robot-leader se trouve incapacité, par exemple pour cause d'obstacle ou de panne technique, le premier robot suivant prend son relais. Cette simple technique permet de reproduire les schémas comportementaux des troupeaux d'herbivores, en obtenant des lois de dispersion et de compacité identique.34

        Une flotte de robots capable d'évoluer dans un environnement et en mettant au point une stratégie commune sans nécessairement communiquer me paraît un premier pas vers son anthropomorphisation et donc vers son acceptation sociale. Imaginons 5 robots devant se rendre d'une pièce A à une pièce B, l'humain sera d'autant plus satisfait de leur méthode qu'elle simulera une action de groupe. Que chaque robot ouvre la porte et entre dans la pièce répond au problème, mais que le premier robot est capable de l'ouvrir et de la tenir aux autres avant d'entrer à son tour présente un degré tout autre de collaboration.
        Cet exemple appuie mon idée que les normes sociales doivent avant tout unifier le comportement collectif au détriment si nécessaire de l'individu.

Interaction complexe: la communication

        Dans le cadre d'une interaction plus complexe, il va être nécessaire de concevoir une méthode de communication entre les divers agents. En effet, aussi poussées seront les normes et les règles d'interaction présentées précédemment, jamais elles ne permettront à un agent de demander à un autre la réalisation d'une tâche ou à deux individus de s'échanger des connaissances.
        Chez l'humain, nous pouvons distinguer majoritairement deux sortes de méthode de communication; la parole et l'écriture. La première est une manifestation incarnée du langage, physique, naturelle et corporelle. Son apparition semble dater de 2 millions d'années35 à 3500036 ans suivant les sources. Cependant, il semble raisonnable de penser qu'elle est liée à l'abaissement du larynx chez l'humain naissant, au alentour d'il y a 100000 ans. L'écriture quand à elle, est la traduction symbolique du langage, rendu figée sur un support non volatil. La première trace d'écriture date d'il y a un peu plus de 5000 ans et est attribuée aux Sumériens.37

        Dans les deux cas, ces formes de communication ne sont qu'une manifestation du langage, un ensemble de signes permettant la communication entre individu. Ce langage présuppose des structures de pensée et de représentation complexes, une sémantique puissante capable de décrire le monde physique aussi bien que les idées abstraites, enfin une capacité de gérer et représenter des symboles ayant un sens sémantique.

        Malgré l'implantation massive de l'informatique dans la vie de tous les jours, son histoire, ses principes ainsi que son évolution avant 1995 semblent peu connu du grand public. Dans le langage C de Ritchie et Kernighan, sûrement le langage le plus utilisé en programmation logiciel, chaque variable, chaque objet doit être typé lors de la création, c'est-à-dire que le programmeur doit décider si la variable est un entier, un caractère, un réel, un booléen, etc… Cette opération de typage assure l'existence et la bonne interprétation de l'objet durant le programme. Il se retrouve casté et ne peut évoluer simplement; le transtypage, c'est-à-dire le redimensionnement d'un objet, étant une opération lourde et complexe. Pourtant il est intéressant de souligner que vingt ans avant l'invention du C, dès les années 50 existaient des langages, comme le LISP, permettant de gérer des symboles abstraits, non déclarés. Il est ainsi possible en LISP ou encore en PROLOG de représenter moyennant quelques efforts, l'acte d'aimer, avec toutes ses nuances. Cette possibilité de représentation sémantique complexe a fait que ces langages se sont "peu" développés. D'une part parce qu'il a fallu longtemps avant que des ordinateurs ne soit capables de les utiliser, ensuite parce qu'ils sont couteux en ressources; les ordinateurs n'étant que de faible capacité comparés à des humains. La puissance de tels langages les rendent cependant particulièrement adaptés au développement d'applications en intelligence artificielle.

        Cependant, peu importe la puissance des langages, il semble loin le temps où l'informatique sera capable d'une parfaite reconnaissance vocale, synthétisation de voix et d'élaboration de langages compréhensibles. En d'autres termes, converser avec un ordinateur n'est pas pour demain. Le traitement du langage naturel n'en est en effet qu'à ses débuts et de nombreuses recherches sont en cours. Pourtant plusieurs études cherchent à faire valoir l'émergence du langage chez le robot. Les conséquences pratiques sont pour l'instant la compréhension de son émergence chez l'humain, et les modes de transmission et de mise en accord entre plusieurs agents pour utiliser un mot comme descripteur d'un objet. Citons les expériences développées dans ce cadre par Sony. Aidé de prototypes de robots évolués de type Qrio38, Remi Van Trijp du laboratoire de recherche Sony présente des résultats intéressants. Ces robots sont placés dans une situation de naming game. Un couple de robot est placé dans une pièce contenant des objets facilement reconnaissables. Le premier robot doit demander oralement au second de lui apporter un objet voulu. S'il ne possède pas de mot pour désigner l'objet, il en invente un. Le second robot, rapporte l'objet qu'il croit être nommé. Si ce n'est pas le bon, le premier désigne au second celui auquel correspondait le mot choisi. Un langage émerge ainsi de ce jeu, s'enrichissant de nouveaux mots au fur et à mesure de l'enrichissement de l'univers d'interaction des robots. Divers tests, par échange des agents, simulent un brassage de population. Le devenir des mots choisis, l'émergence d'un accord tacite de nommage des objets, l'évolution du vocabulaire sont autant de facteurs qui une fois étudiés, réfléchissent les phénomènes mis en jeu lors de l'apparition du langage chez l'humain.39

        Dans les situations réelles, la communication entre multi-agents s'effectue par des systèmes synchrones de send-mails. Des mécanismes d'envoi et réception de messages permettent aux agents de communiquer de façon normalisée dans le cadre de leurs échanges. En revanche, il apparaît comme certain que cette communication se retrouve limitée aux seuls échanges collaboratifs. Nous ne pouvons guère parler d'échanges sociaux, et les normes qui sous-tendent cette communication apparaissent en réalité comme des protocoles de communications. La communication sera normalisée, commençant toujours par un octet de contrôle, un bit de début et un de fin, un nombre standard d'octets transmis, des mots clés et une syntaxe commune. Ce mode de transmission est le contraire d'une communication sociale. Un échange social est certes marqué par une formule de politesse ouvrante et une fermante, mais nous avons le choix d'un 'Bonjour', 'Hello', 'Salut' ou tout autre formule selon l'heure, le moment, le lieu ou encore l'humeur des intervenants. De grands progrès en communication multi-agents semblent alors nécessaires pour envisager une telle liberté de déstructuration de la communication.

Interaction évoluée: anthropomorphisation

        Entrons désormais dans les recherches les plus modernes en matière de robotique. Du fait des fantasmes et cauchemars de la science fiction, le robot est encore perçu aujourd'hui comme menaçant dans la société occidentale. Est-ce par le côté religieux de la philosophie? Les théories de l'esprit? La supériorité de l'humain sur l'animal machine? Pour H. Dreyfus, l'IA n'est pas incarnée.40  Dans le monde nippon en revanche, chaque chose, objet ou machine possède une âme. Un rocher, un robot, aussi bien qu'un homme. Est-ce pour cela que les japonais sont sans complexe face à la machine? Est-ce la raison de leur avance en robotique? Au japon, plus que 400000 robots sont en service dans des lieux publics.

        Peu importe le peuple, le pays ou la culture, une chose semble prédominée. Afin de pouvoir s'insérer dans la société, c'est à la machine d'adopter les normes sociales humaines et non l'inverse. La machine doit pouvoir évoluer dans le monde humain sans adaptation spéciale de l'environnement. Les couloirs, les portes, les escaliers, les normes sociales, la conversation, autant d'exemples d'éléments que le robot doit être capable de prendre en compte. Les recherches les plus avancées, autant en robotique qu'en IA cherchent à satisfaire ce désir d'intégration de la machine dans le paysage humain. Pour cela, de nombreuses fonctions humaines sont imitées, mécanisées, intégrées.
Le robot COG est un parfait exemple d'intégration des normes sociales régissant l'apprentissage. Le but avec ce robot est de le faire évoluer non pas par programmation, mais par apprentissage, à la manière d'un enfant, grâce à l'interaction sociale. Dans ce but, COG est capable de suivre des yeux un regard lors d'une conversation. D'interpréter les expressions faciales et de reconnaître le visage de son interlocuteur, de pointer un objet ou de comprendre quel objet est pointé.41
        Le robot ASIMO de Honda est quand à lui le seul robot au monde capable de marcher ou courir tout en tournant en même temps. Cette tâche qu'un très jeune enfant peut aisément réaliser est pourtant d'une extrême complexité pour une machine. Il est capable également de monter et descendre les escaliers, de reconnaître des visages et de s'exprimer par la parole en reconnaissant des mots caractéristiques dans les phrases.42 En termes de normes sociales, ASIMO connaît la politesse et la galanterie. Il est ainsi capable de s'arrêter et de se décaler dans un couloir étroit afin de laisser passer un humain, tout en saluant s'il s'agit d'une femme.43
        Son concurrent Qrio par Sony, n'a rien à lui envier. Lui aussi est capable de prouesse de marche, et est un modèle de communication. Il est capable de reconnaître une centaine de visages et d'en détecter divers émotions. Il connait environ 10000 mots de base, et apprend ensuite à parler, à la manière d'un enfant. Il chante, danse et exprime lui-même des émotions par l'intermédiaire de la couleur de ses yeux. Mais surtout, Qrio est doué pour la représentation spatiale. Il est capable de comprendre ce qui est pointé par quelqu'un et peut lui-même pointer des objets. Il peut élaborer une représentation du terrain entre lui et l'objet pointé pour l'atteindre tout en évitant les obstacles.44 C'est le robot qui fut utilisé pour les expériences sur le langage présentée plus haut.

        Nous conclurons cette partie en rappelant que la condition sine qua none de l'acceptation du robot dans la vie humaine est la préservation de l'intégrité de l'environnement humain tel qu'il le connaît. En d'autres mots, l'humain ne doit pas s'habituer à un environnement standardisé pour le robot mais bien l'inverse. Ce n'est que par l'acquisition de technique extrêmement évoluée de mécanique et d'informatique que le robot, obtenant une main articulée à 5 doigts pouce opposable, des habiletés de raisonnement complexe, pourra appuyer sur le bouton d'une cafetière pour préparer un café, pourra tenir une poêle sur le feu, pourra border un enfant et lui lire une histoire, pourra évoluer dans le monde humain.
        De plus, l'homme a également besoin de se sentir rassuré en présence du robot. Il doit avoir l'impression de contrôler, de dominer son monde, d'être le sommet de l'évolution, même si ce sentiment n'est qu'illusoire. Les robots doivent donc suivre de manière stricte les us et coutumes, les usages, les conventions et les normes sociales. Enfin, pour être parfaitement intégré, il doit répondre aux désirs complexes de l'humain d'être soutenu tout en étant soutenant. Il me semble donc, d'avis personnel, que le robot doit pouvoir soutenir l'humain en l'écoutant, en s'intéressant à lui, en agissant selon ce qui serait appelé "marque d'affection" venant d'un autre humain. Il doit être suffisamment autonome pour ne pas être une contrainte pour l'humain, tout en sachant cacher parfois cette autonomie, de sorte d'une part à ne pas effrayer l'homme par sa toute puissance, et d'autre part de sorte à satisfaire l'ego de l'humain. Pour s'intégrer, je pense que le robot doit pouvoir "être triste" parfois, avoir besoin de parler afin que l'homme se sente utile, exactement comme un chien qui tantôt va réconforter son maître, tantôt aura besoin d'être réconforté. Tout comme pour un animal de compagnie, l'homme doit je suppose avoir l'illusion d'être le maître, tout en croyant faire partie d'une relation d'ambivalence ou chacun des deux apporte à l'autre le soutien et le réconfort.
        Dans un premier temps donc, l'homme va créer des robots de plus en plus autonomes et perfectionnés, puis, lorsqu'ils seront suffisamment évolués pour se tenir dans le monde réel, il les rendra "dépendant" d'une relation avec l'humain, exactement comme un animal de compagnie.
 

----
29  Jean-Pierre MULLER, Des systèmes autonomes aux systèmes multi-agents : Interaction, émergence et systèmes complexes,
       http://cormas.cirad.fr/pdf/HDR_JP-Muller.pdf
30  Expérience réalisée en collaboration avec la troupe de théâtre 'Profiterôle' de l'UTC.
31  K. WARWICK, Mutual Learning by autonomous mobile robots, http://citeseer.ist.psu.edu/638486.html
32  B. WALLISER, Deux modes d'émergence, Hors-série Sciences & Avenir n°143
33  P. ARNAUD, Des moutons et des robots, 2000
34  Lynn E. PAKER, 1996, (source secondaire: P. Arnaud, Des moutons et des robots, 2000)
35  Jean-Louis HEIM, 700 000 siècles d'histoire humaine, 1979
36  William NOBLE, Iain DAVIDSON, Human Evolution, Language and Mind: A Psychological and Archaeological Inquiry, 1996
37  L'aventure des écritures, dossier de la Bibliothèque National de France,
      http://classes.bnf.fr/dossiecr/index.htm
38  Qrio, Sony
39  Naming Game, Sony Computer Science Laboratory Paris,
      http://www.csl.sony.fr/items/1998/the-naming-game
40  H.DREYFUS, Professeur de Philosophie, Université de Californie, Berkeley
41  COG, MIT, http://www.acm.org/crossroads/xrds10-2/robotcog.html
42  ASIMO, Honda, http://world.honda.com/ASIMO
43  Des robots en ville, Sept à Huit, TF1, 15 mars 2009,
Votre note : Aucun(e) Moyenne : 5 (2 votes)