DS0704 -

Action Jointe pour l'Interaction Humain Robot – JointAction4HRI

JointAction4HRi

Action Jointe pour l'interaction humain-robot<br />Ce qui nous intéresse, ce sont les composants et mécanismes clés qui sous-tendent l'action jointe, leurs contenus informationnels et la manière dont ils sont reliés, de manière temporaire, hiérarchique et significative. Notre ambition est de contribuer, au niveau le plus fondamental, à l'identification et à la caractérisation des ingrédients nécessaires à la réussite d'une tâche de collaboration dans des contextes humain-humain et humain-robot.

Dans le cadre d’une action jointe, nos objectifs sont : d’identifier les éléments permettant la compréhension mutuelle, de modéliser la notion d'engagement, d’élaborer une architecture de robotique

Notre premier objectif est d'étudier les éléments nécessaires à la compréhension mutuelle entre agents dans le contexte des interactions homme-robot. Lorsque nous interagissons avec une autre personne, et particulièrement dans un contexte collaboratif, nous produisons et percevons un certain nombre d’indices, parfois même sans nous en rendre compte: par exemple, allers-retours visuels entre deux individus, alternance du regard entre le partenaire et le sujet / objet de collaboration, changement de posture, etc. Ce sont ces éléments que nous désirons étudier.<br />Notre deuxième objectif est de caractériser en détail la nature et le rôle des engagements dans des actions jointes afin de modéliser leur fonctionnement. Lorsqu'ils s'engagent dans une tâche collaborative, les agents s'engagent à poursuivre ensemble un objectif commun. La coordination entre agents implique des engagements quant aux moyens à mettre en œuvre pour atteindre cet objectif, à la répartition des tâches entre les participants et au partage des informations nécessaires à la bonne exécution de la tâche. Quelle est exactement la nature de ces engagements et quelles sont leurs fonctions? Comment devrions-nous modéliser les processus impliqués dans la formation, la mise en œuvre et le maintien de ces engagements?<br />Enfin, notre troisième objectif est d’élaborer et d’expérimenter (par la mise en œuvre de tâches de manipulation d’objets collaboratifs homme-robot impliquant un humain et un robot de laboratoire) une architecture de contrôle robotique permettant une action conjointe. Un objectif complémentaire sera d'instancier une «preuve de concept» et de le mettre en œuvre sur un robot afin de présenter de manière efficace et complète les ingrédients nécessaires à une action commune entre un homme et un robot.

Le projet est organisé en quatre tâches; il y aura un leader par tâche mais les partenaires seront impliqués dans toutes les tâches:
Tâche 1: Eléments de compréhension mutuelle (resp: CLLE): Responsable du premier objectif, à savoir identifier les éléments (et leur interaction) permettant d'établir et de maintenir une compréhension mutuelle entre un humain et un robot dans une tâche collaborative
Tâche 2: Gestion des engagements (resp .: Institut Jean Nicod): Responsable du deuxième objectif, à savoir caractériser la nature et les fonctions des engagements afin de modéliser leur fonctionnement en action commune
Tâche 3: Architecture robotique (resp.: LAAS): Responsable du troisième objectif: Élaborer et tester une architecture de robot pour une collaboration avec l'homme.
Tâche 4: Gestion, diffusion et prospective (resp: LAAS)

et le calendrier de ces tâches sera organisé en quatre étapes:
M1: Défis et exigences pour une architecture robotique pour l’action jointe
M2: Recherche fondamentale sur l'action commune humain-humain réalisée, modèles d'action conjointe prêts, première architecture robotique activée pour la conception d'action conjointe
M3: Une première instance de l'architecture robotique mise en œuvre
M4: Recherche fondamentale sur l’action conjointe homme-robot réalisée M5: Une seconde itération de l'architecture robotique mise en place

Tâche 1: Éléments de compréhension mutuelle
Travail sur l’apport théorique de la psychologie du développement : développement de l’attention et de l’action conjointes, sentiment de traiter avec un agent social pour améliorer le succès des tâches collaboratives, proposition de gestion de la complexité de l’IHR sur 3 dimensions (précision motrice, coordination, planification anticipée), nécessité de prendre en compte la communication multimodale et d’analyser séparément ses formes et ses fonctions [3].
Collaboration avec le projet H2020 MuMMER pour étudier une tâche de description d'itinéraire (considérée comme une action conjointe) [2] [10].

Tâche 2: Gestion des engagements
Tâche 2.1.1 La typologie et les fonctions des engagements ont été traitées avant T0 + 13. Elles définissent l’incertitude de motivation, l’incertitude instrumentale, l’incertitude relative au terrain d’entente. La tâche 2.1.2 est en cours, la proposition est la suivante: pour résoudre le problème de crédibilité, il est nécessaire de faire appel à un facteur de motivation fondamental (le besoin d'appartenance) qui échafaude des mécanismes de motivation plus sophistiqués (gestion de la réputation et émotion sociale): rétablir la normativité sociale et la rationalité pratique qui rendent les engagements efficaces pour réduire les incertitudes [8] [9].

Tâche 3: Architecture robotique
Nous avons choisi d'étudier et de développer les capacités des robots pour plusieurs tâches vues comme des actions conjointes: (1) Tâche de construction d'une pile de cubes, (2) Navigation dans des espaces étroits peuplés d'humains et (3) Fourniture d'itinéraires.
Nous avons étudié l'affinement de l'exécution de plans partagés homme-robot [4]. Nous avons proposé et utilisé le questionnaire PERDITA [1] pour évaluer la pertinence des décisions du robot.

Tâche 4: gestion, diffusion et prospective
Création d'une biblio www.zotero.org/groups/jointaction4hri-openbiblio
Organisation de workshops fja.sciencesconf.org.

Bien au-delà de l'apparence anthropomorphique «simpliste« ou du mimétisme humain «naïf« que nous pourrions appliquer à la machine, ce qui nous importe ici, ce sont les composants et mécanismes clés qui sous-tendent l'action jointe. Notre ambition est de contribuer, au niveau le plus fondamental, à l'identification et à la caractérisation des ingrédients nécessaires à la réussite d'une tâche collaborative.
Le projet JointAction4HRI propose un consortium original composé de chercheurs d'un laboratoire de philosophie (Institut Jean Nicod), d'un laboratoire de psychologie (CLLE) et d'un laboratoire de robotique (LAAS). Chacun a contribué dans ses disciplines respectives et pendant plusieurs années à la recherche dans le domaine de l'action commune. En réunissant leurs expertises complémentaires, JointAction4HRI favorisera le développement d’un cadre théorique intégré.
Les avantages attendus sont évidents du point de vue du développement de la robotique de service ou de divertissement. Mais nous pouvons envisager des avantages plus larges. Ainsi, nous nous attendons à ce que la modélisation de l’attention conjointe nous aide à évaluer et à aider les enfants atteints de troubles du développement (par exemple, les enfants autistes). Confronter les rôles des engagements dans les interactions homme-humain et dans les interactions homme-robot devrait également apporter un éclairage nouveau sur le débat philosophique actuel sur les engagements en action commune, en aidant à identifier plus précisément leurs propriétés essentielles ainsi que la nature des normes sociales et des émotions qui assurent leur efficacité. Enfin, nos recherches devraient aboutir à une caractérisation précise des éléments nécessaires à la gestion de la compréhension mutuelle entre agents dans des situations de coopération.

1. Devin S., Vrignaud C., Belhassein K., Clodic A., Carreras O., Alami R., « Evaluating the Pertinence of Robot Decisions in a Human-Robot Joint Action Context: The PeRDITA Questionnaire » IEEE RO-MAN’18
2. Belhassein K., Clodic A., Cochet H., Niemela¨ M., Heikkila¨ P., et al.. « Human-Human Guidance Study. » Rapport LAAS n° 17596. 2017. <hal-01719730<br />4. Devin, S., Clodic, A., & Alami, R. (2017). « About Decisions During Human-Robot Shared Plan Achievement: Who Should Act and How? » Social Robotics, Springer International Publishing. doi.org/10.1007/978-3-319-70022-9_45
5. Pacherie E. « Common beliefs, solution thinking and team reasoning«, Symposium: Guala on Understanding Institutions, Fifth Conference of the European Network on Social Ontology, University of Lund, Sweden, August 30 - September 1, 2017
6. Clodic A., Vazquez Salceda J., Dignum F., Mascarenhas S., Dignum V., Augello A., Gentile M., Alami R. (2018) « On the pertinence of Social Practices for Social Robotics » Robo- philosophy’18 Conference
7. Dignum V., Dignum F., Vazquez Salceda J., Clodic A., Gentile M., Mascarenhas S., Augello A., (2018) « Design for Values for Social Robot Architectures » Robo-philosophy’18 Conference
8. Pacherie E. «Joint action, commitments and need to belong» Layers of Collective Intentionality. Vienna (Austria) 16th-18th August 2018.
9. Fernandez-Castro V., Pacherie E. «Commitments in joint action: the credibility problem» 3rd DFG Workshop Methodological issues relevant to testing and measuring Theory of Mind, empathy and related social behaviours. Dresden (Germany)13th-14th September 2018
10. Heikkila¨ P., Lammi H, Belhassein K. «Where Can I Find a Pharmacy? - Human-Driven Design of a Service Robot’s Guidance Behaviour» - 4th Workshop on Public Space Human- Robot Interaction (PubRob 2018)

Dans un futur prévisible, l’homme et le robot auront à agir ensemble, voire à collaborer. Des applications sont envisagées: robot de service, robot assistant ou équipier. La collaboration va alors plus loin qu’une seule interaction ponctuelle car il s’agit – pour l’ensemble des agents concernés, en l’occurrence l’humain ET le robot - de construire et de maintenir "ensemble”, et aussi longtemps que nécessaire, un processus collaboratif qui accompagne la tâche et permet de la réaliser de manière conjointe. Un tel processus doit pouvoir résister et s’adapter, le robot ou l’humain doivent pouvoir se tromper, échouer, changer de rythme, ralentir, changer d’avis, modifier leurs choix, etc. sans que cela ne remette en cause l’interaction. Il faut pour cela que ces éléments soient compris et pris en compte comme tels. Nombreux sont aujourd’hui les travaux, et nous y prenons notre part, qui se proposent de contribuer à gérer et faciliter cette interaction. Si ces travaux constituent une base sur laquelle notre projet pourra s'appuyer, il reste à élaborer un cadre théorique solide et cohérent qui permette de construire un modèle opérationnalisable de l'interaction homme-robot.
C’est dans ce sens que nous entendons mener notre travail. Nous pensons que l’humain doit pouvoir retrouver dans le cadre d’une interaction humain-robot, les repères qu’il comprend et qu’il maîtrise et qui sont ceux d’une collaboration naturelle et habituelle entre humains. Identifier précisément ces repères, comprendre comment ils s’articulent, les adapter et les intégrer aux capacités du robot constituent les buts du projet JointAction4HRI. Au delà de la simple apparence anthropomorphe ou du mimétisme qu’on pourrait faire réaliser à la machine, ce qui nous intéresse ici ce sont les ingrédients essentiels de l’action jointe, leur contenu informationnel (relatif au socle commun de connaissances a priori et/ou acquises pendant la tâche), et leur articulation temporelle et hiérarchique. Notre ambition est de contribuer à un niveau fondamental à la réflexion sur les « ingrédients » nécessaires à la réalisation d’une tache collaborative. Pour cela, le projet se donne trois objectifs :
(1) identifier les éléments permettant à l'homme et au robot de réaliser une tâche collaborative en bonne intelligence
(2) modéliser la notion d’engagement qui sous-tend l'action jointe
(3) élaborer et mettre à l'épreuve une architecture robotique pour la collaboration avec l'homme.
Pour réaliser ce travail, nous proposons un consortium original composé d’un laboratoire de philosophie (l’institut Jean Nicod), d’un laboratoire de psychologie (CLLE) et d’un laboratoire de robotique (LAAS). Ces trois partenaires contribuent dans le cadre de leurs disciplines respectives, et depuis plusieurs années, au domaine de l’action jointe. Le projet lance une recherche prospective transdisciplinaire. Les retombées attendues sont évidentes dans la perspective du développement de la robotique professionnelle et de compagnie. Mais ces retombées peuvent avoir une portée plus large. Ainsi, la modélisation de l’attention conjointe poursuivie dans ce projet devrait avoir des retombées pour l’évaluation et la prise en charge d’enfants atteints de troubles du développement (e.g. enfants avec autisme). La mise en regard du rôle des engagements dans les interactions humain/humain et dans les interactions humain/robot devrait aussi apporter un éclairage nouveau aux débats philosophiques actuels sur les engagements dans l’action conjointe en permettant une identification précise de leurs propriétés essentielles et de la nature des normes et émotions sociales qui en assurent l’efficacité. Enfin, nos recherches devraient aboutir à une caractérisation précise des éléments nécessaires à la “compréhension” mutuelle entre agents dans le cadre d’interactions coopératives, des processus cognitifs impliqués dans ces interactions et de leur flexibilité et adaptabilité dans le cadre d'interaction humain-robot.

Coordination du projet

Rachid ALAMI (Centre National de la Recherche Scientifique/LAAS)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

CNRS/CLLE CNRS/Cognition, Langues, Langage, Ergonomie
IJN Institut Jean Nicod
CNRS/LAAS Centre National de la Recherche Scientifique/LAAS

Aide de l'ANR 369 255 euros
Début et durée du projet scientifique : février 2017 - 48 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter