-
Lorsqu’un drone (ou véhicule aérien sans pilote) doit agir sur son environnement, on parle de manipulateur aérien. Équipés d’un bras robotique ou d’une pince, ces robots permettent la saisie ou le transport d’objets. Les manipulateurs aériens combinent ainsi les grands espaces de travail des drones avec la dextérité et la précision des manipulateurs robotiques. Néanmoins, ils consomment beaucoup d'énergie pour compenser la gravité pendant le vol, ce qui réduit considérablement leur autonomie lorsqu'ils fonctionnent sur batterie.<br />Les robots parallèles à câbles quant à eux possèdent un effecteur relié à une base uniquement à l’aide de câbles, dont il est possible de modifier la longueur afin de commander la position et l’orientation de l’effecteur. Ils disposent d'un espace de travail plus réduit en raison de la longueur limitée des câbles qui les actionnent, mais consomment beaucoup moins d'énergie en contrepartie puisque les câbles permettent de compenser la gravité.<br />L’idée a alors émergé de suspendre un véhicule aérien à un câble élastique, combinant ainsi les avantages des deux types de robots. Ainsi est né le robot dextAIR, un manipulateur aérien à suspension élastique.
Le concept dextAIR a été étendu à six degrés de liberté en utilisant un manipulateur aérien omnidirectionnel, et la conception mécanique simplifiée avec un câble unique qui relie le manipulateur à un éventuel porteur robotique. En outre, un ressort à faible raideur remplace le système câble+treuil traditionnel des robots à câbles, ce qui permet de réduire la consommation d'énergie, de simplifier la mécanique et de découpler dynamiquement le porteur et le manipulateur aérien. Le robot a été conçu avec des technologies sur étagère dans une démarche d’ingénierie parcimonieuse.
Le manipulateur a été suspendu à un porteur fixe, ancré au plafond, puis suspendu à un porteur robotique. Ce dernier permet d’étendre l'espace de travail du robot, auparavant limité autour de son point d'équilibre en raison de la force de rappel du ressort, tout en réduisant la consommation d'énergie puisque le porteur déplace le point d'équilibre du manipulateur. Les prototypes expérimentaux ont démontré une précision millimétrique et une dynamique rapide du manipulateur, ainsi qu’une forte réduction de la consommation d’énergie.
Des stratégies de commande prédictive non linéaire ont été développées et implémentées pour les différentes configurations, qui permettent de résoudre dynamiquement un problème d'optimisation en temps réel en prenant en compte les contraintes des actionneurs ou des contraintes énergétiques. Ces stratégies avancées ont permis de maximiser les performances du système en boucle fermée (rapidité, précision, espace de travail, erreur statique nulle, respect des contraintes…) et de réduire drastiquement la consommation énergétique, par rapport à des commandes plus classiques.
-Le développement du robot dextAIR et les thématiques abordées durant le projet vont se poursuivre au travers de 3 nouveaux projets ANR : navigation d’un drone en environnement sombre (dark-NAV), street art par drone (STRAD) et micro-climatologie urbaine (TIR4sTREEt).
Ce projet a permis de développer 3 prototypes du robot dextAIR, 2 logiciels pour la commande bas niveau du robot, et la publication de 2 articles de revues internationales et 7 articles de conférences internationales.
L'asservissement visuel permet de guider un robot à l'aide de caméras comme seuls capteurs. Le principe consiste à acquérir, traiter et analyser des images numériques, image après image, dans le but d'extraire des caractéristiques de la scène et produire des données qui seront compréhensibles par le robot. Ceci lui permet de prendre les décisions appropriées pour son déplacement. Cette thématique de recherche contribue à rendre les robots toujours plus autonomes, mais de nouvelles méthodes doivent être envisagées, car les approches classiques sont trop consommatrices de ressources et exploitent à peine les caractéristiques dynamiques de la scène perçue.
L'objectif du projet e-VISER est de développer une nouvelle architecture d'asservissement visuel où toute la chaîne d'acquisition et de traitement de l'information est repensée, de la perception à la prise de décision, basée sur le paradigme événementiel. Ce concept novateur redéfinit la manière de mesurer, de communiquer, de calculer ou de mettre à jour le signal de commande seulement lorsqu'un changement significatif survient dans la dynamique du robot ou de son environnement (au lieu d'appliquer un taux de rafraichissement constant, périodique). Plus précisément, l'idée de la présente proposition est de faire fonctionner ensemble un capteur événementiel et un contrôleur événementiel, et de développer de nouvelles stratégies de traitement du signal et de commande.
Parmi les capteurs visuels événementiels, le capteur de vision dynamique (DVS) propose une approche originale. Plutôt que de traiter tous les pixels d'une image quelque soit la dynamique de la scène, seuls les pixels dont l'intensité lumineuse change sont transmis pour un traitement numérique, à l'instant où le changement est perçu. Un DVS offre ainsi une diminution considérable de latence pour la perception, mais la technologie reste encore faible résolution (loin de la précision requise pour un bon asservissement visuel). Afin de profiter des deux avantages, il est proposé d'associer i) un capteur DVS, pour détecter rapidement les mouvements dans la scène, et ii) une caméra haute résolution, pour une compréhension plus précise de l'environnement, mais avec un traitement d'image réduit, puisque localisé (restreint à la région d'intérêt identifiée par les événements du DVS, au lieu de prendre en compte l'ensemble des pixels pour chaque image). Cette combinaison implique des méthodes avancées de traitement d'image qui doivent prendre en compte les données spatiales et temporelles renvoyées par le DVS.
Le contrôleur événementiel repose aussi sur un principe innovant: la stratégie de commande n'est ni calculée ni exécutée sans que cela ne soit nécessaire. Typiquement, les événements déclencheurs sont soit un mouvement (ou un obstacle) détecté dans la scène perçue, grâce aux capteurs visuels, soit lorsque le signal de commande doit être mis à jour pour que le robot atteigne un certain objectif. Ce fonctionnement implique de concevoir des méthodes de traitement d'image, de commande et de communication de manière non conventionnelle, tout en garantissant stabilité, qualité de service et performance du système en boucle fermée alors que les signaux de mesure et/ou de commande restent constants entre deux événements successifs (non périodiques).
Au final, la nouvelle architecture d'asservissement visuel événementiel permettra de i) réduire les coûts de calcul et de communication pour le traitement d'image et pour la commande, ii) accélérer l'asservissement visuel et donc améliorer les performances du robot, et iii) réduire la consommation d'énergie. Elle sera implémentée pour la stabilisation et le guidage d'un système robotique complexe sous contraintes de ressources: un quadricoptère autonome embarquant les capteurs visuels et une plateforme de calcul pour le traitement d'image et la commande. La validation expérimentale, ambitieuse, consistera à la navigation du drone dans un environnement incertain.
Monsieur Sylvain DURAND (Laboratoire des sciences de l'Ingénieur, de l'Informatique et de l'Imagerie)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
ICube Laboratoire des sciences de l'Ingénieur, de l'Informatique et de l'Imagerie
Aide de l'ANR 197 640 euros
Début et durée du projet scientifique :
- 36 Mois