DS07 - Société de l'information et de la communication

technology-aided MOBIlity by semantic DEEP learning – MOBI-DEEP

Résumé de soumission

MOBI-DEEP a pour objectif principal de développer des technologies permettant (ou aidant à) la navigation autonome dans des environnements ouverts et inconnus au moyen de capteurs bas coût tels que des caméras numériques. Ce projet se positionne à contre-courant des approches dominantes où une bonne connaissance a priori de l'environnement traversé (disponible sous forme d' une cartographie par ex.) et/ou la capacité de reconstruire en 3D la structure géométrique de cet environnement (SLAM, Lidar, etc) sont nécessaires. Avec ces deux capacités, des systèmes efficaces ont vu le jour en particulier dans le cadre de la robotique mobile. En revanche, ces systèmes sont inefficaces quand une de ces deux capacités n'est pas disponible.
Or il existe de nombreuses situations où des systèmes doivent pouvoir naviguer avec une connaissance limitée de leur environnement et avec un système perceptif le plus léger possible. MOBI-DEEP s’intéressera à ces situations à travers deux applications : l'aide au guidage des personnes déficientes visuelles et l'assistance à la navigation de robots mobiles en milieux ouverts.

Un objectif stratégique du projet est d'aboutir aux fondements d'un système d'aide à la mobilité pour personnes déficientes visuelles qui, par sa légèreté, puisse être emporté en toute occasion, et qui, surtout, ait besoin du minimum d'informations a priori sur l'environnement traversé. Dans ce cas, la tâche de navigation aura une mission d'aide à la navigation et non d'un contrôle du déplacement. Il s'agit, à l'aide d'une seule caméra embarquée (smartphone), d'indiquer à la personne, par une information sonore, dans quelle direction elle peut se diriger afin d'atteindre sa destination, quelle région de son environnement immédiat est libre d'obstacles et d'objets présentant un risque de collision, et de quoi se compose son environnement.

Un deuxième objectif stratégique consiste à concevoir un système de navigation en boucle fermée, pour l'assistance à la navigation de robots. Le projet se concentrera sur le cas des mini-drones. À nouveau il s'agira de déterminer de quoi se compose l'environnement du drone, où se trouve la destination et quel est l'espace libre ne présentant pas de risque de collision immédiate ou dans un futur proche. Pour ce cas d'usage, il s'agira d'un asservissement (boucle fermée). Dans ce cas d'usage, tout comme dans le cas de l'aide à la navigation de personnes, le guidage se fera en 2D (suivi de chemins, déplacements, etc).

Par le choix de ces deux contextes, nous démontrerons que les briques technologiques développées par le projet pourront être facilement adaptées à des cas d'usages différents pour lesquels le besoin de fiabilité, les contraintes de légèreté et de temps réel sont forts. Des technologies d'analyse sémantique de scènes, d'inférence de profondeur, de vitesse, et de navigation par cartes locales seront développées pour répondre à ces besoins. Le projet s'appuiera en particulier sur le développement d'architectures de type réseau de neurones convolutionnels profonds et de méthodes d'apprentissage statistique.

Coordinateur du projet

Monsieur Philippe Martinet (Centre de Recherche Inria Sophia Antipolis - Méditerranée)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

Inria Sophia Antipolis Méditerranée Centre de Recherche Inria Sophia Antipolis - Méditerranée
INJA Institut National des Jeunes Aveugles
Safran SAFRAN
Safran Electronics & Defense SAFRAN ELECTRONICS & DEFENSE
NAVOCAP NAVOCAP
GREYC Groupe de REcherche en Informatique, Image, Automatique et Instrumentation de Caen

Aide de l'ANR 611 221 euros
Début et durée du projet scientifique : - 36 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter