Notre cerveau ne reconstruit pas les images simplement en mettant ensemble de petits éléments pour faire de plus grands éléments et des éléments de plus en plus complexes dans un mode 'bottom-up'. Au lieu de cela, l'évolution de note interprétation de l'image informe et limite ce processus de reconstruction de façon descendante, en imposant des connaissances sur les statistiques des scènes naturelles. Nous savons que cela arrive, mais nous ne savons maintenant exactement comment: nous ne disposons pas d'un modèle computationnel qui nous permettrait d'intégrer les interactions 'bottom-up' et 'top-down' dans une aide visuelle artificielle. Pour atteindre cet objectif, nous devons obtenir une description de ces processus et leur interaction en utilisant le langage des circuits et des opérations mathématiques, de sorte qu'ils puissent être mis en œuvre sur un dispositif prothétique. Le but de cette proposition est de développer un compte de cette nature, contraint par des données empiriques détaillées fournies par un nouvel ensemble d'outils expérimentaux.
La partie scientifique de la proposition est divisé en 5 sections principales. Dans chaque section, nous décrivons comment nous allons cibler différentes étapes dans la hiérarchie de traitement visuel et comment nous allons utiliser des mesures EEG pour enrichir davantage notre jeu de données expérimentales. Parmi ces 5 sections, les 3 premiers correspondent à des différentes conditions expérimentales qui progressivement s'approximent a la vision naturelle: (1) la condition contrôlée, où les protocoles établis et rigoureux sont adaptés aux scènes naturelles; (2) dynamique, où les exigences associées à des protocoles contrôlés sont détendus pour permettre le relancement des conditions de stimuli dynamiques; (3) actif, où la vision se caractérise durant l'intégration dans le comportement naturel. Nous allons recouper les moyens de controles pendant chaque étape du chemin: paradigmes / protocoles seront développés, une validation croisée et étendue à différents stades de la transition d'une manière mutuellement informative, de sorte que les limitations et les points forts d'une étape donnée deviennent homologues et complémentaires pour les points forts et les limites des autres étapes.
Dans la section auditive (#4), nous exploitons des outils expérimentaux que nous avons développées au cours des dernières années pour concevoir des stimuli hybrides définis par des sons naturels, par opposition à des scènes, et de démontrer avec des données pilotes que nous avons déjà réussi à étudier la façon dont les longues extracteurs auditives sont remodelés par des représentations sémantiques des signaux de parole. Nous proposons ensuite un ensemble de nouvelles manipulations et expériences à queue d'aronde du programme visuel, de sorte que les deux domaines sensoriels peuvent être fusionnés en un compte informatique unifié de traitement de 'bottom-up'/'top-down'.
Le programme computationnel, détaillée dans la section finale, sera développé autour d'une collection de résultats de modélisation importants que nous avons obtenus dans le but de les développer dans une description computationnelle du processus de perception. Ces résultats combinent des modèles de circuits physiologiquement inspirés, tels que des variantes entièrement spécifiées de gain-control, avec des réseaux de neurones à grande échelle de 'deep machine learning', en particulier les variantes récurrentes qui prennent en charge la segmentation sémantique des scènes naturelles. Nous allons commencer à partir de ces bases de modélisation concrets et construire sur ces memes bases, en nous informons par des expériences conçues pour générer des ensembles de données qui limiteront les modèles de manière efficace, pour fournir un compte informatique intégré basé non sur une terminologie de concepts vagues et nébuleux, mais sur les opérations bien définies qui peuvent être traduits en algorithmes de la machine.
Monsieur Peter Neri (Laboratoire des Systèmes Perceptifs)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
CNRS PARIS B UMR 8248 Laboratoire des Systèmes Perceptifs
Aide de l'ANR 269 082 euros
Début et durée du projet scientifique :
octobre 2016
- 36 Mois