Apprentissage profond pour la volumétrie cérébrale : vers le BigData en neuroscience – DeepVolBrain
Apprentissage profond pour la volumétrie cérébrale : vers le BigData en neuroscience
L'IRM joue un rôle crucial dans la détection de pathologies, l'étude de l'organisation cérébrale et la recherche clinique. Ainsi, le développement de techniques de segmentation fiables devient un domaine important pour l’analyse quantitative des IRM. Dans le projet DeepVolBrain, l'objectif est de développer une nouvelle génération de méthodes d'analyse quantitative des IRM pouvant faire face à la montée du BigData en neuroimagerie afin de générer de nouvelles connaissances.
Une nouvelle génération de méthodes d'analyse quantitative des IRM pouvant faire face à la montée du BigData en neuroimagerie afin de générer de nouvelles connaissances.
Objectif A : Nous proposons d'abord de développer de nouvelles méthodes de segmentation d’IRM en s'attaquant aux limites actuelles de l'apprentissage profond (AP). Dans ce projet, nous développerons une nouvelle stratégie d'augmentation des données. De plus, nous proposerons des architectures innovantes qui permettront d'améliorer la vitesse d'apprentissage et de réduire le nombre d'images d'entraînement requises. Afin de répondre au problème de la consommation importante de mémoire GPU en AP, nous proposerons une stratégie d'apprentissage par ensemble reposant sur des réseaux adaptatifs. Enfin, nous intégrerons les méthodes de segmentation développées dans des chaînes de traitement robustes. Objectif B : En imagerie médicale, la question de la fiabilité est liée à celles du control qualité (CQ) et de la traçabilité. Par conséquent, pour assurer la véracité des résultats produits, nous devons proposer un CQ avancé. Dans le projet DeepVolBrain, un CQ automatique et une correction d'erreur seront intégrés dans les chaînes de traitement. De plus, une validation sur des jeux de données à grande échelle sera effectuée. Enfin, les outils proposés seront appliqués à des bases de données comprenant des cas pathologiques afin de démontrer la capacité du projet proposé à produire de nouvelles connaissances. Objectif C : Enfin, nous mettrons nos outils à disposition gratuitement en déployant une plateforme web. Par le passé, avec la plate-forme volBrain, nous avons développé une plate-forme originale en accès libre hébergée à Valence en Espagne. Cette plateforme a déjà traité plus de 75 000 IRM en 3 ans. Ce grand nombre de traitements nous pousse aujourd’hui à étudier de nouvelles stratégies pour rendre notre plateforme plus évolutive et assurer sa pérennité.
La segmentation du cerveau entier à l'aide de l'apprentissage en profondeur (DL) est une tâche très difficile car le nombre de structures anatomiques est très élevé par rapport au nombre d'images d'entraînement disponibles. Pour résoudre ce problème, les méthodes par AP précédentes proposaient d'utiliser un seul réseau neuronal à convolution (CNN) ou quelques CNN indépendants. Dans cet projet, nous présentons une nouvelle méthode par ensemble basée sur un grand nombre de CNN traitant différentes zones cérébrales qui se chevauchent. Inspiré des systèmes de prise de décision parlementaire, nous proposons une stratégie appelé AssemblyNet, composée de deux «assemblées» de U-Nets. Un tel système parlementaire est capable de traiter des décisions complexes, des problèmes invisibles et de parvenir rapidement à un consensus. AssemblyNet introduit le partage des connaissances entre les U-Nets voisins, une procédure «d'amendement« faite par la deuxième assemblée à plus haute résolution pour affiner la décision prise par la première, et une décision finale obtenue par vote majoritaire.
Les principaux résultats du projet à mi-parcourt concernent les éléments suivants :
- Développement de nouvelles méthodes d’apprentissage semi-supervisé pour la segmentation des IRM 3D. Cette méthode est actuellement utilisée pour la segmentation des lésions en sclérose en plaques.
- Proposition d’un nouveau paradigme d’apprentissage collaboratif permettant la segmentation d’un nombre important de structure. Ce nouveau paradigme va être étendu à l’analyse multitâches et multi-échelles.
- Proposition d’une méthode quantitative pour le contrôle qualité du recalage 3D des IRM du cerveau. Cette méthode est maintenant utilisée dans toutes nos études et a déjà démontré son efficacité.
- Développement d’une nouvelle architecture pour notre plate-forme web. Cette nouvelle version est déjà accessible en mode beta
Dans la deuxième partie de ce projet, nous continuerons d'étudier l'utilisation d'un large ensemble de réseaux pour résoudre des tâches complexes. Ensuite, nous appliquerons nos nouvelles méthodes à de grandes bases de données pour générer de nouvelles connaissances pour les neurosciences et la recherche clinique. Nous développerons également de nouveaux logiciels qui seront intégrés à notre plateforme web en accès libre.
[J1] P. Coupé, J. V. Manjon, E. Lanuza, G. Catheline. Lifespan changes of the human brain in Alzheimer's disease. Nature Scientific Report, 2019.
[J2] K. Hett, V.-T. Ta, G. Catheline, T. Tourdias, J. V Manjón, P. Coupé. Multimodal Hippocampal Subfield Grading For Alzheimer’s Disease Classification. Nature Scientific Report, 9 (1), 1-19, 2019.
[J3] J. V. Manjon, A Berto, J. E. Romero, E. Lanuza, R. Vivo-Hernando, F. Aparici-Robles, P. Coupé. pBrain: A novel pipeline for Parkinson related brain structure segmentation. Neuroimage Clinical, 2020.
[J4] P. Coupé, B. Mansencal, M. Clément, R. Giraud, B. Denis de Senneville, V.-T Ta, V. Lepetit, J. V. Manjon. AssemblyNet: A large ensemble of CNNs for 3D Whole Brain MRI Segmentation. Neuroimage 2020.
[J5] K. Hett, V-T. Ta, I. Oguz, J. V. Manjon, P. Coupé. Multi-scale Graph-based Grading for Alzheimer's Disease Prediction. Medical Image Analysis, 2020
[C1] P. Coupé, B. Mansencal, M. Clément, R. Giraud, B. Denis de Senneville, V.-T Ta, V. Lepetit, J. V. Manjon. AssemblyNet: A Novel Deep Decision-Making Process for Whole Brain MRI Segmentation. MICCAI'19, 2019.
[Preprint1] J. V. Manjon, P. Coupé. MRI denoising using Deep Learning and Non-local averaging. 2019, arXiv. arxiv.org/abs/1911.04798
[Preprint2] J. V. Manjon, J. E. Romero, R. Vivo-Hernando, G. Rubio-Navarro, M. De la Iglesia-Vaya, F. Aparici-Robles, P. Coupé. Deep ICE: A Deep learning approach for MRI Intracranial Cavity Extraction. 2020, arXiv. arxiv.org/abs/2001.05720
[Preprint3] J. V. Manjon, J. E. Romero, P. Coupé. DeepHIPS: A novel Deep Learning based Hippocampus Subfield Segmentation method, arXiv. arxiv.org/abs/2001.11789
[Preprint4] B. de Senneville, J. V. Manjon, P. Coupé. RegQCNET: Deep Quality Control for Image-to-template Brain MRI Registration, arXiv. arxiv.org/abs/2005.06835
L'imagerie par résonance magnétique (IRM) joue un rôle crucial dans la détection de pathologies, l'étude de l'organisation cérébrale et la recherche clinique. Chaque jour, une grande quantité de données est produite et ce nombre augmente rapidement, ce qui empêche l'utilisation d'approches manuelles afin de les analyser. Ainsi, le développement de techniques de segmentation fiables devient un domaine important pour l’analyse quantitative des IRM. Dans le projet DeepVolBrain, l'objectif est de développer une nouvelle génération de méthodes d'analyse quantitative des IRM pouvant faire face à la montée du BigData en neuroimagerie afin de générer de nouvelles connaissances. Les méthodes proposées seront mises à disposition librement à l'ensemble de la communauté via une plateforme web.
Objectif A : Nous proposons d'abord de développer de nouvelles méthodes de segmentation d’IRM en s'attaquant aux limites actuelles de l'apprentissage profond (AP). L’AP est un domaine en pleine croissance en vision par ordinateur. Cependant, les résultats obtenus par l’AP en segmentation des IRM ne sont pas aussi bons que prévu. Les performances limitées de l’AP en neuroimagerie semblent résulter de plusieurs facteurs comme la faible taille des données d'entraînement. Dans ce projet, nous développerons une nouvelle stratégie d'augmentation des données. De plus, nous proposerons des architectures innovantes qui permettront d'améliorer la vitesse d'apprentissage et de réduire le nombre d'images d'entraînement requises. Afin de répondre au problème de la consommation importante de mémoire GPU en AP, nous proposerons une stratégie d'apprentissage par ensemble reposant sur des réseaux adaptatifs. Enfin, le dernier facteur limitant en AP est la qualité du prétraitement afin de compenser l'hétérogénéité des images. Grâce a notre grande expertise dans le domaine, nous intégrerons les méthodes de segmentation développées dans des chaînes de traitement robustes.
Objectif B : L'émergence de très grands ensembles de données ouvre de nouveaux défis comme définis dans le modèle 3V du BigData (Volume, Variété et Vitesse). Les chaines de traitements rapides et robustes développés dans l’objectif A répondront à ces défis en proposant de nouveaux outils capables de traiter de gros volumes de données, de faire face à la variété des images IRM et de proposer des traitements rapides grâce à des implémentations GPU. Cependant, deux V ont été récemment ajoutés au modèle habituel : la Véracité et la Valeur. En imagerie médicale, la question de la fiabilité est liée à celles du control qualité (CQ) et de la traçabilité. Par conséquent, pour assurer la véracité des résultats produits, nous devons proposer un CQ avancé. Dans le projet DeepVolBrain, un CQ automatique et une correction d'erreur seront intégrés dans les chaînes de traitement. De plus, une validation sur des jeux de données à grande échelle sera effectuée. Enfin, les outils proposés seront appliqués à des bases de données comprenant des cas pathologiques afin de démontrer la capacité du projet proposé à produire de nouvelles connaissances.
Objectif C : Enfin, nous mettrons nos outils à disposition gratuitement en déployant une plateforme web. Par le passé, avec la plate-forme volBrain, nous avons développé une plate-forme originale en accès libre hébergée à Valence en Espagne. Cette plateforme a déjà traité plus de 75 000 IRM en 3 ans. Ce grand nombre de traitements nous pousse aujourd’hui à étudier de nouvelles stratégies pour rendre notre plateforme plus évolutive et assurer sa pérennité. Dans ce projet, nous allons d'abord réaliser le déploiement d'un second site en France au LaBRI. Deuxièmement, nous proposerons une nouvelle architecture évolutive et flexible. Cette nouvelle architecture renforcera également la sécurité et la confidentialité des données. Enfin, chacun des outils développés sera intégré dans cette nouvelle plateforme.
Coordination du projet
Pierrick Coupé (Laboratoire Bordelais de Recherche en Informatique)
L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.
Partenaire
LaBRI Laboratoire Bordelais de Recherche en Informatique
Aide de l'ANR 258 467 euros
Début et durée du projet scientifique :
January 2019
- 48 Mois