CE45 - Interfaces : mathématiques, sciences du numérique – biologie, santé 2024

Thérapie d'Échange et de Développement pour l'autisme assistée par Intelligence Artificielle – TEDIA

Résumé de soumission

Le trouble du spectre de l’autisme (TSA) est un ensemble hétérogène de troubles du neurodéveloppement, touchant un enfant sur 100 à travers le monde, et se traduisant par des difficultés de communication et d’interaction sociale. La thérapie d'échange et de développement (TED) a été mise au point pour réhabiliter ces compétences chez les jeunes enfants. Pendant les séances de TED, l'objectif principal des soignants est de provoquer des synchronisations (typiquement des contacts visuels) avec les patients, afin d’améliorer leurs compétences sociales.
Le projet TEDIA vise à analyser rétrospectivement les vidéos enregistrées pendant les séances de TED, par l'intelligence artificielle (IA), afin d'aider les soignants. Un premier objectif est de détecter, quelques secondes à l'avance, les signes précurseurs d’une synchronisation entre le patient et le soignant. L’hypothèse est que ça aidera les soignants à provoquer plus de synchronisations, en agissant au bon moment. Un second objectif est de découvrir de nouveaux signes précurseurs d’une amélioration future des compétences sociales d’un patient, au-delà de l’intensité et de la fréquence des synchronisations. Nous nous appuierons pour cela sur des évaluations comportementales standardisées réalisées à intervalles réguliers chez ces patients. L’hypothèse est que des recommandations plus précises pourront alors être fournies aux soignants. L'analyse automatique des vidéos s'appuiera sur une caractérisation conjointe de leur contenu visuel et audio. Nous explorerons des représentations de haut niveau du contenu visuel (description de la pose, direction du regard, etc.) et audio (paramètres acoustiques, prosodie, sémantique, etc.), mais également des représentations de plus bas niveau (analyse directe des pixels et des spectrogrammes audio).
Les séances de TED ne représentent qu'une partie de toutes les séances impliquant des enfants atteints de TSA interagissant avec divers professionnels sous contrôle vidéo. Étant donné que toutes ces vidéos présentent des similitudes visuelles et audio, nous émettons l'hypothèse que les modèles d'IA dédiés à la TED pourraient bénéficier d'un pré-entraînement sur cet ensemble plus large de vidéos. Dans TEDIA, nous proposons donc d'entraîner dans un premier temps des modèles d'IA génériques sur cet ensemble élargi, puis de les affiner pour les objectifs cliniques dédiés à la TED, afin d'en améliorer les performances. Ces modèles d'IA génériques s'appuieront sur un apprentissage auto-supervisé (AAS). Ils généraliseront les travaux récents de la littérature en AAS, qui visent à représenter une vidéo, en y ajoutant une dimension supplémentaire : la représentation de séries temporelles de vidéos.
Pour atteindre ces objectifs, TEDIA implique 1) la collection de vidéos de TED, accompagnées de métadonnées (annotation des synchronisations, évaluations comportementales standardisées, etc.), ainsi que d'autres vidéos impliquant des patients atteints de TSA, puis 2) le développement d'algorithmes d'IA auto-supervisés, explicables, prédictifs.
Le projet aboutira à la publication de recommandations actualisées sur les meilleures pratiques en matière de TED, afin d’aider au mieux un nombre croissant d'enfants atteints de TSA. Il aboutira également à la publication de modèles d'IA ouverts pour l'analyse de vidéos de contrôle des patients atteints de TSA, notamment des modèles de fondation auto-supervisés, afin de stimuler la recherche dans cette direction.
TEDIA associe le LaTIM, spécialiste de l'IA pour l'analyse d'images et de vidéos médicales, ainsi qu’iBrain et le CHU de Tours, experts en recherche et accompagnement des TSA, et pionniers de la TED. Le LaTIM bénéficie notamment d'une expertise en IA explicable et prédictive, ainsi qu'en AAS (vidéos et séries temporelles d'images). Le laboratoire iBrain bénéficie notamment d'une expérience complémentaire en analyse de la parole, en particulier chez les patients autistes.

Coordination du projet

Gwenolé Quellec (Université de Brest)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenariat

LaTIM Université de Brest
iBraiN Université de Tours
DRI Tours Centre Hospitalier Universitaire de Tours

Aide de l'ANR 621 208 euros
Début et durée du projet scientifique : janvier 2025 - 48 Mois

Liens utiles

Explorez notre base de projets financés

 

 

L’ANR met à disposition ses jeux de données sur les projets, cliquez ici pour en savoir plus.

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter