JCJC SIMI 2 - JCJC - SIMI 2 - Science informatique et applications

Environnement de contrôle "en temps" pour la composition assistée par ordinateur – EFFICACe

Nouveaux paradigmes pour la composition musicale assistée par ordinateur

Le projet EFFICACe vise au développement d'outils informatiques pour la création musicale, intégrant une conception renouvelée des notions de temps, signal et interactions au sein des processus de composition. <br />Ce projet explore les relations entre temps et calcul musical en composition assistée par ordinateur, en se basant sur l'environnement OpenMusic, ainsi que sur d'autres outils et technologies développées à l'IRCAM et au CNMAT.

Temps, calculs et intercations

Nous considérons la compositions assistée par ordinateur sortie de son paradigme traditionnel «hors-temps« (ou «temps différé«) afin d'insérer les processus compositionnels dans une logique d'interaction structurée avec leur contexte extérieur (logiciel ou physique). Cette interaction pourra ainsi avoir lieu pendant l’exécution ou la performance musicale, mais également dans les stades préliminaires de la composition, au sein des processus conduisant à la création de matériau musical.

Nous abordons nos objectifs généraux suivant différentes perspectives complémentaires telles que :
- Le développement de systèmes réactifs pour la composition assistée par ordinateur;
- L'étude des pratiques et les interactions avec les compositeurs;
- La conception de nouvelles formes et structures temporelles pour la composition;
- Le contrôle, la visualisation et l'éxécution de processus de spatialisation et de synthèse sonore;
- Le rythme et les structures temporelles «symboliques«;
- L'intégration de geste et de dispositifs externes dans les processus compositionnels.

Sur ces différents points nous souhaitons favoriser les échanges et collaborations scientifiques et artistiques, en établissant de fortes connections internationales afin de maximiser l'expertise initiale et la diffusion future de nos outils.

- Extension réactive l'environnement de CAO OpenMusic: bibliothèque disponible pour les utilisateurs et intégrée dans la version OM 6.9 (sortie Nov. 2014)
- Présentations lors d'évènements artistiques et scientifiques (IEEE VL/HCC, French-Brazilian Colloquium on Computer Aided Music Creation and Analysis, Séminaire Agorantic «Culture, Patrimoines, Sociétés Numériques«, Vienna Summer of Logic...)
- Utilisation pour la production de la pièce Quid Sit Musicus de Philippe Leroux, festival Manifeste 2014, et en live lors du concert «Livre Digital - Frontiras Mausicais« à Campinas, Brésil.
- Organisation d'évènements et ateliers scientifiques (cf. repmus.ircam.fr/efficace/events)

Des prototypes opérationnels intégrant composition assistée par ordinateur, interfaces, structures temporelles et traitement/spatialisation sonore seront mis à disposition des utilisateurs sur le site web du projet.
Poursuite des collaborations artistiques et scientifiques pour la conception et la dissémination de nos travaux.

- J. Garcia, J. Bresson, T. Carpentier: Towards Interactive Authoring Tools for Composing Spatialization, 3DUI'15: IEEE 10th Symposium on 3D User Interfaces, Arles, France, 2015.
- J. Bresson, J.-L. Giavitto: A reactive extension of the OpenMusic visual programming language, Journal of Visual Languages and Computing, 25(4), 2014.
- J. Bresson: Reactive Visual Programs for Computer-Aided Music Composition. IEEE Symposium on Visual Languages and Human-Centric Computing – VL/HCC, Melbourne, Australia, 2014.
- A. Vinjar, J. Bresson: OpenMusic on Linux. Linux Audio Conference, Karlsruhe, Germany, 2014.
- D. Bouche, J. Bresson, S.Letz: Programmation and Control of Faust Sound Processing in OpenMusic. Proc. International Computer Music Conference, Athens, Greece, 2014.
- J. Garcia, P. Leroux, J. Bresson: pOM - Linking Pen Gestures to Computer-Aided Composition Processes. Proc. International Computer Music Conference, Athens, Greece, 2014.

Ce projet vise à développer les concepts, et anticiper les outils nécessaires à l’émergence de la prochaine génération d’environnements de composition musicale assistée par ordinateur.

La recherche en composition assistée par ordinateur (CAO) étudie les langages et formalismes informatiques afin de mettre à disposition des compositeurs des outils puissants et expressifs leur permettant de résoudre des problèmes impliquant le traitement ou la production de données musicales (partitions, structures rythmiques ou harmoniques, sons...), ou plus généralement de développer des modèles informatiques dans le cadre de processus compositionnels. Au delà de ce contexte musical, la CAO est ainsi liée à de nombreuses disciplines informatiques, telles que la programmation, la modélisation, les interfaces homme-machine, et bien d’autres. Elle constitue en particulier un champ d’application actif dans le domaine du « end-user programming » et des langages de programmation visuelle.

L’ambition de ce projet est de concevoir une nouvelle génération d’outils de CAO, adaptée aux pratiques musicales contemporaines et basée sur des concepts novateurs en informatique et en technologie de la musique. Notre objectif est de réduire des antagonismes critiques dans le domaine afin de lier les systèmes de composition « haut niveau » à différents contextes et champs disciplinaires tels que le traitement du signal, la synthèse ou la spatialisation sonore. La combinaison des approches « signal » et « symbolique » dans le traitement et la représentation de l’information musicale est considérée en regard à une autre dualité forte subsistant en informatique musicale entre les systèmes « hors-temps » et les systèmes « temps-réel ». Nous abordons donc ces questions sous le point de vue des représentations et de l’intégration du temps dans les structures compositionnelles : le temps dans la représentation des données, réunissant les niveaux macro et microscopiques des structures musicales, et le temps dans les programmes, alliant le calcul des processus compositionnels et les interactions en temps réel. Nous proposons ainsi d’étendre l’état de l’art dans notre domaine de recherche, en introduisant de nouveaux paradigmes de calcul et de programmation, intégrant les approches formelles existantes basées sur un style déclaratif aux approches réactives inspirées des systèmes interactifs temps-réel, et visons la création d’un contexte informatique permettant de traiter ces différentes dimensions des structures et processus musicaux dans un cadre cohérent et expressif.

Le programme de recherche proposé se pose comme une alternative innovante aux approches et catégories existantes dans le domaine, en particulier pour la représentation, la programmation et l’exécution croisées des structures fonctionnelles et temporelles. Il inclut également un travail de conception et développement important en programmation visuelle et interfaces pour la composition, à travers la création d’un environnement opérationnel dédié aux compositeurs et aux chercheurs en informatique musicale.

Notre équipe est constituée de chercheurs et ingénieurs expérimentés dans les différentes disciplines impliquées dans ce projet, et fortement impliqués dans les pratiques musicales actuelles en tant que scientifiques ou artistes.

Coordinateur du projet

Monsieur Jean Bresson (Institut de Recherche et Coordination Acoustique/Musique / - UMR Sciences et Technologies de la Musique et du Son)

L'auteur de ce résumé est le coordinateur du projet, qui est responsable du contenu de ce résumé. L'ANR décline par conséquent toute responsabilité quant à son contenu.

Partenaire

IRCAM Institut de Recherche et Coordination Acoustique/Musique / - UMR Sciences et Technologies de la Musique et du Son

Aide de l'ANR 324 167 euros
Début et durée du projet scientifique : septembre 2013 - 42 Mois

Liens utiles

Inscrivez-vous à notre newsletter
pour recevoir nos actualités
S'inscrire à notre newsletter