13.07.2015 Views

L'utilisation de modèles intermédiaires dynamiques pour ... - JIM2011

L'utilisation de modèles intermédiaires dynamiques pour ... - JIM2011

L'utilisation de modèles intermédiaires dynamiques pour ... - JIM2011

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

L'UTILISATION DE MODÈLES INTERMÉDIAIRES DYNAMIQUES POURLA SYNTHÈSE AUDIO-GRAPHIQUEVincent Goudard Hugues Genevois Émilien GhomiLAM - Institut Jean le Rondd'Alembertvincent@mazirkat.orgLAM - Institut Jean le Rondd'Alembertgenevois@lam.jussieu.frLRI – Université Paris Sud 11emilien.ghomi@lri.frRÉSUMÉLors du développement d’instruments logiciels, lamanière dont les données issues <strong>de</strong>s interfaces gestuellessont mises en relation avec les paramètres nécessaires aucontrôle <strong>de</strong> la synthèse, ou mapping, a un rôle décisifdans l’ergonomie, la jouabilité et les possibilitésexpressives du dispositif. Les auteurs proposent uneapproche s’appuyant sur une conception logiciellemodulaire.Cette architecture vise à compléter ce nécessairemapping par l’introduction <strong>de</strong> « Modèles IntermédiairesDynamiques » dont l’objectif est d’améliorer etd’enrichir l’interaction musicien-instrument. Dans un telschéma, ces modules s'insèrent entre ceux consacrés à lamise en forme <strong>de</strong>s données issues <strong>de</strong>s dispositifsd’interaction et les algorithmes <strong>de</strong> synthèse audiographiqueet <strong>de</strong> rendu son-image.Dans le présent article, le cadre général <strong>de</strong> cettearchitecture logicielle ainsi que le concept <strong>de</strong> « ModèleIntermédiaire Dynamique » seront présentés etdéveloppés, appuyés sur une réflexion théorique enrappelant les origines. Ensuite, <strong>de</strong>s exemplesd’implémentation seront décrits plus en détail, ainsi queleur cadre d’utilisation. En conclusion, les auteursévoqueront le programme <strong>de</strong> validation à mettre enœuvre, programme reposant sur une approchepluridisciplinaire prenant en compte les différentsaspects <strong>de</strong> l’évaluation.1. INTRODUCTION1.1. Contexte et état <strong>de</strong> l'artEn inventant <strong>de</strong> nouveaux dispositifs <strong>de</strong> productionmusicale, le XXe siècle nous invite à repenser leconcept d’instrument <strong>de</strong> musique. De nombreuxtravaux, en musicologie comme en informatiquemusicale, décrivent l’histoire et les enjeux <strong>de</strong> ces(r)évolutions [1], les conditions techniques <strong>de</strong> leurapparition et les formes inédites « d’instrumentalité »auxquelles ces nouvelles lutheries nous invitent [4].Lors du passage <strong>de</strong> l’instrument « mécanique » àl’instrument électrique, électronique et, plus encore,informatique, s’est opérée une rupture <strong>de</strong>s chaînescausales traditionnelles qui garantissaient la cohérencetemporelle, spatiale et énergétique <strong>de</strong>s interrelationsgeste-instrument-son [3].Si les techniques <strong>de</strong> synthèse numériques ont faitd’incontestables progrès au cours <strong>de</strong>s <strong>de</strong>rnièresdécennies, puisque nous sommes aujourd’hui en mesure<strong>de</strong> synthétiser, en temps-réel, <strong>de</strong>s signaux d’une gran<strong>de</strong>variété <strong>pour</strong> simuler <strong>de</strong>s instruments existants ou créer<strong>de</strong>s timbres nouveaux, la question <strong>de</strong> l’expressivité et dujeu musical reste ouverte.L’écart inévitable entre geste et production sonoreinduit par les dispositifs instrumentaux électroniques etnumériques, rend nécessaire l'écriture <strong>de</strong>s processus <strong>de</strong>cette mise en relation [?]. Ainsi, ce qui se trame, se tisseau moment <strong>de</strong> leur définition, <strong>de</strong> leur écriture, est déjà lefruit d’un premier geste musical.1.2. Échelles temporelles et corporellesIl semble possible <strong>de</strong> distinguer, même si c’est <strong>pour</strong>mieux les invali<strong>de</strong>r par la suite, quatre phases,traditionnellement repérables, au cours <strong>de</strong>squelles semanifeste un geste <strong>de</strong> nature musicale [9] :- Composition - la production <strong>de</strong> structures musicaleshors-temps. Nous pensons que l’improvisation,lorsqu’elle cherche à ignorer l’existence d’une telleproduction, prend le risque <strong>de</strong> se soumettre plusbrutalement encore aux schémas dont elle feint <strong>de</strong>s’affranchir.- Lutherie - la réalisation <strong>de</strong> l’instrument et sapréparation <strong>pour</strong> le jeu (fabrication, accord, égalisation,réglages et ajustements <strong>de</strong>s hauteurs et <strong>de</strong>s sonorités).- Interprétation - le jeu « instrumental » qui produit,modifie, mélange, dans le temps même <strong>de</strong> l’écoute, lamatière sonore. On songe alors aux gestes les plusvisibles : ceux <strong>de</strong> l’instrumentiste, du chef, <strong>de</strong>l’ingénieur du son.- Écoute - l'écoute 1 , enfin, qui construitl’intelligibilité <strong>de</strong> notre environnement sonore et semobilise sans répit <strong>pour</strong> en garantir la cohérence.On peut légitimement s’interroger sur la nécessité <strong>de</strong>donner au geste musical un champ d’action aussi vasteet donc une définition aussi peu efficace. Pourtant, lavalidité du « découpage » présenté ci-<strong>de</strong>ssus n’est pasavérée. Les phases qu’il établit n’existent la plupart dutemps que superposées, gommant partiellement les1Si l'on considère que le geste est ce qui « fait signe », c'est à dire untype d'action visant à produire, construire, et/ou re-connaître du sens,alors l'écoute même est un geste.


frontières entre <strong>de</strong>s catégories <strong>de</strong> gestes qui paraissent apriori faciles à énoncer. Même en restant dans unschéma strictement classique, le distinguo établi ci<strong>de</strong>ssusn’est pas aussi net et évi<strong>de</strong>nt qu'il en al'apparence. De plus, au travers <strong>de</strong> nouvelles formes <strong>de</strong>création artistique (musiques sur support, musiquesinteractives, etc.), les <strong>de</strong>rnières décennies auront vu sebriser le découpage énoncé, preuve, sans doute, <strong>de</strong> safragilité.2. ORIGINE DU CONCEPT DE MODÈLEINTERMÉDIAIRE DYNAMIQUES (MID)Depuis plusieurs décennies maintenant sedéveloppent <strong>de</strong>s questionnements sur les interfaceshomme-machine [2] et <strong>de</strong> nombreux travaux font état <strong>de</strong>recherches portant sur l’optimisation <strong>de</strong>s couches etmétho<strong>de</strong>s <strong>de</strong> mapping, même si les contours et limitesexacts <strong>de</strong> la notion <strong>de</strong> mapping <strong>de</strong>meurent flous. Ainsi,<strong>de</strong>s étu<strong>de</strong>s comparatives sur ces différents types <strong>de</strong>mapping ont été publiées [11], définissant <strong>de</strong>s catégories(one-to-one, one-to-many, etc.).De manière générale, on peut considérer qu’unmapping classique, ou statique, est réductible à uneopération matricielle : la multiplication d’un vecteurd’entrée (issu <strong>de</strong>s valeurs fournies par les contrôleursgestuels) par une matrice décrivant les opérations <strong>de</strong>mapping fournit le vecteur qui servira à élaborer lesparamètres <strong>de</strong> pilotage <strong>de</strong> la synthèse.synthèse sonore, la synthèse graphique et leurs rendus(acoustique et visuel).Lors <strong>de</strong>s premiers développements et essais, <strong>de</strong>stravaux allant dans la même direction ont été repérés[16] [7] et nous ont conforté dans l’idée qu’il y avait làquelque chose à approfondir, d’autant que certaines <strong>de</strong>ces recherches ont parfois donné lieu à <strong>de</strong>s réalisationsartistiques très convaincantes [3].2.1. Généralisation du conceptLes objectifs visés par l’utilisation <strong>de</strong>s MID [10] sont<strong>de</strong> différentes natures et conduisent à élaborer un cahier<strong>de</strong>s charges en décrivant les aspects fonctionnels etstructurels. Sans être exhaustif, nous évoqueronscependant quelques-unes <strong>de</strong> leurs caractéristiquesessentielles :- « augmenter » le geste en générant, à partir <strong>de</strong>sdonnées issues <strong>de</strong>s capteurs, <strong>de</strong>s flux <strong>de</strong> paramètres <strong>de</strong>contrôles (travail à <strong>de</strong>s fréquences intermédiaires entrecontrôle gestuel et fréquence du signal audio)- s’intégrer dans une architecture logicielle modulairerespectant le caractère empirique <strong>de</strong> toute forme <strong>de</strong>lutherie (pouvoir tester différents types <strong>de</strong> synthèse àpartir d’un même MID ou vice-versa)- offrir une panoplie <strong>de</strong> modules correspondant à <strong>de</strong>sbesoins variés (échelles temporelles et logicielles enparticulier)- offrir plusieurs niveaux <strong>de</strong> monitoring et, sinécessaire, gérer avec les mêmes algorithmes différentesmodalités sensorielles.Figure 1. Mapping classiqueDe ce fait, le type et les caractéristiques du mappingseront liées aux propriétés <strong>de</strong> la matrice qui en est latraduction : diagonalité, triangularité, régularité...Il convient <strong>de</strong> noter que d’autres approches sontpossibles, certaines ne supposant pas l’explicitation <strong>de</strong>la mise en relation geste-synthèse, mais se fondant sur<strong>de</strong>s techniques <strong>de</strong> reconnaissance gestuelle (réseaux <strong>de</strong>neurones, chaînes <strong>de</strong> Markov cachées...).Chaque métho<strong>de</strong> a ses avantages et sesinconvénients. En ce qui nous concerne, nous avonscherché dans une direction un peu différente etcomplémentaire, en partant du principe qu’une synthèsevivante et cohérente nécessite <strong>de</strong>s paramètres tropnombreux et évoluant trop rapi<strong>de</strong>ment <strong>pour</strong> être touscontrôlés directement par le musicien. D’autre part, ils’agit aussi <strong>de</strong> pouvoir piloter, dans le même geste, laFigure 2. Schéma général du mapping avec MIDDans une certaine mesure, le rôle d’un MID dans unechaîne <strong>de</strong> synthèse peut être rapproché <strong>de</strong> celui d’unarchet, <strong>de</strong> la mécanique d’un piano, d’un bec <strong>de</strong> flûte,etc. Un violoncelle peut en effet être joué avec un archetcomme il peut l’être avec les doigts (en pizzicati), etréciproquement, un archet peut servir à frotter et exciterautre chose d’une cor<strong>de</strong>.2.2. Typologie <strong>de</strong>s MIDNous l’avons vu, le concept <strong>de</strong> Modèle IntermédiaireDynamique est, par construction, très général. Il doitnotamment pouvoir être mis en œuvre dans le cadre <strong>de</strong>sdifférentes tâches musicales envisagées, qui setraduisent par <strong>de</strong>s processus sonores et musicaux àdifférentes échelles temporelles, ces différentes échelles


étant elles-même à mettre en regard <strong>de</strong>s échellescorporelles à considérer.Pour cela, et aussi <strong>pour</strong> offrir une paletted’interactions et <strong>de</strong> traitements diversifiée, les MIDpeuvent s’inspirer <strong>de</strong> modèles développés dansdifférents domaines scientifiques, avec <strong>de</strong>scomportements et <strong>de</strong>s ergonomies très variées.Dans un premier temps, nous avons mis l’accent,dans le cadre du projet OrJo 2 , sur trois types <strong>de</strong> MID :basés sur <strong>de</strong>s modèles « physiques », « topologiques » et« génétiques ».Dans le cadre <strong>de</strong> cette présentation, nous ne décrironspas les caractéristiques comparées <strong>de</strong> ces différentsmodèles <strong>pour</strong> mettre l’accent sur ceux qui ont déjà faitl’objet d’un développement et d’une implémentationopérationnelle.3. MODÈLES INTERMÉDIAIRESDYNAMIQUES3.1. Les MID : générateurs <strong>de</strong> mouvement(s)Les processus à l’œuvre dans les MID opèrent surplusieurs aspects <strong>de</strong> la transduction <strong>de</strong> mouvementattendue par un instrument <strong>de</strong> musique que nousdétaillons ci-après.- la qualité <strong>de</strong> mouvement : Pour donner un exempleacoustique, le plectre d'un instrument à cor<strong>de</strong> apporteune qualité <strong>de</strong> pincement <strong>de</strong> cor<strong>de</strong> et d'attaque sonoredifférente <strong>de</strong> celle <strong>de</strong>s doigts. Cette micro-logiquecomportementale permet par ailleurs <strong>de</strong> transformer ledéplacement <strong>de</strong> la main relativement linéaire en unevariation particulière <strong>de</strong> ce mouvement, à savoir unesuccession <strong>de</strong> pincement dont le rythme est lié àl'espacement <strong>de</strong>s cor<strong>de</strong>s et la vitesse <strong>de</strong> la main. Lesdispositifs d’interaction étant souvent dé<strong>pour</strong>vu d’aspect<strong>de</strong> surface (une tablette graphique n’a pas la rugosité ducrin d’un archet par exemple) les MID doivent intégrercette aspect.- la non linéarité <strong>de</strong>s mouvements : La richesse d’unson est en partie liée à l’ensemble <strong>de</strong> phénomènes nonlinéairesen action dans un instrument <strong>de</strong> musique et quicontribuent à rendre le son « vivant ». Ces non-linéaritésen partie inhérentes aux matériaux dans les instrumentsacoustiques (et même électronique) font souvent «défaut » dans les instruments informatique aux valeursdigitales normalisées. Nous jouons à peine sur les motsen remarquant que ce sont justement les « défauts » quetoute une veine <strong>de</strong> la musique électronique ira chercher<strong>pour</strong> produire une musique aux sonorités riches etinattendues, connue aujourd’hui sous plusieurs nomdont « glitch » (dysfonctionnement) semble être le plusreconnu [5]. Il faut ainsi ré-introduire saturations,exponentielles, distorsion, et autres « gigues » (anglais :2 OrJo est un projet <strong>de</strong> recherche financé par le FEDER et le ConseilRégional Ile-<strong>de</strong>-France qui réunit comme partenaires : Puce-Muse, leLAM, le LIMSI et la société 3DLized. Il vise le développementd’instruments audiovisuels en vue <strong>de</strong> pratiques artistiques collectives.jitter) dans les fonctions <strong>de</strong> transfert <strong>de</strong>s MID <strong>de</strong> lalutherie numérique.- la démultiplication du mouvement : En agissant sur<strong>de</strong>s modèles complexes, une variationunidimensionnelle peut être convertie en mouvementmultidimensionnel et polyphonique. Pour reprendrel’analogie avec un instrument acoustique, un accordd’autant <strong>de</strong> notes que <strong>de</strong> cor<strong>de</strong>s <strong>pour</strong>ra être joué d’unseul geste sur une guitare. Cette démultiplication dumouvement peut agir autant dans la verticalité(polyphonie) que dans l’horizontalité (polyrythmie) <strong>de</strong>l'écriture musicale : on <strong>pour</strong>ra par exemple contrôler unecible qu'un ensemble d'éléments atteindront à traversune logique <strong>de</strong> déplacement qui leur est propre.3.2. Représentation mentale <strong>de</strong>s MIDEn tant que processus informatique, l’algorithmereste abstrait <strong>pour</strong> le musicien qui a besoin d’un modèlemental afin d’anticiper le résultat <strong>de</strong> ses actions(idéalement : « chanter » ce qu’il joue) et éviter lasurcharge cognitive qu'entraînerait la manipulationdirecte d’un trop grand nombre <strong>de</strong> paramètres. Lemodèle « mental » ne passe cependant pas par lacompréhension intellectuelle <strong>de</strong> chacun <strong>de</strong>s processus àl’œuvre, mais avant tout par la compréhension «corporelle » <strong>de</strong> l’objet manipulé. Cet « objet » mi-réel,mi-virtuel est composé du dispositif d’interaction et <strong>de</strong>salgorithmes qui font corps. Au terme « paramètred’entrée » nous préférons ainsi le terme <strong>de</strong> « poignée »,ou <strong>de</strong> « point d’action » <strong>pour</strong> désigner la manière donton « attrape » l’instrument que l’on manipule.4.1. Rendu audio4. RENDU DES MIDPour sonifier la multitu<strong>de</strong> <strong>de</strong> sources <strong>de</strong> mouvementgénérée par les MID, nous avons adapté <strong>de</strong>s algorithmes<strong>de</strong> synthèse connus (Karplus-Strong, FM, granulaire) àune utilisation massivement polyphonique permettantd'utiliser <strong>de</strong>s matrices <strong>pour</strong> contrôler <strong>de</strong> nombreuxparamètres <strong>de</strong> synthèse parallèlement, sur plusieurs voix<strong>de</strong> polyphonie.Pour cela, nous avons développé conjointement <strong>de</strong>soutils permettant l’adaptation <strong>de</strong> valeurs entre lesmatrices <strong>de</strong> mouvement et les paramètres <strong>de</strong> synthèsequi permettent différentes stratégies d'utilisation <strong>de</strong>svoix <strong>de</strong> polyphonie en cas <strong>de</strong> non adéquation du nombre<strong>de</strong> sources <strong>de</strong> mouvement aux nombre <strong>de</strong> voix <strong>de</strong>polyphonie.Également, divers cribles et courbes <strong>de</strong> fonctions <strong>de</strong>correspondance paramétrables permettent <strong>de</strong>s mises àl’échelle ergonomiques entre données <strong>de</strong> mouvement etparamètres <strong>de</strong> synthèse, notamment en vue <strong>de</strong>l’utilisation possible <strong>de</strong>s règles d’écriture <strong>de</strong> la traditionmusicale (tonalité, divisions rythmiques).


4.2. Rendu graphiquePour l’instant, nous avons concentré notre recherchesur <strong>de</strong>s représentations graphiques qui ai<strong>de</strong>nt à lacompréhension du modèle manipulé et remplissentessentiellement une fonction <strong>de</strong> monitoring. Les MIDn’ont pas nécessairement vocation a être visualisés,notamment s’ils sont inclus dans une ensemble plusvaste; par ailleurs, il existe plus d’une représentationpossible <strong>pour</strong> un MID. Les modules assurant la synthèsegraphique ont donc été séparés du modèle algorithmiqueafin <strong>de</strong> pouvoir changer la représentation visuelle, laséparer d'un rendu artistique ou <strong>de</strong> ne simplement pasles utiliser.4.3. AutresMallette. Les lecteurs intéressés auront cependant intérêtà aller écouter et voir les éléments que nous tentons <strong>de</strong>décrire ici 3 . L'exemple consiste en une tablettegraphique qui agit sur la succession <strong>de</strong> <strong>de</strong>ux MID encasca<strong>de</strong> et suivis d'un module <strong>de</strong> synthèse.5.2.1. Exemple <strong>de</strong> MID 1 : RouletteLe premier MID nommé "Roulette" est un modèlegéométrique inspiré <strong>de</strong> la roulette <strong>de</strong> Pascal 4 , et consisteun polygone régulier qui peut se mouvoir selon lesmo<strong>de</strong>s suivants :- bascule autour d'une <strong>de</strong> ses arêtes- glissement le long d’une <strong>de</strong> ses faces- mouvement pendulaire autour d'un axeLes MID étant générateurs <strong>de</strong> mouvement, leurproduit peut-être utilisé à <strong>de</strong>s fins autre que la synthèseaudio-graphique. Notamment, ils peuvent piloter <strong>de</strong>séléments externes comme <strong>de</strong>s dispositifs acoustiquesqu’ils iront exciter, <strong>de</strong>s dispositifs <strong>de</strong> filtrage ou <strong>de</strong>spatialisation du son, ou bien produire un retour d’effort.Les possibilités sont multiples et dépassentvraisemblablement le cadre <strong>de</strong>s développementsentrepris dans la phase <strong>de</strong> notre recherche actuelle.5. IMPLÉMENTATION DES MID DANS LAMÉTA-MALLETTENous présentons ici l’implémentation <strong>de</strong> <strong>de</strong>ux MIDdans la Méta-Mallette, en tentant <strong>de</strong> donner une idéeconcrète quoique limitée <strong>de</strong> l’utilisation <strong>de</strong>s MIDcomme outil <strong>de</strong> lutherie numérique expérimentale.5.1. La Méta-MalletteLa Méta-Mallette est un dispositif permettant <strong>de</strong>jouer musiques et images assistées par ordinateur entemps réel et à plusieurs [15]. L'environnement logicielMéta-Mallette permet <strong>de</strong> charger <strong>de</strong>s instrumentsvirtuels jouable avec <strong>de</strong>s interface <strong>de</strong> type joystick,tablette graphique ou encore <strong>de</strong>s interfaces plus expertescomme le Méta-Instrument [14].Jusqu'à présent, les instruments développés <strong>pour</strong> laMéta-Mallette incluaient directement tous les éléments<strong>de</strong> la chaîne allant <strong>de</strong> l'instrumentiste au rendu sonore etgraphique. Les <strong>de</strong>rnières évolutions du logicielpermettent aujourd'hui <strong>de</strong> dissocier ces éléments <strong>pour</strong>les reconnecter différemment et ouvrir la voie à <strong>de</strong>nouvelles expérimentations. Le travail réalisé au LAMdans le cadre du projet OrJo a justement <strong>pour</strong> objectif <strong>de</strong>développer <strong>de</strong>s éléments <strong>de</strong> lutherie numérique quirendront facilement possible l'expérimentationempirique, nécessaire à la lutherie.5.2. MID « Roulette » et « Verlet »Nous allons tenter <strong>de</strong> présenter textuellement unexemple d'implémentation <strong>de</strong> MID dans la Méta-Figure 3. Courbes <strong>de</strong> trajectoires engendrées parla bascule du MID « Roulette »Ces primitives <strong>de</strong> mouvement ont <strong>de</strong>s courbesd'évolution temporelle paramétrables qui joueront sur laqualité du mouvement induit. Par exemple, lemouvement <strong>de</strong> glissement aura l'air d'une chute, d'unélan, ou d'un simple déplacement selon l'évolutionlinéaire ou quadratique <strong>de</strong> sa vitesse.Bien que ressemblant à un modèle physique, cemodèle s’en différencie par <strong>de</strong>s évolutions <strong>de</strong>mouvement dont les pério<strong>de</strong>s temporelles sont définiesstrictement, permettent un jeu rythmique respectant unepulsation, et surtout par l’absence <strong>de</strong> contrainte pseudophysiquequi permet <strong>de</strong> sortir à tout moment <strong>de</strong> la «règle » apparente.Les points d'action <strong>de</strong> l'instrument Roulette sont :- la position <strong>de</strong> la cible que le polygone cherchera àatteindre- la sélection du type <strong>de</strong> mouvement à effectuer- la diamètre du polygone et son nombre <strong>de</strong> faces- sa position et son orientation- les durées <strong>de</strong> chaque type <strong>de</strong> mouvement3Les éléments logiciels développés dans le cadre du projet OrJo serontmis en ligne sur le site web du LAM : http://www.lam.jussieu.fr4 La roulette est une généralisation <strong>de</strong>s cycloï<strong>de</strong>s qui doit son nom auTraité <strong>de</strong> la Roulette écrit par Blaise Pascal en 1659


Les points <strong>de</strong> réaction (ou paramètres <strong>de</strong> sortie) <strong>de</strong> cemodèle sont :- le diamètre du polygone et son nombre <strong>de</strong> face- sa position et son orientation- la progression du mouvement en cours- la fin du mouvement5.2.2. Exemple <strong>de</strong> MID 2 : VerletLe second module nommé « Verlet » est basé surl'algorithme pseudo-physique <strong>de</strong> Verlet 5 . Il permet <strong>de</strong>modéliser une structure <strong>de</strong> points reliés par <strong>de</strong>s liaisonsélastiques. Ce modèle squelettique est contenu dans uneboîte avec laquelle il peut entrer en collision.exemple, il est ré-utilisé <strong>pour</strong> contrôlé un <strong>de</strong>uxièmeMID : la position et l'orientation du polygone <strong>de</strong> laroulette contrôle la position et l'orientation <strong>de</strong> la boîte duMID Verlet.Ainsi, les mouvements percussifs engendrés par unmouvement <strong>de</strong> bascule du polygone <strong>de</strong> Rouletteengendreront une multitu<strong>de</strong> <strong>de</strong> micro-mouvementsgénérés par l'algorithme <strong>de</strong> Verlet « secoué » parl'algorithme <strong>de</strong> Roulette. L'instrumentiste peut ainsicontrôler d'un geste simple un processus intuitif quicomplexifie son geste et génère un ensemble <strong>de</strong>mouvements complexe.Remarquons que le chaînage <strong>de</strong> ces <strong>de</strong>ux modulesaurait pu être réalisé dans l’ordre inverse, c’est à dire encontrôlant avec la tablette graphique un modèle <strong>de</strong>Verlet qui contrôle en aval une multitu<strong>de</strong> <strong>de</strong> Roulettes. Ilest en fait possible <strong>de</strong> répéter cette opération autant <strong>de</strong>fois que la puissance <strong>de</strong> calcul <strong>de</strong> la machine le permet.Figure 4. Différentes configurations <strong>de</strong> VerletLes points d'action <strong>de</strong> l'instrument Verlet sont :- la position est l'orientation <strong>de</strong> la boîte- les dimensions <strong>de</strong> la boîte- la longueur et la rigidité <strong>de</strong>s liaisons élastiques- la gran<strong>de</strong>ur et l'orientation <strong>de</strong> la force appliquée auxpoints du modèleLes points <strong>de</strong> réaction (ou paramètres <strong>de</strong> sortie) duMID Verlet sont :- une matrice contenant la position <strong>de</strong> tous les pointsdu modèle- une matrice contenant la vélocité <strong>de</strong>s impacts <strong>de</strong>spoints sur la boite5.3. Interconnexion <strong>de</strong>s MIDDans la chaîne d’interaction évoquée précé<strong>de</strong>mment,l'instrumentiste agit sur le modèle <strong>de</strong> roulette quitransforme la nature <strong>de</strong> son mouvement : en déplaçant lacible sur une tablette graphique, le modèle <strong>de</strong> Rouletteréagit en se déplaçant avec un comportement prévisible,mais qui lui est propre.Son mouvement <strong>pour</strong>rait être directement utilisé <strong>pour</strong>contrôler l'algorithme <strong>de</strong> synthèse sonore, mais dans cetFigure 5. Interconnexions entre les modèles :1 : Verlet→Roulette, 2 : Roulette→Verlet,3 : Roulette→Verlet→Roulette5.4. Synthèse audioL’algorithme <strong>de</strong> synthèse utilisé dans cet exemple estbasé sur le modèle <strong>de</strong> cor<strong>de</strong> pincée <strong>de</strong> Karplus-Strong[12, 13], dans lequel nous avons inséré un mécanisme<strong>de</strong> compensation <strong>de</strong> gain dans la boucle <strong>de</strong> feedback,permettant <strong>de</strong> compenser l’amortissement fonction <strong>de</strong> lafréquences fondamentale, et contrôler ainsiindépendamment durée <strong>de</strong> résonance et filtrage <strong>de</strong>sharmoniques. L’environnement <strong>de</strong> la Méta-Mallettepermet <strong>de</strong> brancher sur l'algorithme aussi bien <strong>de</strong>sdonnées issues du modèle <strong>de</strong> Verlet, que <strong>de</strong> Roulette, oumême directement du dispositif d’interaction. Cettemultiplicité d’accès aux paramètres finaux <strong>de</strong> synthèsesonore est l’aspect indispensable <strong>de</strong> l’ajustementempirique nécessaire à la lutherie <strong>de</strong> l’instrumentcomplet.5Ce schéma d’intégration numérique a été développé en 1967 par lephysicien Loup Verlet


6. CONCLUSIONS ET PERSPECTIVESLa réussite du programme OrJo, dans lequel s’inscritcette recherche, suppose à la fois <strong>de</strong> développer <strong>de</strong>sinstruments nouveaux mais aussi d’en évaluer l’intérêt,la richesse, la généricité, aussi bien d’un point <strong>de</strong> vueartistique (création et pédagogie), qu’en tant quemodèles d’interaction susceptibles d’être généralisés àd’autres domaines d’interaction homme-machine. D’icila fin du projet, une ou plusieurs métho<strong>de</strong>s d’évaluation<strong>de</strong>vront donc être élaborées.6.1. Évaluation <strong>de</strong>s MIDSi toute démarche scientifique suppose <strong>de</strong> pouvoirvali<strong>de</strong>r les hypothèses énoncées, si tout travaild’ingénierie implique d’évaluer le résultat <strong>de</strong>sdéveloppements, la tâche n’est toutefois pas simple dèslors que l’on s’intéresse à un dispositif complexe(modulaire, mi-matériel, mi-logiciel) <strong>de</strong>stiné à <strong>de</strong>venirun instrument <strong>de</strong> musique, c’est-à-dire considéré commetel, au moins par son utilisateur, sinon par sonentourage!Dans le domaine <strong>de</strong>s instruments <strong>de</strong> musique,l’histoire, notamment au XIX e siècle, fait montre d’uneactivité inventive considérable avec <strong>de</strong>s succès notables(saxophone, accordéon...) et <strong>de</strong>s échecs plus ou moinsretentissants. Or il a parfois fallu plusieurs décennies<strong>pour</strong> que certains instruments soient acceptés. Ilconvient donc d’être particulièrement pru<strong>de</strong>nt en ce quiconcerne toute évaluation hâtive.Contrairement à beaucoup d’autres dispositifs etoutils, les instruments <strong>de</strong> musique nécessitentgénéralement un temps d’apprentissage relativementlong. On peut considérer qu’il s’agit d’un défaut lié àune ergonomie déficiente... on peut aussi penser, acontrario, que c’est précisément ce long apprentissage<strong>de</strong> la variété et <strong>de</strong> la subtilité <strong>de</strong>s sonorités pouvant êtreproduites qui fait la richesse et l’expressivité d’uninstrument.Toutefois, le fait <strong>de</strong> pouvoir programmer et choisir<strong>de</strong>s MID plus ou moins complexes nous permetd’espérer <strong>de</strong>s phases d’apprentissage en adéquation avecles différentes situations artistiques et pédagogiquesvisées (découverte, apprentissage, orchestre amateur,orchestre professionnel, etc...). En particulier, nousavons déjà pu constater <strong>de</strong>s différences notablesd’appréciation selon qu’il s’agit d’un usage solo ou dansle cadre <strong>de</strong> pratiques collectives, dans le Méta-Orchestre 6 par exemple. Un travail d’enquête a en effetété conduit, dans le cadre d’un projet précé<strong>de</strong>nt, quivisait à mieux comprendre la notion d’instrumentalité à6 Le Méta-Orchestre est un orchestre électronique <strong>de</strong>stiné à jouer <strong>de</strong>sœuvres audiovisuelles nécessitant un jeu collectif. Il a été créé parSerge <strong>de</strong> Laubier en 2007 <strong>pour</strong> expérimenter <strong>de</strong> nouvelles formesd’écritures artistique et s’est déjà produit dans différents contextes(salles <strong>de</strong> concert ou église, plein air). Techniquement, il repose sur unearchitecture logicielle, la Méta-Mallette, utilisée aussi dans <strong>de</strong>scontextes pédagogiques ou « ludo-éducatifs », ainsi que sur <strong>de</strong>sinterfaces gestuelles du commerce (joysticks, gamepads, tablettesgraphiques...).travers l’analyse d’entretiens portant sur la question <strong>de</strong>l’instrument et étudiés avec les outils <strong>de</strong> la psycholinguistique[4]. Ce travail <strong>de</strong>vra être complété,approfondi, et comparé à <strong>de</strong>s travaux ayant trait, enpartie au moins, aux mêmes problématiques [18].Par ailleurs, nous chercherons, dans les métho<strong>de</strong>sd’évaluation mises en œuvre dans les recherches enIHM [2] et en informatique musicale [6], <strong>de</strong>s outilsd’analyse pertinents par rapport à nos objectifs. Au <strong>de</strong>là<strong>de</strong> la grammaire sonore établie par Schaeffer [17], lesUnités Sémiotiques Temporelles [8] proposées par leMIM nous paraissent un outil intéressant <strong>pour</strong>l’évaluation <strong>de</strong> la facilité et <strong>de</strong>s possibilités qu’offre uninstrument au musicien <strong>pour</strong> réaliser <strong>de</strong>s formesmusicales variées. Dans tous les cas, le paradigme <strong>de</strong>l’énaction [19] nous paraît un point <strong>de</strong> vue efficient <strong>pour</strong>traiter <strong>de</strong>s questions <strong>de</strong> ce type.6.2. Limitations et perspectivesSi on pose la question à un luthier <strong>de</strong> savoir si c’est laqualité du bois, <strong>de</strong> la colle ou du vernis qui fait un bonviolon, il répondra peut-être que le facteur essentiel estl’assemblage précis <strong>de</strong> tous ces éléments. L’approchemodulaire a ses limitations quand on sait l’importance<strong>de</strong> l’inter- et la rétro-action <strong>de</strong>s éléments constitutifsd’un bon instrument. Néanmoins, nous espérons que lesdéveloppements décrits dans cet article seront utiles àl’expérimentation et que leur disponibilité dans unenvironnement comme la Méta-Mallette permettra leurutilisation par un grand nombre <strong>de</strong> luthier numériques,chercheurs, compositeurs et musiciens, tout enfavorisant l’échange entre ces différents acteurs sur ceterrain encore en friche.7. RÉFÉRENCES[1] Battier, M. « L’approche gestuelle dans l’histoire <strong>de</strong>la lutherie électronique. Etu<strong>de</strong> <strong>de</strong> cas : le theremin »,in Les nouveaux gestes <strong>de</strong> la musique, H. Genevoiset R. <strong>de</strong> Vivo (eds). Editions Parenthèses, 139-156,1999.[2] Beaudouin-Lafon, M. « Moins d'interface <strong>pour</strong> plusd'interaction », Interfaces Homme-Machine etCréation Musicale, H. Vinet et F. Delalan<strong>de</strong> (eds),Hermès, 123-141, (1999).[3] Cadoz, C. « Musique, geste, technologie », Lesnouveaux gestes <strong>de</strong> la musique, H. Genevois et R. <strong>de</strong>Vivo (éds), Éditions Parenthèses, 47-92, (1999).[4] Cance, C., Genevois, H., Dubois, D. « What isinstrumentality in new digital musical <strong>de</strong>vices? Acontribution from cognitive linguistics andpsychology », Actes du congrès CIM09, à paraîtredans « La musique et ses instruments » (2011).[5] Cascone, K, « The Aesthetics of Failure: « Post-Digital » Ten<strong>de</strong>ncies in Contemporary ComputerMusic », Computer Music Journal,24:4, pp. 12–18,The MIT Press, 2000[6] Castagne, N., Cadoz, C. « 10 criteria for evaluatingphysical mo<strong>de</strong>lling schemes ». in DAFX’03: Proc. ofthe 2003 conf. on Digital Audio Effects, 2003.[7] Couturier, J-M., Utilisation avancée d’interfacesgraphiques dans le contrôle gestuel <strong>de</strong> processus


sonores, thèse, Université <strong>de</strong> la Méditerranée,Marseille, 2004.[8] Frémiot, M., et al., Les Unités SémiotiquesTemporelles – Éléments nouveaux d'analysemusicale. Editions MIM, Document Musurgia, 1996.[9] Genevois, H., « Geste et pensée musicale : <strong>de</strong> l’outilà l’instrument », Les nouveaux gestes <strong>de</strong> la musique,H. Genevois et R. <strong>de</strong> Vivo (éds), Marseille : ÉditionsParenthèses, 1999, p. 35-45[10] Ghomi, E. « Utilisation <strong>de</strong> modèlesintermédiaires <strong>pour</strong> le mapping <strong>de</strong> paramètres <strong>de</strong>synthèse », rapport <strong>de</strong> mastère ATIAM, (2006)[11] Hunt, A., Wan<strong>de</strong>rley, M. M., Paradis, M. « Theimportance of parameter mapping in electronicinstrument <strong>de</strong>sign ». in NIME ’02: Proc. of the 2002conf. on New interfaces for musical expression,pages 1–6, Singapore, Singapore, 2002. NationalUniversity of Singapore[12] Jaffe,D. A., Smith, J. O., « Extensions of theKarplus-Strong plucked string algorithm, »Computer Music J., vol. 7, no. 2, pp. 56–69, 1983.[13] Karplus, K., Strong, A., « Digital synthesis ofplucked string and drum timbres, » Computer MusicJ., vol. 7, no. 2, pp. 43–45, 1983.[14] <strong>de</strong> Laubier, S., Goudard, V. « Puce Muse - LaMéta-Mallette », Proceedings of Journéesd’Informatique Musicale (JIM2007), Lyon, 2007[15] <strong>de</strong> Laubier, S., Goudard, V. « Meta-Instrument3 : a look over 17 years of practice », Proceedings ofNIME '06, Paris, 2006[16] Momeni, A., Henry, C. « Dynamic In<strong>de</strong>pen<strong>de</strong>ntMapping Layers for Concurrent Control of Audioand Vi<strong>de</strong>o Synthesis », Computer Music Journal,Spring 2006, Vol. 30, N°1, 49-66, (2006)[17] Schaeffer, P., Traité <strong>de</strong>s objets musicaux, essaiinterdiciplines, nouvelle édition, Seuil, 1977[18] Stowell, D., Plumbley, M.D. & Bryan-Kinns,N. « Discourse analysis evaluation method forexpressive musical interfaces », Proceedings of NewInterfaces for Musical Expression (NIME'08),Genova, 2008.[19] Varela, F. J., Thompson, E. T., and Rosch, E.The Embodied Mind: Cognitive Science and HumanExperience. The MIT Press, 1991.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!