Résumé
Suite aux résultats obtenues dans la phase 1, où les tests ont été faits avec un clavier MIDI virtuel ainsi qu’un micro fixé sur la planche 4, nous cherchions désormais à adapter la spatialisation sonore au son capté par le micro de surface fixé à l’intérieur de la planche 5 ainsi qu’au signal MIDI de la planche 5.
Installation des outils et équipement
- Planche de podorythmie 5
- Ordinateur
- Carte son Behring XR18
- Haut parleurs (4)
Logiciels
Flux de données
En théorie, le flux de donnée aurait été le même que celui de la phase 1, avec l’exception du retrait du logiciel Chataigne.
- Planche 5 → jack audio → carte son → usb → ordinateur → QjackCTL → Satie → usb → carte son → haut-parleurs
Défis
Lors de cette phase, le défi principal étais de spatialiser le son en fonction de la note jouée en temps réel. Les derniers tests avaient été conduits avec la planche 4 et VMPK (clavier MIDI virtuel) sans qu’une personne joue directement de la planche. C’est à dire que l’on vérifiait si la sortie de son réagissait aux signaux OSC.
Nous avons remarqué qu’il fallait peser une deuxième fois sur un pad avant que le son sorte du haut-parleur associé à la note. Initialement, nous avons cru que ceci était causé par la latence du signal MIDI traité par Chataigne. Pour cette raison, nous avons décidé de traiter le signal MIDI directement dans Satie pour réduire le temps de traitement, mais cette tentative n’a pas réglé le problème.
Nous avons pensé par la suite, que le problème était possiblement causé par Satie qui essayait de faire voyager la source du son d’un point à l’autre et que le problème était du à ce déplacement. Suite à certaines manipulation des réglages de notre code, le problème persistait.
Finalement, nous avons conclu que le problème résidait dans la nature du signal: le micro capte le tapement de pied avant le FSR. Pour cette raison, nous avons pensé à mettre un petit délai dans la sortie du son capté par micro. Pour cela, il a fallu jouer dans le code source de Satie de mon ordinateur. Cet astuce s’est avéré être une solution pour un autre problème: soit le son sortait avec un petit retard, un problème pour la personne qui joue sur scène qui entend le retard du son des hauts parleurs par rapport à son tapement de pied. Il a donc été question par la suite de minimiser le temps de délai de la sortie de micro afin qu’il sorte du bon haut parleur, mais aussi imperceptible au musicien. Nous avons conclu que 0.04 secondes était la plus petite valeur possible.
Constats et apprentissages
L’expérience nous a pousser à réfléchir à l’adaptation des signaux de la planche aux fonctionnement de la spatialization sonore. Le délai entre le son généré par un coup et l’actuation du FSR ne causait pas problème dans les fonctionnalités de la planche, principalement drawPlanck, un programme qui génère des visuels, mais pas de son.
Maintenant que nous voulons intégrer le traitement de son, il est important de considérer les principes de performance musicales amplifiée tels que l’on voit dans les salles de spectacle. D’une part, comprendre les systèmes et équipements déjà utilisé afin d’intégrer des nouveaux outils.
Prochaines étapes
Lors de cette phase, nous n’avons pas utilisé les signaux de LivePose. Dans le futur, nous voudrions réintégrer les signaux générés en fonction des positions du musiciens. D’une part, Satie génère principalement des effets de type reverb, mais il serait intéressant de voir si c’est possible d’ajouter soit des nouveaux effets ou sons en fonction de signaux OSC générés par LivePose soit à travers Satie ou des logiciels autres. L’enjeu serait donc de trouver un usage pertinent de ces nouveaux signaux.