Creando nuevos prototipos de interacción musical

El usuario, a través de la voz, puede solicitar determinados sonidos de un repositorio en línea; a través del gesto el prototipo permite elegir el patrón de ritmo

Hands Free Sound Machine

.

El 7 de mayo, en el marco del Music and Human-Computer Interaction Workshop del congreso ACM CHI 2016, celebrado en San JoseConvention Centre (EEUU), miembros del Grupo de Investigación en Tecnología Musical (MTG) del Departamento de Tecnologías de la Información y las Comunicaciones (DTIC), conjuntamente con investigadores del laboratorio STMS del IRCAM-CNRS-UPMC de París, coordinados por Frédeérico Bevilacqua, han presentado una comunicación en la que se presenta una compilación de herramientas, prototipos y espacios de comunicación y creación, disponibles para los investigadores, desarrolladores y creativos musicales.

.

UPF / Entre estas herramientas, se ha presentado un prototipo llamado HandsFreeSoundMachine, desarrollado por los investigadores del MTG, Jordi Janer y Frederic Font, un portable que a partir de la voz y del gesto controla el tempo y el timbre de una batería electrónica. El usuario, a través de la voz, puede solicitar determinados sonidos de un repositorio en línea; a través del gesto el prototipo permite elegir el patrón de ritmo.

Se trata de un portable que a partir de la voz y del gesto controla el tempo y el timbre de una batería electrónica 

Un sistema que combina herramientas de hardware y de software con servicios disponibles en la web, es decir que integra: un auricular bluetooth comercial, una plataforma de detección de movimiento sin hilos, y dos interfaces de programación de aplicaciones o API disponibles en línea: un repositorio de sonido (Freesound) y un reconocimiento del habla de dominio público (Google Speech API).

Así pues, este sistema interactivo de manos libres combina la voz y el gesto de la cabeza y, por tanto, permite que un músico pueda tocar otro instrumento de manera simultánea (por ejemplo, una guitarra). Como comentan Jordi Janer y  Frederic Font,  “este prototipo es una muestra de ‘proof-of-concept’ o prueba de concepto de cómo se puede utilizar Freesound con otras tecnologías, tales como sensores de movimiento, reconocedores de voz, para hacer nuevas aplicaciones musicales interactivas”.

Este prototipo ha sido desarrollado como parte del proyecto europeo H2020 MusicBricks (Musical Building Blocks for Digital Makers and Content Creators), una acción de innovación financiada por la Comisión Europea dentro del Programa Horizonte 2020 y coordinada por la empresa francesa SIGMA Orionis SA. El objetivo principal de MusicBricks es madurar tecnologías innovadoras obtenidas como resultado de investigación a fin de que estén al alcance y sean de utilidad para el sector de las industrias culturales y creativas, a nivel europeo.

.

Trabajo de referencia:

Jordi Janer, Frederic Font, Sebastián Mealla, Sergi Jordà, Frédéric Bevilacqua, Joseph Larralde, Emmanuel Fléty, Gaël Dubus, Norbert Schnell (2016), “Expressive Music Interaction: tools, prototypes and hackathons” , Human-Computer Interaction Workshop, 7 de maig, ACM CHI 2016, San Jose, EUA.

.

Dejar comentario

Deja tu comentario
Pon tu nombre aquí