Cómo ‘escuchamos’ sin sonido al leer los labios

El cerebro se sincroniza con las ondas sonoras del habla a través de la lectura de los labios. / Adobe Stock

Las regiones auditivas son sensibles a la información visual

Un estudio realizado por el centro de investigación vasco BCBL concluye que, cuando miramos a una persona hablar, nuestra actividad cerebral se sincroniza con la voz del hablante a través de la lectura de los labios, y que esto ocurre incluso cuando no percibimos las ondas sonoras.

 

SINC / ¿Qué provoca en nuestra actividad cerebral la lectura de los labios? Estudios científicos de finales de los años 90 afirman que leer labios en silencio activa las cortezas auditivas. Sin embargo, los científicos desconocían hasta ahora qué suponía tal activación.

Nuestras cortezas auditivas se sincronizan con los movimientos de los labios sin escuchar el sonido que emite el hablante

Una investigación del Basque Center on Cognition, Brain and Language (BCBL) de San Sebastián ha dado un paso más allá y muestra cómo el cerebro no solo se activa, sino que se sincroniza con las ondas sonoras del habla a través de la lectura de los labios, incluso sin sonido audible.

Este pequeño matiz entre activación y sincronización supone para los neurocientíficos un cambio enorme en el marco teórico. Así, la activación cerebral no necesariamente refleja que la persona que escucha pudiera reconstruir lo que el hablante dice.

“Nuestras cortezas auditivas se sincronizan con los movimientos de los labios sin escuchar el sonido que emite el hablante, lo que supone que aunque las regiones auditivas no estén escuchando nada son sensibles a la información visual que reciben”, afirma Nicola Molinaro, investigador del BCBL.

Las cortezas auditivas de los participantes mostraron un suficiente nivel de sincronización con las ondas de sonido producidas por el vídeo que no estaban escuchando

En este estudio, publicado en The Journal of Neuroscience, 25 personas voluntarias realizaron una prueba de aproximadamente una hora de duración, exponiéndose a audios sin imagen y a vídeos sin sonido.

A partir de ahí se ha descubierto cómo las cortezas auditivas de los participantes mostraron un suficiente nivel de sincronización con las ondas de sonido producidas por el vídeo que no estaban escuchando.

De hecho, la sincronización se parecía a la de aquellos que escucharon la historia, lo que indica que el cerebro puede obtener información auditiva de la información visual disponible para ellos a través de la lectura de labios.

 

La importancia de la información visual

Este trabajo ha sido realizado gracias a la magnetoencefalografía, una técnica que ha permitido obtener datos más detallados que los que aporta la resonancia magnética, técnica utilizada en estudios anteriores.

La información verbal no solo va por el canal auditivo; es sensible a la información visual

Este descubrimiento abre paso a otras muchas incógnitas que el equipo pretende investigar en los próximos años. Para empezar, este estudio confirma cómo las regiones auditivas son sensibles a mucha más información, pero se desconoce en qué medida afectan los diferentes parámetros a la actividad cerebral.

“La información verbal no solo va por el canal auditivo; es también sensible a la información visual. La comunicación verbal es, en definitiva, una comunicación multimodal mucho más rica”, señala Molinaro.

“En este caso se ha analizado solo el movimiento de las bocas pero para los autores hay mucha más información visual, como pueden ser los gestos, los movimientos de las manos, los parpadeos, el movimiento de la cabeza, etc.”, concluye el experto.

Referencia bibliográfica: 
Mathieu Bourguignon, Martijn Baart, Efthymia C. Kapnoula and Nicola Molinaro. ‘Lip-reading enables the brain to synthesize auditory features of unknown silent speech’. Journal of Neuroscience 30 December 2019, 1101-19; DOI: https://doi.org/10.1523/JNEUROSCI.1101-19.2019

Dejar comentario

Deja tu comentario
Pon tu nombre aquí