Tendencias 21. Ciencia, tecnología, sociedad y cultura




Crean el primer audífono controlado por el cerebro

Escucha las ondas cerebrales para amplificar una voz entre muchas


Ingenieros norteamericanos han desarrollado un audífono que controla las ondas cerebrales del usuario para detectar y amplificar una voz entre muchas. Potentes algoritmos de IA y redes neuronales consiguen la proeza.




Nuestros cerebros tienen una notable habilidad para distinguir voces individuales en un ambiente ruidoso, como una cafetería abarrotada o una concurrida calle de ciudad. Esto es algo que incluso los audífonos más avanzados luchan por conseguir.

Ahora, ingenieros de la Universidad de Columbia han desarrollado una tecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar una voz entre muchas.

Alimentado por la inteligencia artificial, se trata de un audífono controlado por el cerebro que actúa como un filtro automático, discrimina las ondas cerebrales del usuario y aumenta la voz de la persona que quiere escuchar.

Aunque aún se encuentra en las primeras etapas de desarrollo, esta tecnología constituye un paso importante hacia mejores audífonos que permitan a los usuarios conversar con las personas que los rodean de manera transparente y eficiente. Los resultados se publican  en Science Advances .

“El área del cerebro que procesa el sonido es extraordinariamente sensible y poderosa; puede amplificar una voz sobre otras, aparentemente sin esfuerzo", explica Nima Mesgarani, investigador del Mortimer B. Zuckerman Mind Brain Behavior Institute de Columbia, y autor principal del artículo, en un comunicado.

"Al crear un dispositivo que aprovecha el poder del cerebro, esperamos que nuestro trabajo conduzca a mejoras tecnológicas que permitan a los cientos de millones de personas con discapacidad auditiva en todo el mundo comunicarse tan fácilmente como lo hacen sus amigos y familiares".

Algoritmo de separación de voz

La tecnología básica de este trabajo es un algoritmo de separación de voz que puede reconocer y decodificar una voz, cualquier voz, desde el principio.

Los audífonos modernos son excelentes para amplificar el habla y suprimir ciertos tipos de ruido de fondo, como el tráfico. Sin embargo, tienen problemas para aumentar el volumen de una voz individual sobre otras.

El audífono controlado por el cerebro del equipo de Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como los micrófonos, también controla las ondas cerebrales del oyente.

"Anteriormente, habíamos descubierto que cuando dos personas hablan entre sí, las ondas cerebrales del hablante comienzan a parecerse a las ondas cerebrales del oyente", añade Mesgarani.

Usando este conocimiento, el equipo combinó potentes algoritmos de separación del habla con redes neuronales, modelos matemáticos complejos que imitan las capacidades computacionales del cerebro.

Así crearon un sistema que primero separa las voces de los oradores individuales de un grupo, y luego compara las voces de cada orador con las ondas cerebrales de la persona que escucha. La voz cuyo patrón de voz coincide más estrechamente con las ondas cerebrales del oyente se amplifica sobre el resto.

Probado con éxito

El prototipo ha sido probado con éxito con pacientes de epilepsia, cuyas ondas cerebrales fueron observadas en tiempo real mediante electrodos implantados en el cerebro, mientras escuchaban a diferentes personas a la vez.

El algoritmo rastreó la atención de los pacientes mientras escuchaban a diferentes personas con las que no habían hablado con anterioridad. Cuando un paciente se concentró en un orador, el sistema amplificó automáticamente esa voz. Y cuando su atención cambió a otro conversador diferente, los niveles de volumen cambiaron para reflejar ese cambio.

Los investigadores ahora están investigando ahora cómo transformar este prototipo en un dispositivo no invasivo que se pueda colocar externamente en el cuero cabelludo o alrededor de la oreja. También esperan mejorar y refinar aún más el algoritmo para que pueda funcionar en una gama más amplia de entornos.

"Hasta ahora, solo lo hemos probado en un ambiente interior", señala  Mesgarani. "Pero queremos asegurarnos de que pueda funcionar igual de bien en una calle concurrida de la ciudad o en un restaurante ruidoso, para que donde sea que vayan los usuarios, puedan experimentar plenamente el mundo y las personas que los rodean", concluye.

Referencia

Speaker-independent auditory attention decoding without access to clean speech sources. Cong Han et al. Science Advances,  15 May 2019: Vol. 5, no. 5, eaav6134. DOI:10.1126/sciadv.aav6134

Viernes, 31 de Mayo 2019
The Zuckerman Institute/T21
Artículo leído 4845 veces





Nota



Nuevo comentario:
Twitter

Los comentarios tienen la finalidad de difundir las opiniones que le merecen a nuestros lectores los contenidos que publicamos. Sin embargo, no está permitido verter comentarios contrarios a las leyes españolas o internacionales, así como tampoco insultos y descalificaciones de otras opiniones. Tendencias21 se reserva el derecho a eliminar los comentarios que considere no se ajustan al tema de cada artículo o que no respeten las normas de uso. Los comentarios a los artículos publicados son responsabilidad exclusiva de sus autores. Tendencias21 no asume ninguna responsabilidad sobre ellos. Los comentarios no se publican inmediatamente, sino que son editados por nuestra Redacción. Tendencias21 podrá hacer uso de los comentarios vertidos por sus lectores para ampliar debates en otros foros de discusión y otras publicaciones.

Otros artículos de esta misma sección
< >

Jueves, 12 de Septiembre 2019 - 11:00 La tecnología nos volverá telepáticos en 20 años

¡Participa en el diseño del futuro!