Tendencias 21. Ciencia, tecnología, sociedad y cultura



Tendencias 21
25 Aniversario




Una nueva interfaz cerebro-ordenador regula el estado de ánimo con música

Investigadores desarrollan un sistema que interpretará señales neuronales para conocer el humor del usuario, y producirá el sonido que éste necesite


Un equipo de científicos de dos universidades británicas está desarrollando una interfaz cerebro-ordenador capaz de reconocer el estado anímico de una persona y de reproducir una música que se ajuste a dicho estado y lo regule. El sistema registrará las señales neuronales del cerebro de los usuarios y, a partir de ellas, interpretará su estado de ánimo. Como respuesta, emitirá una música sujeta a determinados patrones que se sabe provocan emociones específicas. En un futuro, este sistema podría ser utilizado para tratar la depresión, afirman sus desarrolladores. Por Yaiza Martínez.



La interfaz desarrollada emite música de piano para regular el estado de ánimo. Foto: C.P.Storm. Fuente: Flickr.com.
La interfaz desarrollada emite música de piano para regular el estado de ánimo. Foto: C.P.Storm. Fuente: Flickr.com.
Un equipo de científicos de dos universidades británicas están desarrollando una interfaz cerebro-ordenador (BCI) capaz de reconocer el estado anímico de una persona, y de reproducir una música que se ajuste a dicho estado o que lo regule.

Los investigadores, de la Universidad de Reading y de la Universidad de Plymouth, creen que este sistema podría usarse como herramienta terapéutica, en el caso de pacientes que sufren ciertas formas de depresión.

Reconocimiento del estado de ánimo

Una interfaz cerebro-computadora es un dispositivo que funciona como medio de comunicación entre las funciones mentales humanas y los ordenadores.

Nuestras funciones mentales son generadas por el cerebro mediante actividad eléctrica. Esta actividad puede ser captada y clasificada para comunicarla a un medio externo, en este caso un ordenador o un hardware.

Tal y como explica el director del proyecto, el profesor de cibernética de la Universidad de Reading, Slawomir Nasuto, en la revista The Engineer: “Cuando desempeñamos alguna función cognitiva, nuestro cerebro produce mucha actividad eléctrica que, mediante técnicas no invasivas, puede ser reconocida como fluctuaciones de potenciales eléctricos diminutos”.

“Si se pueden registrar estas fluctuaciones y reconocer que tipo de actividad están llevando a cabo, se podría establecer a partir de ellas un comando de control para los ordenadores”.

Slawomir Nasuto, uno de los desarrolladores de la interfaz. Fuente: Universidad de Reading.
Slawomir Nasuto, uno de los desarrolladores de la interfaz. Fuente: Universidad de Reading.
En las interfaces cerebro-computadora tradicionales, el usuario es el que ejerce el control completo sobre el sistema BCI, que responde a dicho control.

En el caso del sistema desarrollado por Nasuto y sus colaboradores, la situación es distinta.

“En nuestro caso, no se pregunta al usuario si está feliz o infeliz. Lo que queremos es reconocer su estado de ánimo para que el sistema le proporcione el estímulo adecuado. Por tanto, el usuario no controla el sistema. Ésta es una característica única”, explica Nasuto.

El científico añade que el proyecto aplicará la electroencefalografía o EEG (técnica de exploración neurofisiológica que registra la actividad bioeléctrica del cerebro), para transferir las señales eléctricas neuronales desde el cráneo de los pacientes a través de una serie de cables, hasta una caja amplificadora, a su vez conectada a un ordenador.

Este ordenador será el que genere su propia música sintética, basándose en el estado mental del usuario y en sus necesidades.

Aprovechar las características de la música

Otro de los científicos implicados en el proyecto, el profesor de música computacional de la Universidad de Plymouth, Eduardo Miranda, explica que: “hemos desarrollado una serie de métodos basados en reglas para generar música con los ordenadores”.

Además, “vamos a emplear un programa informático para tratar de identificar las normas que gobiernan los patrones musicales que producen ciertas emociones. Después, incorporaremos estas reglas al sistema, para que éste genere la música adecuada”, añade Miranda.

En música ya se sabe que, por ejemplo, una clave menor evoca tristeza, mientras que una clave mayor evoca felicidad. Los compositores han aprovechado estas características de los efectos de la música durante siglos.

Por otro lado, la música que genere el sistema se ajustará a los gustos de los usuarios, aunque tendrá siempre un sonido similar al de la música producida por el piano, añaden los investigadores.

Miranda y Nasuto creen que esta adaptación a los gustos personales será el principal desafío del sistema, porque la gente tiene gustos muy variados y lo que puede hacer que un individuo se aburra, a otro puede emocionarle.

Con todo, los científicos esperan que su desarrollo sirva para regular los estados de ánimo de los usuarios. El proyecto, financiado por el Engineering and Physical Sciences Research Council (EPSRC) del Reino Unido tendrá cuatro años de duración.



Jueves, 8 de Diciembre 2011
Artículo leído 14151 veces





Nota

Comente este artículo

1.Publicado por Chris el 11/12/2011 13:31
Este proyecto tiene la oportunidad de alcanzar mejores resultados si se incluyen mensajes conceptuales que sean asociados a segmentos musicales, como mínimo con video-clips que se generen de forma dinámica.

2.Publicado por jaime el 15/01/2012 14:45
Ya, pero esos mensajes conceptuales que dices aumentarían las variables de estudio infinitamente...

3.Publicado por Chris el 15/01/2012 19:30
Cierto si se hace de una forma incorrecta.

El modelo que ellos aportan va orientado a dispositivos que reproducen música clasificada según el estado de ánimo detectado por patrones EEG emotivos (no cognitivos como erróneamente se indica aquí), hasta ahí es trivial. La complejidad en la que han apostado para 4 años, es encontrar la forma de recomendar música según gustos y estado emocional.

Se empeñarán seguramente en un único tipo de señal (en EEG), cuando tienen la oportunidad de incluir detección multisensorial (p.e. con voces, respiración, etc.) traducidos a mensajes conceptuales para optimizar espacios vectoriales de lo que se busca (como SIRI en el reconocimiento de voz). Probablemente la sinergia que se aportaría al estudio, se consiga mejores resultados en menor tiempo, porque simplificaría el intento de reconocimiento de gustos (asociación multisensorial de 'conceptos'---'segmentos musicales'), etc.

Finalmente, el estímulo sería mucho más eficaz si al sonido se incluye algunas voces (pocas) con un vocabulario y entonaciones predefinidas, más segmentos de vídeo no necesariamente de la misma pieza musical, sino en armonía con el efecto deseado, es decir sin limitar emociones, más bien dirigirlas permitiendo que alcancen sus niveles y entonces ajustar los estímulos. Por ese motivo lo de generar el conjunto de una forma dinámica y en tiempo real.

Obviamente, al espectro completo del lenguaje humano las variables aumentarían considerablemente (no infinitamente), pero no tanto dentro de una base de conocimiento acotada, de diseño basado en estilo de vida saludable y sentido común.

Otra mejora al proyecto es descartar el EEG como instrumento de medición del estudio. Por el contrario, hay bastante bibliografía reutilizable en neurociencias sobre lenguaje y emociones, que puede complementarse con un estudio propio usando fMRI y MEG, para explorar un nuevo dispositivo portable de bajo coste que no use los obsoletos electrodos y sea de mejor resolución. Pero eso sería otro proyecto distinto :)

4.Publicado por PALOMA el 05/02/2012 00:41
:O muy interezante!!

Nuevo comentario:
Twitter

Los comentarios tienen la finalidad de difundir las opiniones que le merecen a nuestros lectores los contenidos que publicamos. Sin embargo, no está permitido verter comentarios contrarios a las leyes españolas o internacionales, así como tampoco insultos y descalificaciones de otras opiniones. Tendencias21 se reserva el derecho a eliminar los comentarios que considere no se ajustan al tema de cada artículo o que no respeten las normas de uso. Los comentarios a los artículos publicados son responsabilidad exclusiva de sus autores. Tendencias21 no asume ninguna responsabilidad sobre ellos. Los comentarios no se publican inmediatamente, sino que son editados por nuestra Redacción. Tendencias21 podrá hacer uso de los comentarios vertidos por sus lectores para ampliar debates en otros foros de discusión y otras publicaciones.

Otros artículos de esta misma sección
< >

Lunes, 16 de Noviembre 2015 - 13:30 Las pupilas aumentan de tamaño con la música