Tendencias21

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Investigadores del Instituto de Tecnología de California han descubierto que las conexiones neuronales intrínsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentración u horas de entrenamiento. Utilizando unas gafas conectadas a una cámara, un algoritmo escanea cada imagen y genera un sonido con una frecuencia y volumen que varía en función del brillo y la ubicación vertical de los píxeles. Por Patricia Pérez.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalización, lo que les permite localizar y discriminar objetos por las ondas acústicas. Pero resulta que el sonido puede también adaptarse para transmitir información visual. Unos investigadores del Instituto de Tecnología de California (Caltech), en Estados Unidos, están aprovechando ese descubrimiento para ayudar a personas ciegas.

Para ello han desarrollado unas gafas inteligentes que convierten las imágenes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento. Según recoge un artículo publicado en la revista online NewScientist, el dispositivo llamado vOICe (OCI significa «¡Oh, I See!»), consta de un par de gafas oscuras con una pequeña cámara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holandés Peter Meijer.

La herramienta es un ejemplo de cómo se integra la información percibida por diferentes sentidos para componer un todo. Así, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la estética visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas señales pueden parecer distintas e independientes, en realidad interactúan y se integran dentro de la red cerebral de neuronas sensoriales.

Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudarán a ver.

Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa automáticamente las imágenes y la información para que se produzca una interacción perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan automáticos o intuitivos, pues en general requieren concentración y la atención completa del usuario para interpretar la información sobre lo que le rodea.

Esta nueva perspectiva multisensorial podría facilitar tareas que antes requerían mucho tiempo, permitiendo a los invidentes la adquisición de una nueva funcionalidad sensorial similar a la visión.

Un dispositivo traduce las imágenes en sonido para ayudar a los ciegos a ver

Estimular la corteza visual

«La mayoría de libros sobre neurociencia sólo dedican unas páginas a la interacción multisensorial, mientras el 99 por ciento de nuestra vida cotidiana depende de este proceso», lamenta Shinsuke Shimojo, investigador principal del estudio, en un comunicado de Caltech.

A modo de ejemplo, explica que si una persona está hablando por teléfono con alguien que conoce muy bien y está llorando, aunque sólo pueda escuchar el sonido, es capaz de visualizar sus lágrimas en la cara. De esta forma demuestra que la causalidad sensorial no es unidireccional, pues la visión puede influir en el sonido, y viceversa.

Junto a su compañera Noelle Stiles han explotado este proceso para estimular la corteza visual con señales auditivas que codifican la información sobre el entorno. Para ello han utilizado asociaciones que cualquiera conoce, como relacionar un tono alto a lugares elevados en el espacio o sonidos ruidosos con luces brillantes.

El algoritmo de vOICe escanea cada imagen de la cámara de izquierda a derecha, y para cada columna de píxeles genera un sonido con una frecuencia y volumen que depende de la ubicación vertical y el brillo de los píxeles. De esta forma, muchos píxeles brillantes en la parte superior de una columna se traducirían en un sonido de alta frecuencia, mientras que píxeles oscuros en la parte baja darían lugar a un sonido más tranquilo, en un tono más bajo. Finalmente, unos auriculares envían el sonido procesado al oído del usuario, permitiéndole asociar diferentes sonidos a objetos y elementos de su entorno.

Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidió emparejar imágenes (rayas, manchas, texturas) con sonidos sin ningún tipo de formación ni instrucciones previas, mientras que los invidentes debían tocar texturas y combinarlas con sonidos. Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e imágenes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difirió mucho de los preparados.

Conexiones preexistentes

El estudio, descrito en un artículo publicado en la revista especializada Scientific Reports, detectó que el uso de vOICe para ver texturas “ilustra conexiones neuronales intuitivas entre dichas texturas y los sonidos, lo que implica que hay conexiones preexistentes”, asegura Shimojo. Un ejemplo común de estas conexiones es la sinestesia, por la cual la activación de un sentido conduce a una experiencia sensorial diferente involuntaria, como ver un determinado color al oír un sonido específico.

Aunque aún no sabrían determinar lo que hace cada región sensorial del cerebro cuando procesa estas señales, tienen una idea aproximada. Para comprenderlo mejor están utilizando datos funcionales de resonancias magnéticas para analizar la red neuronal.

Más allá de sus implicaciones prácticas, la investigación plantea una importante pregunta filosófica: ¿Qué es ver? «¿Es ver lo que pasa cuando abres los ojos? No, porque eso no es suficiente si la retina está dañada ¿Es cuando se activa la corteza visual? Nuestra investigación ha demostrado que la corteza visual puede activarse por el sonido, lo que indica que realmente no necesitamos los ojos para ver”, se cuestiona Shimojo. Sea una cosa u otra, lo cierto es que con este tipo de aplicaciones se ofrece a los invidentes una experiencia visual a través de otros sentidos.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Los astrónomos observan un misterioso glóbulo cometario vagando por el cosmos 27 marzo, 2024
    Utilizando el Telescopio de rastreo VLT (VST) los científicos han producido una imagen impactante de GN 16.43.7.01, un glóbulo cometario situado a 5.000 años luz de distancia de la Tierra, en la constelación de Escorpio. Se trata de pequeñas y débiles nubes interestelares de gas y polvo cósmico, con una forma similar a la de […]
    Pablo Javier Piacente
  • Sería inminente el hallazgo de vida extraterrestre en Europa, una de las lunas de Júpiter 27 marzo, 2024
    Basado en experimentos recientes, un grupo de científicos determinó en un nuevo estudio que un instrumento en particular a bordo de la futura misión Europa Clipper de la NASA, denominado SUrface Dust Analyzer, era tan sensible que probablemente podría detectar signos de vida extraterrestre en granos individuales de hielo expulsados por Europa, la luna helada […]
    Pablo Javier Piacente
  • ¿La criopreservación es el paso necesario para la resurrección moderna? 27 marzo, 2024
    En España hay cinco casos de personas sometidas a criopreservación después de fallecer, a la espera de que la tecnología permita, tal vez, volverlos a la vida en los años 50 de este siglo.
    José Luis Cordeiro (*)
  • Crean un cerebro fantasma en forma de cubo impreso en 3D 27 marzo, 2024
    Investigadores austriacos han desarrollado un modelo de cerebro impreso en 3D basado en la estructura de las fibras cerebrales visibles mediante imágenes de resonancia magnética. Permite estudiar la compleja red neuronal con una precisión sin precedentes.
    Redacción T21
  • El océano se está desgarrando 26 marzo, 2024
    2.000 terremotos en un día en Canadá insinúan el nacimiento de una nueva corteza oceánica frente a la costa de la isla de Vancouver: está a punto de nacer a través de una ruptura magmática en las profundidades del mar.
    Pablo Javier Piacente
  • Simulan una explosión termonuclear en un superordenador 26 marzo, 2024
    Una simulación por superordenador nos brinda nuevos conocimientos sobre el comportamiento de las estrellas de neutrones: al evocar la explosión termonuclear que tiene lugar cuando estos monstruos cósmicos devoran a otra estrella, los investigadores logran avanzar en la comprensión de los fenómenos más extremos que suceden en el cosmos.
    Pablo Javier Piacente
  • Las matemáticas tienen la clave para erradicar el machismo 26 marzo, 2024
    Las matemáticas demuestran que si una parte significativa de las mujeres de una población (superando el límite del 45%) se comporta solidariamente con otras mujeres (como si fuesen hermanas), el machismo se extingue.
    Alicia Domínguez y Eduardo Costas (*)
  • El cerebro nos invita a soñar despiertos y luego nos rescata del ensueño 26 marzo, 2024
    El cerebro dispone de un doble mecanismo que, por un lado, nos inspira la creatividad provocando que soñemos despiertos, y por otro, nos devuelve a la realidad para sacarnos de la divagación inútil.
    Redacción T21
  • Las ondas cerebrales se mueven en direcciones opuestas para crear recuerdos y luego para recuperarlos 25 marzo, 2024
    Los científicos descubrieron que las ondas cerebrales tendían a moverse desde la parte posterior del cerebro hacia el frente mientras las personas guardaban algo en su memoria. Por el contrario, cuando buscaban recordar la misma información, esas ondas se movían en la dirección opuesta, desde el frente hacia la parte posterior del cerebro.
    Pablo Javier Piacente
  • Descubren una de las estrellas más antiguas del Universo muy cerca de la Vía Láctea 25 marzo, 2024
    La estrella LMC 119 fue apreciada en la Gran Nube de Magallanes, muy cerca de la Vía Láctea, y es la primera estrella de la segunda generación de formación estelar del Universo que se ha identificado en otra galaxia. Esta estrella, una de las más antiguas en el cosmos descubiertas hasta hoy, proporciona una ventana […]
    Pablo Javier Piacente