Investigadores del Instituto de Astrofísica de Canarias (IAC) y de La Universidad de La Laguna han desarrollado un dispositivo capaz de generar señales acústicas que contengan información espacial tridimensional al objeto de que una persona pueda lograr una percepción del espacio que le rodea sin apoyarse en la visión. Esto es posible porque tanto las imágenes como los sonidos son consecuencia de una transmisión de fenómenos a distancia mediante soporte físico ondulatorio. Este hecho permite la captación de las características físicas del espacio que nos rodea, una vez activados los mecanismos neuronales que el cerebro humano utiliza para ello. El proyecto ha contado con la financiación del propio IAC, la ULL, el Gobierno de Canarias, la Unión Europea, el IMSERSO y la ONCE. El coste total del proyecto asciende a 60.650.000 ptas. y el plazo de ejecución ha sido de tres años.
En este proyecto se ha desarrollado un prototipo que capta información tridimensional a partir de imágenes digitalizadas, además de otras características físicas (color, textura...), transformándola posteriormente a parámetros sonoros espacializados, generándose así de cara al sujeto un espacio acústico virtual representativo del entorno. Todo este proceso se realiza en tiempo real, es decir, a la velocidad suficiente para que los mecanismos neuronales de percepción permitan el aprendizaje mediante la interacción del sujeto con su entorno.
La idea intuitiva que puede servir de base para ilustrar el objetivo propuesto se puede expresar como un intento de emular informáticamente la continua llegada de información al cerebro, a través de la visión, procedente del espacio que nos rodea y transportada en la luz que ilumina nuestro entorno. En este esquema, las imágenes del entorno se forman en la retina a partir de la luz que proviene de los objetos y son procesadas por el cerebro hasta alcanzar la percepción espacial del entorno. La analogía que se propone consiste en simular que los objetos que nos rodean son capaces de generar información sonora, que "suenen", y que esos sonidos, mediante la utilización de funciones de transferencia descriptivas de la posición de la cabeza (HRTF), contengan suficiente información para provocar la percepción del entorno. Esta simulación generaría un resultado análogo al que se obtendría de llenar los objetos (por ejemplo, paredes, puertas, ventanas, sillas,...) con pequeños altavoces que generasen sonidos representativos de sus cualidades físicas. Su audición en conjunto permitiría formarse una idea de cómo es el espacio que rodea al sujeto, de forma que este complejo escenario acústico le permita desenvolverse de modo conceptualmente análogo a si lo estuviera viendo.
Como es sabido, en personas ciegas la información visual no se recibe a nivel cortical. La mayor parte de la información del entorno es de procedencia sonora y somatosensorial. En este proyecto, la información sonora con alto contenido espacial, reemplaza a la información visual, creándose la percepción del espacio mediante otros sentidos con escasa información procedente del exterior. Este proyecto posibilita la entrada masiva de información tridimensional procedente del exterior. Más aún, en ciegos con corteza visual aún funcionante, cegueras con duración aproximadamente inferior a 1,5 años, hemos conseguido estimular la corteza visual posiblemente utilizando vías neuronales de asociación multisensorial que proyectan a corteza visual. De esta forma, en estas personas la información espacial generada se percibe como información visual (fosfenos), que a diferencia de la información visual procedente de la retina carece de color, refiriéndola los ciegos como similar a la anterior visión que recuerdan.
DESCRIPCIÓN TÉCNICA DEL PROTOTIPO
El sistema construido consta de tres partes básicas. Un sistema de visión artificial, un sistema de generación se sonidos tridimensional y una interfase de control. De esta forma, el sistema a construir se dividirá desde el punto de vista conceptual en el Subsistema de Captación, el Subsistema de Generación de Sonidos y el Subsistema de Control y Usuario.
El subsistema de captación o sistema de visión artificial registra las formas del entorno del sujeto mediante dos microcámaras de vídeo situadas en la cabeza a la altura de los ojos, colocadas adecuadamente sobre un soporte diseñado al efecto. La señal de estas cámaras se conduce mediante cables hasta el subsistema que procesa la información y obtiene una descripción informática de dicho entorno, utilizando para ello los algoritmos de visión artificial en un laboratorio de ensayos acondicionado para este proyecto y funcionando en tiempo real, es decir, extrayendo del orden de diez mapas de profundidades por segundo.
El subsistema de generación de sonidos sintetiza un espacio acústico virtual capaz de crear la percepción de los objetos que rodean al sujeto. Esto se consigue a través de unos auriculares que también forman parte del soporte que lleva la persona ciega, utilizando para ello las funciones de transferencia descriptivas de la cabeza (HRTF) que se han medido previamente para cada sujeto en particular.
El prototipo desarrollado se encuentra aún en fase de pruebas y los investigadores responsables del proyecto esperan lograr un modelo portátil lo suficientemente cómodo y autónomo para que pueda ser manejable en un futuro próximo.