noti4
Fecha

¿Pueden las redes inalámbricas ayudar a crear nuevos sentidos?

La Universidad Politécnica de Madrid propone un enfoque novedoso para el diseño de dispositivos que permitan a un usuario con deficiencia visual orientarse y seguir una ruta de forma eficaz, eficiente y segura

Investigadores de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la Universidad Politécnica de Madrid (UPM) han desarrollado dispositivos que adaptan estímulos visuales a otro canal sensitivo (por ejemplo, convirtiendo imágenes en patrones sonoros), así como una plataforma de realidad mixta para la experimentación con nuevos sentidos artificiales (percepción del campo magnético, etc.) y otras formas de interacción con el medio. En definitiva, han creado nuevos formatos para codificar la información espacial del entorno en estímulos táctiles y auditivos, constituyendo una alternativa viable a otras soluciones invasivas (estimulación en la retina o en el córtex cerebral mediante implantes, etc.). Estas interfaces hombre-máquina facilitarían que los usuarios puedan percibir elementos distantes y orientarse, compensando la pérdida de visión.

El proyecto se enmarca en el ámbito de los sistemas de navegación para personas ciegas y con discapacidad visual, cuyo propósito es promover la autosuficiencia a la hora de desplazarse hasta un punto de destino en una ciudad, centro comercial, etc. Con este fin, proveen al usuario de información útil para que conozca su entorno, se oriente, y puedan reaccionar a cualquier elemento potencialmente peligroso. Algunas de las soluciones más extendidas en el mercado utilizan sistemas de navegación por satélite, mapas y bases de datos de puntos de interés (restaurantes, comercios, etc.). Otras, en cambio, optan por proporcionar medios para detectar y/o identificar obstáculos en el camino.

Sin embargo, en el contexto tecnológico actual, las redes de servidores y sensores urbanos permiten disponer de una mayor, y creciente, cantidad de información: mapas 3D de ciudades enteras, horarios de transporte público, posición de vehículos y transeúntes monitorizados en tiempo real… Llegados a este punto, el lenguaje hablado se revela como un nuevo cuello de botella, siendo necesario desarrollar formas más eficientes de proveer al usuario de toda la información recabada.
Por otro lado, para el correcto funcionamiento de estos dispositivos se requiere de una sincronización entre estímulos hápticos, acústicos y propioceptivos; un ejemplo análogo sería la necesidad de sincronizar la imagen, el sonido y el movimiento del usuario en un dispositivo de realidad virtual. Dado que los sistemas de navegación tienden a apoyarse en una red de comunicaciones, son susceptibles a retardos que perjudicarían la sincronización y, por tanto, la percepción del entorno.

En este ámbito, investigadores del B105: Electronic Systems Lab de la ETSIT-UPM  ahondan en el diseño de los sistemas de navegación distribuidos. En primer lugar, se ha desarrollado la plataforma Virtually Enhanced Senses (VES), que permite emular, implementar y evaluar sistemas de navegación completos en entornos de realidad mixta y bajo diferentes condiciones de operación, con particular énfasis en la calidad de servicio de la red (retardo, ancho de banda, etc.). En segundo lugar, se han diseñado nuevas metodologías para cuantificar el rendimiento de dispositivos de sustitución sensorial y otras interfaces hombre-máquina para la mejora de la percepción espacial. Finalmente, se han implementado nuevos dispositivos de sustitución sensorial basados en la visión humana (campo de visión foveal y periférica, filtrado de información por discriminación figura-fondo, etc.), y se ha medido su rendimiento bajo diferentes condiciones de retardo de red.

Según indican los investigadores “nuestros últimos resultados indican que estos nuevos sentidos artificiales permiten adquirir información del entorno, y que un incremento del retardo en la generación de estímulos degrada y distorsiona progresivamente dicha información. A su vez, también sugieren que los usuarios disponen de mecanismos internos para compensar este retardo, pudiendo localizar eficazmente elementos distantes tras un tiempo de adaptación”.


Referencia bibliográfica:

 

Santiago Real, Álvaro Araujo. Network QoS Impact on Spatial Perception through Sensory Substitution in Navigation Systems for Blind and Visually Impaired PeopleSensors 2023, 23(6), 3219; https://doi.org/10.3390/s23063219
 

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.