Unha aplicación de realidade aumentada envía información relevante sobre a súa contorna a persoas con discapacidade visual, a través de vibracións e sons no teléfono intelixente, coa fin de mellorar a súa percepción e a súa orientación e, con iso, facilitar a súa adaptación ao lugar de traballo así como a súa integración laboral.
Esta tecnoloxía forma parte do proxecto de I+D+i denominado e-Glance, levado a cabo pola
Cátedra Indra-Fundación Adecco de Investigación en Tecnoloxías Accesibles na Universidade Politécnica de Madrid (UPM) a través do Centro de Tecnoloxía Biomédica da UPM. O proxecto conta coa participación dos usuarios e principais beneficiarios, en particular, do Centro de Investigación e Desenvolvemento de Aplicacións Tiflotécnicas (CIDAT) da Organización Nacional de Cegos de España (ONCE).
Funcionamento da aplicación
Aínda que a App funciona a través dun smartphone, para facilitar o seu uso, está previsto empregar o bastón que as persoas invidentes utilizan no seu día a día para enviar e recibir instrucións do seu teléfono móbil, realizando movementos lixeiros coa man. Adicionalmente, tentarase ampliar este uso máis aló de e-Glance para dispoñer dun maior número de funcionalidades controladas polo usuario deste xeito.
A implementación da solución consta de tres pilares: un módulo de captación a realidade, baseado nunha rede de sensores; un mundo virtual que reflicte o mundo físico en tempo real e co detalle necesario para o correcto funcionamento da aplicación; e un terceiro módulo de realidade aumentada, que, salvo contraorden, advirte ao usuario dos cambios relevantes na súa contorna e que tamén lle permite obter información detallada baixo demanda sobre zonas específicas do seu interese.
A funcionalidade do primeiro prototipo de e-Glance xa foi probada por usuarios nunha fase piloto, con varios obxectos situados nunha habitación diáfana, e nunha segunda fase probarase en situacións reais.
Para iso será necesario despregar unha rede de sensores que permitan situar persoas e obxectos en tempo real e reflectir virtualmente a súa localización sobre un escenario fixo, indicando a súa localización, volume e forma, así como outros datos relacionados coa súa actividade e funcionamento. Por último, probarase a tecnoloxía de realidade aumentada desenvolvida para ofrecer ao usuario información sobre variacións e movementos significativos dentro do seu campo de percepción no momento en que se produzan.