Un equipo de científicos de instituciones como el Instituto Tecnológico de Karlsruhe y la Universidad de Michigan ha desarrollado un prototipo de herramienta asistiva llamada ObjectFinder, destinada a mejorar la capacidad de búsqueda de objetos en personas ciegas. Este innovador sistema integra modelos de lenguaje y detectores de objetos que permiten a los usuarios especificar objetos con un lenguaje flexible. Utilizando gafas inteligentes, el sistema puede localizar y brindar información sobre la ubicación de los objetos de interés en tiempo real, proporcionando tanto información egocéntrica como información adicional de la escena.
El estudio que evaluó ObjectFinder involucró a ocho participantes ciegos y se centró en escenarios desconocidos, como oficinas y salas de estar. Comparado con otras aplicaciones asistivas como BeMyAI y Google Lookout, ObjectFinder fue preferido por su capacidad para proporcionar información detallada y contextual durante la búsqueda de objetos, lo que mejoró significativamente la autonomía de los usuarios.
Los participantes valoraron positivamente la capacidad del sistema para ofrecer descripciones de escena detalladas que incluían no solo la ubicación y direccionalidad de los objetos, sino también relaciones entre objetos cercanos que facilitaban la navegación en entornos desconocidos. Sin embargo, algunos señalaron la necesidad de ajustar la cantidad de información proporcionada, sugiriendo opciones de personalización para mejorar la experiencia del usuario.
El estudio demostró además que la fiabilidad del sistema es crucial, especialmente en lo relativo a la integridad de la detección de objetos y la precisión de la información de localización. Los participantes también destacaron la importancia de que el sistema sea ergonómico y fácilmente integrable con las herramientas de movilidad existentes, como el bastón blanco.
En conclusión, ObjectFinder representa un avance significativo en la tecnología de asistencia para personas ciegas, proporcionando una solución que combina la detección abierta de vocabulario y modelos de lenguaje para una interacción personalizada en la búsqueda de objetos. A medida que se afina el prototipo, se espera que mejore aún más la autonomía y la independencia de las personas con discapacidad visual, posibilitando una integración armoniosa con otras tecnologías asistivas existentes.