Este guante traduce el lenguaje de sordomudos en el smartphone

El dispositivo flexible desarrollado por la UC San Diego (PLON One). 

Un guante desarrollado por la Universidad de California, San Diego, puede convertir las 26 letras del lenguaje de signos americano (ASL) en texto en un teléfono inteligente o en una pantalla de computadora, de acuerdo con una investigación publicada en la revista PLOS One.

"Para miles de personas en el Reino Unido, el lenguaje de señas es su primera lengua", dice Jesal Vishnuram, director de investigación de tecnología de la acción benéfica Acción sobre la Pérdida Auditiva. "Muchos tienen poco o ningún inglés escrito. Una tecnología como esta cambiará por completo sus vidas".

De acuerdo con la Organización Mundial de la Salud, más del 5% de la población mundial -360 millones de personas- sufren pérdida auditiva incapacitante (328 millones de adultos y 32 millones de niños). La discapacidad auditiva se refiere a pérdida auditiva mayor de 40 decibelios (dB) en el mejor oído auditivo en adultos y una pérdida auditiva mayor de 30 dB en el mejor oído auditivo en niños. La mayoría de las personas con discapacidad auditiva viven en países de bajos y medianos ingresos.

Cuando necesitan comunicarse con personas que no conocen el ASL, un dispositivo traductor que se base en sus gestos naturales al emplear este lenguaje aportaría inmediatez y exactitud en situaciones cotidianas y de emergencia, como cuando se acude a un hospital.

El dispositivo consiste en un guante deportivo estándar equipado con nueve sensores flexibles de tensión que se colocan sobre los nudillos, para que al doblar los dedos los sensores se extiendan y su resistencia eléctrica aumente, enviando señales a un smartphone que cuenta con una app que calcula la posición de la mano y la traduce en signos del ASL y estos, a su vez, en palabras convencionales en inglés.

Los sensores de movimiento en la parte posterior del guante determinan si la mano está inmóvil o en movimiento, un paso necesario para diferenciar letras similares. Por ejemplo, los signos "i" y "j" implican extender tan solo el dedo meñique, pero el primero requiere una mano inmóvil, mientras que la "j" supone girarla 180 grados. Los sensores de movimiento detectan estas diferencias, enviando las señales a través de Bluetooth a la aplicación en el teléfono, que mostrará lo que quiere decir.

Otras tecnologías de visión artificial emplean cámaras para registrar los gestos y traducirlos en palabras, pero estos dispositivos requieren equipos aparatosos, que consumen altas cantidades de energía, en comparación con la portabilidad y ahorro energético que otorga un smartphone.

Por el momento, el guante de O'Connor sólo puede interpretar las 26 letras de ASL, permitiendo a la gente deletrear palabras letra por letra. Esto ya es útil, pero para convertirse en verdaderamente conveniente, tendrá que ser capaz de traducir palabras completas y frases también.

Otra dificultad puede ser las grandes diferencias entre lenguajes de señas. Por ejemplo, el alfabeto ASL utiliza sólo una mano, pero la versión de lenguaje de signos británica utiliza dos.

Hans Huerto

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.

Novedades

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.