Alexa, la asistente virtual de Amazon, entenderá las señales de personas sordas [VIDEO]

Abhishek Singh / YouTube

Un estadounidense ha creado un programa que permite comunicarse con el asistente de voz Alexa mediante el lenguaje de señas. El programa reconoce los gestos usando la cámara de la laptop y los convierte en comandos de voz para el asistente, y luego reconoce las respuestas del asistente y las muestra en la pantalla en forma de texto. El blog prosthetic knowledge escribió sobre ello.

Para varias compañías de tecnología el control por voz es una de las principales formas de interactuar con una casa inteligente y otros dispositivos. Los asistentes de voz están instalados en casi todos los teléfonos inteligentes modernos, aunque en los últimos años los altavoces inteligentes se han vuelto bastante populares.

Abhishek Singh, un desarrollador de EEUU ha creado un software que actúa como intermediario entre una persona sorda y la asistente de voz Alexa. El programa se ejecuta en una computadora portátil y utiliza la cámara incorporada para reconocer los gestos del lenguaje de señas. El algoritmo de aprendizaje profundo, realizado con la ayuda de TensorFlow.js, es responsable del reconocimiento.

El usuario da comandos en lenguaje de señas, y la computadora portátil reconoce las palabras en tiempo real y las pronuncia con la ayuda del sistema de síntesis de voz, y también lo muestra en la pantalla. Asimismo, el altavoz escucha y reconoce las palabras de la computadora y después de un corto tiempo responde con una voz, que también se muestra en la pantalla. La interfaz de la aplicación está dividida en dos partes y está diseñada como un diálogo entre el usuario y el asistente de voz:


Por ahora el desarrollador no ha divulgadp los detalles técnicos del algoritmo, pero planea publicar el código fuente de la aplicación en GitHub.

Recientemente, la compañía Microsoft creó una aplicación para smartphones que permite a las personas ciegas orientarse de forma independiente por la ciudad. Funciona con auriculares, a través de los cuales el usuario escucha indicaciones sobre los objetos que lo rodean, informa el blog de la compañía.

María Cervantes
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que suma: www.nmas1.org”.​​​​​​

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.