Robots aprenden lenguaje corporal viendo charlas TED [VIDEO]

Captura de YouTube

Durante muchos años, las famosas charlas TED sirvieron para que especialistas puedan informar sobre sus campos de una manera entretenida. Ahora, un grupo de investigadores coreanos están usando cientos de horas de video para entrenar robots en el uso de gestos y lenguaje corporal. La investigación ha sido publicada en el sitio de pre-impresión Arxiv.

Youngwoo Yoon, del Instituto de Investigación de Electrónica y Telecomunicaciones de Daejeon, Corea, y su equipo utilizó 52 horas de charlas TED tomadas de 1295 videos en YouTube para entrenar un sistema de aprendizaje automático. La intención era hacer coincidir los gestos de las manos con diferentes palabras y frases para luego probar el software en un robot humanoide.

Hasta ahora, los robots humanoides que existen en el mercado mueven sus manos y gesticulan cuando hablan pero, pero estas acciones suelen ser difíciles de codificar por los humanos. Además, los movimientos que pueden tener estos robots suelen ser limitados, lo que hace que sus gestos pronto se sientan repetitivos.

Robot ve, robot hace

Para evitar esto, los investigadores dejan que su software aprenda sus propios gestos observando a las personas hablar. Para cada fotograma de los videos, extrajeron la postura del orador, incluida la posición de la cabeza, el cuello y los hombros, así como los brazos, y mapearon esto sobre lo que el orador estaba diciendo en ese momento.

El sistema resultante fue capaz de generar gestos y relacionarlos con palabras y frases para cualquier tipo de discurso, incluyendo un brazo levantado para sugerir sostener algo, abrir los brazos para sugerir inclusividad y señalar gestos para "tú" y "yo". Para probar el sistema, los investigadores reclutaron a 46 trabajadores de internet del sitio web de crowdsourcing de Amazon, Mechanical Turk, de entre 23 y 70 años y angloparlantes nativos.

Los participantes aseguraron que los gestos aprendidos eran más parecidos a los humanos, más amigables y más compatibles con las palabras que las producidas por los enfoques existentes. Aunque todavía falta para que los gestos de los robots sean totalmente convincentes. En el futuro, el equipo planea personalizar los movimientos de las manos para que los robots no utilicen todos los mismos gestos.

El lenguaje corporal es un campo que ya ha estado siendo explorado por los investigadores en el pasado. En mayo de este año, un grupo de investigadores australianos presentó una inteligencia artificial que podía predecir la personalidad de una persona con solamente ver sus ojos.  


Victor Román
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que sumawww.nmas1.org”.​

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.