Robots comprenden lo que les dices si le hablas como a un humano

h2r Lab / YouTube

Un equipo de investigadores de la Universidad de Brown han creado un algoritmo para que los robots puedan comprender mejor las órdenes dadas en un lenguaje más “humano”. Los desarrolladores crearon el algoritmo no solo para traducir órdenes en acciones, sino para que el robot pueda analizar su nivel de abstracción. Después del aprendizaje, el robot interpreta correctamente una orden en el 90% de los casos en el transcurso de un segundo. El proyecto fue presentado en la conferencia Robotics: Science and Systems en la ciudad de Boston. La universidad compartió esta publicación sobre el proyecto, y su versión impresa se puede encontrar aquí

Desde el punto de vista de una persona, un robot interpreta una orden en varias acciones por separado. Por ejemplo, cuando el algoritmo recibe la orden “lleva el objeto a la otra habitación”, este debe comprender cuál es la secuencia de acciones para ejecutar la tarea. Las instrucciones, en este caso, deben ser claras para el robot, pero para resolver correctamente la tarea, la máquina también debe tener un nivel de abstracción sobre la “naturaleza” de la instrucciones. Debido a esta dificultad, se han propuesto muchas soluciones para interactuar con los robots, desde crear un lenguaje especial, con sonidos y una gramática específicamente adaptada para relacionarse con las máquinas. 

El enfoque de la nueva investigación consiste en enseñar a los robots a analizar el nivel de abstracción de una orden y recién después empezar a planificar las acciones siguientes. Para ello aplicaron el aprendizaje de redes neuronales de lenguaje en una plataforma especial que imita el algoritmo del robot. La acción del robot, quién se desplazaba en un espacio virtual, fue observada por voluntarios, los cuales debían decir qué orden le habrían dado al robot para completar la tarea paso a paso. Previamente, ellos debían advertir qué tan abstracta debería ser esa orden. 

El proyecto tuvo tres niveles de abstracción. El nivel más bajo implicó instrucciones simples, mientras que los niveles más altos implicaron órdenes del tipo “lleva la silla a la habitación azul”. 

Espacio virtual para el entrenamiento del algoritmo. 
Dilip Arumugam et al.

Como resultado, el algoritmo aprendió qué niveles de abstracción se refieren a determinadas palabras. Así, de acuerdo al nivel, el robot adecúa sus acciones. El experimento implicó un trazo en el suelo a manera de diseño del espacio, por colores, para que el robot ponga en práctica las órdenes llevando un cubo de un lado a otro. 

Durante el experimento, se probó un método alternativo de planificar sin evaluar el nivel de abstracción. El robot podía resolver la tarea con un 90% de precisión en 1 segundo, cuando evaluaba su nivel de abstracción antes de tomar acción. Sin embargo, si no se tenía en cuenta ese factor, el robot resolvía la tarea en 20 segundos o más. 

Gregory Kopiev
Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.