La inteligencia artificial pasa el juego más difícil de Atari

Christopher Sauer / YouTube

Con tan solo unos comandos en inglés básico, un equipo de estudiantes de la Universidad de Stanford enseñó a una red neuronal a pasar el juego más difícil de Atari 2600. Una versión preliminar de la investigación ha sido publicada en la web de trabajos pre-impresos arXiv.org.

Los estudiantes decidieron utilizar el juego “La venganza de Moctezuma” como ambiente de entrenamiento de una red neuronal. Este juego, en particular, no resulta fácil de comprender para la inteligencia artificial (IA) debido a que casi no tiene “recompensas” que indiquen cómo salir de una habitación para pasar a otra, encontrar el tesoro o resolver rompecabezas. 

Ejemplo de secuencias de comando para obtener la llave: 1. Bajar las escaleras. 2. Saltar a la soga. 3. Saltar hacia el lado derecho de la habitación. 4. Bajar las escaleras. 5. Tomar el lado izquierdo. 6. Subir las escaleras. 7. Coger la llave. 
Russell Kaplan et al. / arXiv.org, 2017

Los desarrolladores idearon una salida a este problema. Para acelerar el proceso de aprendizaje del juego de la red neuronal, decidieron enseñar objetivos básicos escritos en un lenguaje natural en forma de comandos de pantalla que indicaban las acciones del personaje del juego (por ejemplo, tomar una llave o subir las escaleras). Esto fue acompañado de capturas de pantalla para que la IA “observara”  y asociara las acciones específicas con los comandos. El método, una vez puesto a prueba, resultó siendo un éxito.

Para probar que la IA realmente comprendió las órdenes, los autores la hicieron jugar por primera vez en una habitación del juego con los comandos programados. Inicialmente, la IA interpretó los comandos de manera correcta, pero lo mejor vino después:  la máquina desestimó los comandos sugeridos al encontrar estrategias más óptimas para seguir avanzando. 

Los estudiantes evaluaron la efectividad de su método con ayuda de OpenAI Gym, una plataforma para desarrollar y comparar algoritmos de aprendizaje profundo. Su algoritmo alcanzó un puntaje de 3500 vs. los 2500 del competidor más exitoso. En la actualidad, solo el algoritmo Google DeepMind ha alcanzado más de 6600 puntos, aunque su entrenamiento toma el doble de tiempo. En el futuro, los estudiantes de ingeniería del presente proyecto tienen planificado disminuir la cantidad de instrucciones para darle mayor independencia al algoritmo. 

Previamente, un equipo del Instituto de Tecnología de Massachusetts entrenó a un programa de inteligencia artificial con algoritmos de aprendizaje profundo para ganar en el videojuego Super Smash Bros. Por otro lado, el popular videojuego StarCraft II también ha sido puesto a prueba por los investigadores de la compañía británica Deep Mind para ser jugado por la IA.  

Gregory Kopiev

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.