AlphaStar de Google ya le gana al 99.8% de los jugadores de StarCraft II

DeepMind 

Los desarrolladores de DeepMind de Google informaron que su algoritmo AlphaStar, diseñado para jugar StarCraft II, estaba entre los grandes maestros: venció al 99.8% de todos los jugadores que participaron en el torneo en las tres carreras representadas en el juego. Los detalles sobre el algoritmo fueron publicados en Nature.

Los algoritmos para juegos de estrategia en tiempo real, como los de la serie StarCraft, son muy difíciles de desarrollar. El jugador no ve todo el mundo del juego en su conjunto, sino solo una parte de él en el mapa, por lo que debe navegar por el terreno y tomar decisiones constantemente sobre el siguiente paso.

Programas en desarrollo  

Enseñarle a jugar a las máquinas, por lo tanto, requiere mucho trabajo duro, muchos datos y el desarrollo de algoritmos complejos que pueden resolver todos los problemas que aparecen en el juego.

No es sorprendente que la creación de tales algoritmos sea muy popular entre los desarrolladores, y las competiciones entre los bots vengan sucediendo durante bastante tiempo. Sin embargo, no todos logran crear un algoritmo que pueda vencer incluso a los bots integrados en el juego.

En agosto de 2017, Blizzard publicó una API abierta para entrenar bots en StarCraft II. Inmediatamente después de esto, varias grandes empresas de TI y entusiastas individuales comenzaron a entrenar sus algoritmos, y DeepMind (parte de Alphabet holding) fue uno de los primeros en hacerlo. Sus primeros intentos no tuvieron éxito: la primera red neuronal entrenada por los desarrolladores perdió ante el bot incorporado en el juego.

Llega AlphaStar

Después de eso, DeepMind mejoró su algoritmo varias veces, y en enero de este año, su programa AlphaStar logró vencer a los jugadores profesionales más fuertes. Ahora el equipo de desarrollo, dirigido por Oriol Vinyalis dijo que su programa puede vencer a casi cualquier jugador profesional.

De hecho, el funcionamiento del algoritmo en sí está estructurado exactamente de la misma manera que las acciones de un jugador humano. Solo una parte del campo de juego está disponible para el sistema en un momento dado, y tiene la necesidad de tomar decisiones: qué acción tomar, a qué agente o punto en el mapa esta acción debe ser dirigida, y también en qué punto planificar la próxima acción.

El algoritmo en sí mismo se entrena utilizando métodos de aprendizaje por refuerzo y aprendizaje sobre las grabaciones de juegos de jugadores reales. Al mismo tiempo, los desarrolladores limitaron la velocidad de reacción de AlphaStar para que su velocidad de control fuera comparable con los jugadores reales.

Todo el proceso de entrenamiento tomó 44 días, después de lo cual el algoritmo logró vencer al 99.8% de los jugadores de aproximadamente 90 mil registrados oficialmente, y en juegos contra las tres razas. A pesar de que AlphaStar no pudo vencer a los jugadores más fuertes de la tabla, el algoritmo, puede obtener el título de gran maestro.

DeepMind de Google no son los únicos que crean y entrenan algoritmos para jugar a StarCraft II. También se han logrado éxitos, por ejemplo, por la compañía tecnológica china Tencent, cuyos robots superan a los algoritmos creados por StarCraft desde el primer hasta el décimo nivel.
 

Victor Román
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que sumawww.nmas1.org”.  

Novedades

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.