La inteligencia artificial creó letales bots para el clásico Doom

La competencia Visual Doom AI Competition (VizDoom) en la que la inteligencia artificial desafía a jugadores humanos —dentro del clásico juego Doom— demuestra los avances de esta tecnología, aunque también generó controversias éticas en otro sector de la comunidad científica. Dos estudiantes en los Estados Unidos publicaron una investigación detallando cómo su bot con inteligencia artificial aprendió a matar a jugadores humanos en sus escenarios de combate a muerte. 

Los estudiantes Devendra Chaplot y Guillaume Lample de la Universidad Carnegie Mellon usaron el aprendizaje profundo para entrenar a su bot de inteligencia artificial —al que bautizaron como Arnold— para defenderse en el universo Doom.

Luego de jugar una y otra vez, Arnold se volvió un experto aniquilando a sus oponentes no importando si eran combatientes artificiales o avatares representando a jugadores humanos. Mira la formidable performance de Arnold en este video: 

Previamente, los investigadores habían usado el deep learning o aprendizaje profundo para dominar juegos en 2D y juegos de tablero; la investigación actual muestra que las técnicas hoy también se extienden a escenarios virtuales en 3D.

El avance ha generado críticas —por el hecho de tratarse de un bot que aprendió a ver a los humanos como enemigos—.

“El peligro no es que el bot mate personajes en el videojuego sino que, al haber un aprendizaje profundo con refuerzo, en una posible aplicación en el mundo real este no estaría satisfecho con solo una baja, y su apetito se podría incrementar con el tiempo (…)”, opinó el divulgador científico y subeditor de Salon, Scott Eric Kaufman.

Para Kaufman, los avances de Chaplot y Lample viola la primera norma de los robots —“un robot no debe herir a un ser humano”— que el visionario Asimov creó hace muchos años.

Pese que no hay prospectos de que la inteligencia artificial de Arnold pase a la realidad, muchos en la comunidad científica y el mundo en general temen que esto eventualmente las máquinas representen un peligro para la humanidad en caso perdamos el control sobre ellas.

El año pasado, cientos de expertos robóticos pidieron a las Naciones Unidas que apoyen la prohibición de sistemas de armas autónomas y un equipo de líderes industriales, incluyendo Elon Musk, fundaron Open AI, una organización que promueve la inteligencia artificial para beneficiar  y no para poner en peligro a la humanidad. Esta semana, Google, Facebook, Amazon e IBM anunciaron una sociedad sin fines de lucro para diseñar y establecer “las mejores prácticas en inteligencia artificial”, oponiéndose a “la violación de convenciones internacionales de derechos humanos, y promoviendo tecnologías que no hacen daño”.

Los estudiantes han aclarado, informa LiveScience, que su bot no busca matar a nadie, “solo lo entrenaron para desenvolverse en un videojuego”. El trabajo no ha sido revisado a nivel académico aun, pero está publicado en la web de investigaciones pre-impresas arXiv.

Daniel Meza

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.