Expertos en IA hacen un llamado para no desarrollar “robots asesinos”

Wikimedia Commons 

La tecnología no es ni buena ni mala, solo es una herramienta; y como cualquier herramienta puede ser usada con distintos fines. Por eso, desde la llegada de la inteligencia artificial (IA) ha habido gente que la ha usado para mejorar procesos, diagnosticar enfermedades o evitarle sufrimiento innecesario a otras especies.

Sin embargo, también han existido empresas y gobiernos intentando diseñar armas letales autónomas, que usan la IA para decidir por sí mismas si intentan o no matar a una persona. Por suerte, los expertos en el tema, llevan años oponiéndose.

El Instituto Por el Futuro de la Vida 

El miércoles 18 de julio, el Instituto Future of Life (FLI), una organización centrada en el uso de la tecnología para el mejoramiento de la humanidad, emitió un compromiso que condena el desarrollo de armas letales autónomas y hace un llamamiento a los gobiernos para que lo eviten.

"La IA tiene un gran potencial para ayudar al mundo, si estigmatizamos y evitamos su abuso", dijo Max Tegmark, el presidente del FLI en un comunicado de prensa. "Las armas de IA que deciden matar personas autónomamente son tan repugnantes y desestabilizadoras como las armas biológicas, y deben ser tratadas de la misma manera", añadió.

El compromiso que asegura "ni participar ni apoyar el desarrollo, la fabricación, el comercio o el uso de letales armas autónomas", está firmado por 170 organizaciones y 2,464 personas, entre las que se encuentran Elon Musk , fundador de OpenAI; Jaan Tallinn, fundador de Skype; y Stuart Russell, el destacado investigador de IA.

Los firmantes que más han llamado la atención han sido Demis Hassabis, Shane Legg y Mustafa Suleyman, los tres fundadores de Google DeepMind, el principal equipo de investigación de IA de la compañía norteamericana. Como se recuerda, Google se ha visto envuelto en una controversia por su trabajo en el desarrollo de armas para los EE.UU.

Grandes ausentes 

Además de los expertos en tecnología, otros 26 miembros de las Naciones Unidas ya han respaldado una prohibición global de las armas letales autónomas. Aunque varios otros líderes mundiales, incluidos Rusia, el Reino Unido y los Estados Unidos, aún no se han sumado.

Esta tampoco es la primera vez que los expertos en IA se reúnen para firmar un compromiso contra el desarrollo de armas autónomas. Sin embargo, esta promesa sí cuenta con más signatarios, y algunas de esas nuevas incorporaciones son nombres bastante importantes en el espacio de IA.

Desafortunadamente, incluso si todas las naciones del mundo acuerdan prohibir armas letales autónomas, eso no necesariamente impediría que personas o incluso gobiernos continúen desarrollando las armas en secreto.

Como advirtió el mismo FLI en el pasado, con un terrorífico video, el desarrollo de armas inteligentes puede salirse de control si cae en las manos equivocadas. Por eso los esfuerzos por prohibir los distópicos “killer robots”.

 

Victor Román
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que sumawww.nmas1.org”.​​​​​​

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.