Para Elon Musk, la IA supone un peligro para la existencia humana

El empresario sudafricano Elon Musk. /Flickr
Como orador invitado en la Reunión de Verano de la Asociación Nacional de Gobernadores de 2017, el magnate sudafricano Elon Musk, jefe ejecutivo de SolarCity, Tesla o Space X, habló de los problemas potenciales de la inteligencia artificial (IA). El empresario instó a los gobernadores estadounidenses presentes durante la conferencia a establecer reglamentos para el desarrollo de la IA, pues, según sus palabras, “es un riesgo para la existencia en nuestra civilización”, informa Futurism.
El empresario de Silicon Valley no niega la utilidad de los robots y la inteligencia artificial en la sociedad, pero sí que ve necesaria “una regulación proactiva” a tiempo, antes de que suponga un desafío irreversible para la existencia humana. Lo que le asusta, dice, no es en sí la IA, sino su posible descontrol. La solución que propone es la regulación temprana: "Normalmente, se regulan actividades cuando pasan cosas horribles, que llevan a una protesta pública y después de muchos años, se establece una agencia reguladora para el asunto. Hasta que la gente no vea a los robots matar a personas por la calle, no se entenderán los peligros de la inteligencia artificial”, apuntó Musk, como puedes ver en el siguiente vídeo.
Varios de los gobernadores le preguntaron a Musk cómo es posible regular una industria tan nueva. Él respondió que el primer paso es que consigamos comprenderla plenamente: "Primero habría que tratar de aprender lo máximo posible, para entender la naturaleza del problema". Eso es lo que Musk ha estado haciendo a través de su compañía de investigación sin ánimo de lucro OpenAI.
La inteligencia artificial ya forma parte de nuestras vidas. Hoy en día, entre sus capacidades está el reconocimiento de voz, un alto rendimiento en juegos estratégicos y los automóviles autodirigidos. “Dentro de veinte años, no es que no vaya a haber gente al volante, es que no habrá volante”, afirmó. Sin embargo, afirma que todas sus inversiones en el ámbito de la inteligencia artificial, como los coches autónomos de su empresa Tesla, se hicieron con la intención de vigilar su controlado desarrollo. Musk teme que los robots tengan cada vez más importancia y acaben controlando algo tan importante como nuestra seguridad, por ello advierte que un fallo en la inteligencia artificial, como podría ser un error en estos coches, pueda afectar gravemente a toda la sociedad.
Pero Musk no es el único que prevé una catástrofe si la industria tecnológica no pone límites a la IA. Stephen Hawking también considera que, con el tiempo, las máquinas inteligentes programadas y diseñadas por los hombres, los acabarán superando. Aunque por ahora solo utilicemos la inteligencia artificial para realizar tareas automáticas, los robots cada vez ganarán más terreno en el ámbito laboral.
No obstante, la comunidad científica ya había advertido sobre estos mismos riesgos en algunos de los proyectos de Musk. El caso más flagrante es Neuralink, cuyo objetivo es desarrollar la tecnología necesaria para crear conexiones directas entre un ordenador y el cerebro humano. Aunque se define como una compañía de investigación médica y sus prototipos serán muy probablemente implantes cerebrales que traten enfermedades como la epilepsia, el Parkinson o la depresión, si Neuralink alcanzara su objetivo, es difícil predecir sus consecuencias y el resultado sería una "interfaz de todo el cerebro" tan completa, sin fricción, bio-compatible y poderosa que se sentiría a los usuarios como sólo otra parte de su corteza cerebral, límbica y sistemas nerviosos centrales. Christopher Markou, doctorando de la Facultad de Derecho de la Universidad de Cambridge (Inglaterra), señaló hace unos meses que los riesgos potenciales de Neuralink son principalmente tres: que necesita cirugía invasiva con propósitos no médicos (con los riesgos que una intervención de estas características conlleva); que puede facilitar el control mental de la población y que solo podemos imaginar vagamente las posibilidades que existen de hackear la mente humana cuando sus impulsos están conectadas a una máquina.
Beatriz de Vera
Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.
Novedades

La inteligencia artificial y el big data en el sector del entretenimiento
Proteja sus datos personales y comerciales a un nivel superior
La piel de oveja: un inusitado aliado anti fraude de los antiguos abogados
Cómo mejorar la seguridad en una página web
Colombia, Ecuador y Perú comparten gran parte de su biodiversidad agrícola y el dilema por el uso de las semillas nativas o transgénicas. Estas últimas están en vilo porque, a pesar de haber pasado por muchos estudios científicos, todavía hay quienes dudan de su seguridad e impacto tanto en la salud como en el medioambiente.
Transgénicos en los Andes
Países andinos Colombia, Ecuador y Perú viven una encrucijada por el uso y la normativa de los cultivos y alimentos genéticamente modificados
Suscríbete
Déjanos tu mail para recibir nuestro boletín de noticias
Leer también

Supercomputadoras en Latinoamérica
¿Por qué es importante poseer una kraken informático de alto rendimiento?
Como los convencionales, los ordenadores cuánticos resolverán problemas matemáticos y buscarán en bases de datos; pero con la promesa de una rapidez y precisión nunca vistas. Una guía de lo que conocemos sobre esta nueva informática.

¿Qué sabemos de los ordenadores del futuro?
Particularidades y avances de la computación cuántica

La ilustración científica resiste
Preservando la tradición de los bocetos y libretas de campo