Robots serían más útiles si tuviesen menos confianza en sí mismos

C-3PO, androide de la franquicia Star Wars. 

La excesiva (y a veces ciega) confianza en uno mismo podría llevarnos a cometer errores, o cruzar umbrales erróneos o antiéticos. Ocurre algo similar con los robots: un autómata que no reconoce sus capacidades y no entiende hasta dónde puede ser útil y en qué momento necesita ayuda, podría acabar dando más dolores de cabeza que soluciones. Con la llegada de tecnologías como la inteligencia artificial o el aprendizaje automático, un equipo de investigadores se planteó hacer experimentos con robots de menor confianza en si mismos con la finalidad de guiar la programación de futuras inteligencias artificiales (IA). Los detalles de esta investigación pueden descargarse en la web arXiv.org.

Este aspecto es crucial para robots que trabajan cerca de humanos. Las tomas de decisiones de sistemas como los de Autos sin chofer o robots que apagan incendios, involucrados directamente en la seguridad de las personas, deben ser evaluados necesariamente.

Una inteligencia artificial con excesiva confianza en sí misma podría causar problemas. Un ejemplo sencillo es el algoritmo de los muros de Facebook. Libremente, este sugiere temas y publicaciones a seguir a los usuarios. Lo malo de esto es que en gran cantidad de casos acaba ‘bombardeando’ a los usuarios con noticias falsas. Por ello, el equipo de la Universidad de California, en Berkeley, sugiere que lo ideal hacia el futuro es que las IAs busquen y acepten la vigilancia humana. Así, en lugar de postear todos los artículos que supuestamente los usuarios quieren ver, un algoritmo menos seguro de sí activaría un filtro humano adicional.

El equipo de Berkeley diseñó un modelo matemático de interacción entre humanos y robots llamado “el juego del interruptor de apagado” para explorar la idea de la autoconfianza de una máquina. En este juego teórico, un robot con un interruptor de apagado es encomendado una tarea. Un humano, simultáneamente, es libre de presionar el botón del interruptor en cualquier momento, pero el robot puede escoger si desactivar el interruptor, con lo que la persona estaría imposibilitado de apagarlo. 

Aquellos robots con altos niveles de confianza no permitieron a los humanos apagarlos nunca, al intentar maximizar su rendimiento haciendo las tareas. En contraste, un robot con baja confianza siempre permitió un humano apagarlo, aun haciendo un buen trabajo. 

Al mismo tiempo, los autores consideran que no es recomendable hacer la inteligencia artificial demasiado insegura. Argumentan, por ejemplo, que si un auto no tripulado llevara a un niño a la escuela, el mismo no debería permitir al niño tomar control. En este caso, la IA debería ser segura de que sus habilidades están por encima del niño y no permitir al mismo apagarla. Según los autores, “los robots más seguros encontrarían el balance entre estos dos extremos”.

Futuros experimentos del equipo esperan inculcar más información a la IA, mediante la que puedan tomar decisiones, como por ejemplo decidir si hacer un café es mejor en la mañana que por la noche.  Las conclusiones del trabajo de este artículo son importantes especialmente ahora que los expertos estiman que los robots tomarán puestos de trabajo antes solo ocupados por humanos. Para entender más sobre este futuro inminente, aquí te presentamos una lista de trabajos en los que eventualmente tendrás que competir contra un robot. 

 

Daniel Meza
¿Te gustó esta noticia? Coméntala y entérate de más a través de nuestros canales de Facebook y Twitter.

Novedades

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.