IA “machista” de Amazon estuvo discriminando mujeres a la hora de revisar currículums

Wikimedia Commons

En el pasado ha quedado demostrado que las inteligencias artificiales suelen adquirir características de aquellos que las programan. Al parecer eso es lo que ha ocurrido con un sistema de IA en Amazon que había estado siendo utilizado para reclutar nuevo personal: discriminaba a las mujeres.

Según reporta la agencia Reuters, Amazon creó un equipo de ingeniería en Edimburgo, Escocia, en 2014 para encontrar una manera de automatizar su reclutamiento. La compañía creó 500 modelos de computadora para rastrear los currículos de los candidatos pasados ​​y recoger alrededor de 50,000 términos clave. El sistema rastrearía la web para recomendar candidatos.

"Literalmente querían que fuera un motor donde les fueramos a dar 100 hojas de vida, y [el sistema] nos arrojara los cinco primeros y los contrataremos", dijo una de las cinco fuentes dentro de Amazon a las que tuvo acceso Reuters.

El sistema falló 

Sin embargo, un año después, los ingenieros notaron que el sistema estaba discriminando a las candidatas femeninas. Aparentemente, esto se debió a la base de datos. La IA repasaba los currículos predominantemente masculinos enviados a Amazon durante un período de 10 años para acumular datos sobre a quién contratar llegando a la conclusión de que los hombres eran preferibles. Debido a eso el sistema rebajó el puntaje de los currículos que contenían las palabras "mujeres" y eliminó a los candidatos que habían asistido a dos universidades solo para mujeres.

Para solucionar el problema los ingenieros de Amazon modificaron el sistema eliminando estas formas particulares de sesgo, pero aun así no podían estar seguros de que la IA no encontrara nuevas formas de discriminar injustamente a los candidatos.

Por eso, la compañía de Jeff Bezos optó por abandonar el proyecto de reclutamiento a través de IA a principios del año pasado. Los ejecutivos le habían perdido la fe. Al ser consultados, los portavoces de Amazon han evitado hacer comentarios más que el de asegurar “que estaban comprometidos con la diversidad e igualdad en el lugar de trabajo”.

El sexismo no es la única de nuestras taras que les hemos estado pasando a los sistemas de IA. A finales del año pasado Microsoft desarrolló un chat-bot llamado Tay que aprendió a ser racista y elogiar a Trump y Hitler


Victor Román
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que sumawww.nmas1.org”.

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.