IA “machista” de Amazon estuvo discriminando mujeres a la hora de revisar currículums

Wikimedia Commons
En el pasado ha quedado demostrado que las inteligencias artificiales suelen adquirir características de aquellos que las programan. Al parecer eso es lo que ha ocurrido con un sistema de IA en Amazon que había estado siendo utilizado para reclutar nuevo personal: discriminaba a las mujeres.
Según reporta la agencia Reuters, Amazon creó un equipo de ingeniería en Edimburgo, Escocia, en 2014 para encontrar una manera de automatizar su reclutamiento. La compañía creó 500 modelos de computadora para rastrear los currículos de los candidatos pasados y recoger alrededor de 50,000 términos clave. El sistema rastrearía la web para recomendar candidatos.
"Literalmente querían que fuera un motor donde les fueramos a dar 100 hojas de vida, y [el sistema] nos arrojara los cinco primeros y los contrataremos", dijo una de las cinco fuentes dentro de Amazon a las que tuvo acceso Reuters.
El sistema falló
Sin embargo, un año después, los ingenieros notaron que el sistema estaba discriminando a las candidatas femeninas. Aparentemente, esto se debió a la base de datos. La IA repasaba los currículos predominantemente masculinos enviados a Amazon durante un período de 10 años para acumular datos sobre a quién contratar llegando a la conclusión de que los hombres eran preferibles. Debido a eso el sistema rebajó el puntaje de los currículos que contenían las palabras "mujeres" y eliminó a los candidatos que habían asistido a dos universidades solo para mujeres.
Para solucionar el problema los ingenieros de Amazon modificaron el sistema eliminando estas formas particulares de sesgo, pero aun así no podían estar seguros de que la IA no encontrara nuevas formas de discriminar injustamente a los candidatos.
Por eso, la compañía de Jeff Bezos optó por abandonar el proyecto de reclutamiento a través de IA a principios del año pasado. Los ejecutivos le habían perdido la fe. Al ser consultados, los portavoces de Amazon han evitado hacer comentarios más que el de asegurar “que estaban comprometidos con la diversidad e igualdad en el lugar de trabajo”.
El sexismo no es la única de nuestras taras que les hemos estado pasando a los sistemas de IA. A finales del año pasado Microsoft desarrolló un chat-bot llamado Tay que aprendió a ser racista y elogiar a Trump y Hitler.
Victor Román
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.
Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que suma: www.nmas1.org”.
Novedades

La inteligencia artificial y el big data en el sector del entretenimiento
Proteja sus datos personales y comerciales a un nivel superior
La piel de oveja: un inusitado aliado anti fraude de los antiguos abogados
Cómo mejorar la seguridad en una página web
Colombia, Ecuador y Perú comparten gran parte de su biodiversidad agrícola y el dilema por el uso de las semillas nativas o transgénicas. Estas últimas están en vilo porque, a pesar de haber pasado por muchos estudios científicos, todavía hay quienes dudan de su seguridad e impacto tanto en la salud como en el medioambiente.
Transgénicos en los Andes
Países andinos Colombia, Ecuador y Perú viven una encrucijada por el uso y la normativa de los cultivos y alimentos genéticamente modificados
Suscríbete
Déjanos tu mail para recibir nuestro boletín de noticias