¿Por qué la inteligencia artificial se vuelve racista y sexista?

Fotograma del filme: “¿Es feliz el hombre que es alto?” (2013) de Michel Gondry.
IFC Films
La ciencia ha demostrado que cuando un sistema de inteligencia artificial (IA) aprende una lengua utilizando textos de la realidad cotidiana, este “recuerda” los estereotipos raciales y de género que están ocultos en ellos. El artículo de la investigación fue publicado en la revista Science.
El aprendizaje de las máquinas utiliza con frecuencia programas diseñados para el aprendizaje de una lengua. Esta tecnología es utilizada en los motores de búsqueda, los traductores y sintetizadores de textos automáticos, entre otros campos. Con el fin de que la comunicación producida por el algoritmo “suene” natural y adquiera un lenguaje “humano”, los desarrolladores utilizan, en calidad de material educativo, textos en base a contenidos extraídos de medios de comunicación masivos, conversaciones en las redes sociales y entradas de blogs.
Los autores de la investigación sugieren que, junto con el aprendizaje formal de la estructura de una lengua, la computadora adquiere ideas históricamente arraigadas en los vínculos semánticos de los textos. Para comprobar esta hipótesis, los científicos desarrollaron el algoritmo especial llamado Word-Embedding Association Test (WEAT), que es la versión análoga para computadora del Test de Asociación Implícita (IAT, por sus siglas en inglés) que se utiliza en psicología social.
En la versión clásica del test, el participante debe clasificar las palabras e imágenes que aparecen en una pantalla en dos categorías, positivo o negativo. Al evaluar la velocidad para completar la tarea, el programa determina cómo la persona se relaciona con ciertos conceptos. Así, ciertas categorías, como “instrumentos musicales”, tienen una frecuente carga positiva entre las personas, mientras que “arma” cae con frecuencia dentro de una categoría negativa.
Sin embargo, en el caso de la computadora, los investigadores usaron un método diferente. Para empezar, el algoritmo GloVe, basado en el aprendizaje de máquinas, analizó el corpus de textos de internet de 840 mil millones de lexemas y presentó todas las palabras en vectores modelos unidireccionales (un modelo de aprendizaje de redes neuronales que permite asociar un conjunto de patrones de entrada a otros de salida). Seguidamente, utilizando WEAT, los investigadores midieron la afinidad de los vectores modelos escogidos (aquellos que corresponden con las palabras de la prueba de asociación subconsciente, IAT). Básicamente, cuando dos palabras aparecían más seguidas una al lado de la otra en un texto, entonces más frecuente era la asociación entre ambas y más cerca estaban del vector modelo.
Como resultado, WEAT reveló los mismos resultados que el test psicológico. Por ejemplo, para el sistema GloVe, los colores estuvieron asociados con palabras positivas, mientras que los insectos, con negativas. Asimismo, se reveló que los nombres masculinos fueron asociados con mayor frecuencia con las carreras en ciencias, mientras que los femeninos, con las humanidades. En el caso de los nombres propios más comunes entre la población afroamericana, estos fueron asociados por la IA con conceptos como “peligro” y “pobreza”. Por su parte, los nombres más comunes entre la población blanca fueron relacionados con conceptos como “familia” y “felicidad”.
De este modo, los científicos pudieron demostrar que la IA puede internalizar de manera involuntaria los estereotipos que se encuentran en los materiales de aprendizaje. Un ejemplo claro de esta idea está en el servicio del traductor de Google. En un caso específico, los investigadores notaron que el pronombre neutro de la lengua turca, “o”, en la traducción al inglés varía de acuerdo a la profesión: “o bir doctor”, es traducido como “el doctor”, mientras que “o bir hemsire”, se traduce como “la enfermera”, a pesar de que la expresión original no especifica el género.
Los autores de la investigación resaltan que estas peculiaridades del aprendizaje de la IA tendrán repercusiones negativas en el futuro para su labor comunicativa, reforzando y replicando estereotipos perniciosos provenientes de sociedades diversas.
Cristina Ulasovich
Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.
Novedades

La inteligencia artificial y el big data en el sector del entretenimiento
Proteja sus datos personales y comerciales a un nivel superior
La piel de oveja: un inusitado aliado anti fraude de los antiguos abogados
Cómo mejorar la seguridad en una página web
Colombia, Ecuador y Perú comparten gran parte de su biodiversidad agrícola y el dilema por el uso de las semillas nativas o transgénicas. Estas últimas están en vilo porque, a pesar de haber pasado por muchos estudios científicos, todavía hay quienes dudan de su seguridad e impacto tanto en la salud como en el medioambiente.
Transgénicos en los Andes
Países andinos Colombia, Ecuador y Perú viven una encrucijada por el uso y la normativa de los cultivos y alimentos genéticamente modificados
Suscríbete
Déjanos tu mail para recibir nuestro boletín de noticias
Leer también
Deep web, dark web, dark net: se les relaciona con mercados negros de muerte y drogas y con los más retorcidos intereses de humanos. Para saber qué hay de cierto, te ofrecemos la ruta definitiva para conocer los oscuros vericuetos de lo que yace allá abajo (enlaces incluidos).

La guía última hacia la red oscura
La dark net encierra negros rincones al alcance de tu ordenador

Supercomputadoras en Latinoamérica
¿Por qué es importante poseer una kraken informático de alto rendimiento?
Hace 20 años una pequeña sonda, Pathfinder, aterrizó en el Valle de Ares en la superficie de Marte, el planeta al que más hemos viajado y el que más ha seducido nuestra imaginación. Si bien la imagen más mediatizada de la exploración espacial es la de Neil Armstrong pisando la Luna en 1969, el inicio de la exploración humana al espacio empieza mucho antes
