¿Por qué la inteligencia artificial se vuelve racista y sexista?

Fotograma del filme: “¿Es feliz el hombre que es alto?” (2013) de Michel Gondry. 
IFC Films

La ciencia ha demostrado que cuando un sistema de inteligencia artificial (IA) aprende una lengua utilizando textos de la realidad cotidiana, este “recuerda” los estereotipos raciales y de género que están ocultos en ellos. El artículo de la investigación fue publicado en la revista Science

El aprendizaje de las máquinas utiliza con frecuencia programas diseñados para el aprendizaje de una lengua. Esta tecnología es utilizada en los motores de búsqueda, los traductores y sintetizadores de textos automáticos, entre otros campos. Con el fin de que la comunicación producida por el algoritmo “suene” natural y adquiera un lenguaje “humano”, los desarrolladores utilizan, en calidad de material educativo, textos en base a contenidos extraídos de medios de comunicación masivos, conversaciones en las redes sociales y entradas de blogs. 

Los autores de la investigación sugieren que, junto con el aprendizaje formal de la estructura de una lengua, la computadora adquiere ideas históricamente arraigadas en los vínculos semánticos de los textos. Para comprobar esta hipótesis, los científicos desarrollaron el algoritmo especial llamado Word-Embedding Association Test (WEAT), que es la versión análoga para computadora del Test de Asociación Implícita (IAT, por sus siglas en inglés) que se utiliza en psicología social. 

En la versión clásica del test, el participante debe clasificar las palabras e imágenes que aparecen en una pantalla en dos categorías, positivo o negativo. Al evaluar la velocidad para completar la tarea, el programa determina cómo la persona se relaciona con ciertos conceptos. Así, ciertas categorías, como “instrumentos musicales”, tienen una frecuente carga positiva entre las personas, mientras que “arma” cae con frecuencia dentro de una categoría negativa. 

Sin embargo, en el caso de la computadora, los investigadores usaron un método diferente. Para empezar, el algoritmo GloVe, basado en el aprendizaje de máquinas, analizó el corpus de textos de internet de 840 mil millones de lexemas y presentó todas las palabras en vectores modelos unidireccionales (un modelo de aprendizaje de redes neuronales que permite asociar un conjunto de patrones de entrada a otros de salida). Seguidamente, utilizando WEAT, los investigadores midieron la afinidad de los vectores modelos escogidos (aquellos que corresponden con las palabras de la prueba de asociación subconsciente, IAT). Básicamente, cuando dos palabras aparecían más seguidas una al lado de la otra en un texto, entonces más frecuente era la asociación entre ambas y más cerca estaban del vector modelo.  

Como resultado, WEAT reveló los mismos resultados que el test psicológico. Por ejemplo, para el sistema GloVe, los colores estuvieron asociados con palabras positivas, mientras que los insectos, con negativas. Asimismo, se reveló que los nombres masculinos fueron asociados con mayor frecuencia con las carreras en ciencias, mientras que los femeninos, con las humanidades. En el caso de los nombres propios más comunes entre la población afroamericana, estos fueron asociados por la IA con conceptos como “peligro” y “pobreza”. Por su parte, los nombres más comunes entre la población blanca fueron relacionados con conceptos como “familia” y “felicidad”.

De este modo, los científicos pudieron demostrar que la IA puede internalizar de manera involuntaria los estereotipos que se encuentran en los materiales de aprendizaje. Un ejemplo claro de esta idea está en el servicio del traductor de Google. En un caso específico, los investigadores notaron que el pronombre neutro de la lengua turca, “o”, en la traducción al inglés varía de acuerdo a la profesión: “o bir doctor”, es traducido como “el doctor”, mientras que “o bir hemsire”, se traduce como “la enfermera”, a pesar de que la expresión original no especifica el género. 

Los autores de la investigación resaltan que estas peculiaridades del aprendizaje de la IA tendrán repercusiones negativas en el futuro para su labor comunicativa, reforzando y replicando estereotipos perniciosos provenientes de sociedades diversas. 

Cristina Ulasovich

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.