IA de visión por computadora tiene problemas con personas de piel oscura

Benjamin Wilson et al. / arXiv, 2019

Desarrolladores estadounidenses verificaron el trabajo de ocho algoritmos de visión por computadora utilizados para identificar objetos en imágenes y descubrieron que tienen problemas para reconocer a personas con piel oscura. El artículo preimpreso fue publicado en arXiv.org.

A menudo se ha demostrado que las redes neuronales y otros algoritmos de aprendizaje automático están sesgados. Y esto no es culpa del algoritmo, sino de los conjuntos de datos que se utilizan para entrenarlos y probarlos. No se distinguen por la diversidad y, por ejemplo, a menudo tienen más personas de piel clara que personas de piel oscura.

Este problema es notable cuando se usa el algoritmo en la práctica: vale la pena recordar la infame historia de los algoritmos de Google, que confundió a dos personas negras con gorilas. Vale recalcar que a pesar de la alta precisión de muchas redes neuronales, en principio no pueden ser perfectas, siempre hay una posibilidad de error. El sesgo de los algoritmos, por lo tanto, debe evaluarse empíricamente para excluir con precisión la influencia de todas las posibles variables laterales.

Investigadores del Instituto de Tecnología de Georgia, bajo la dirección de Benjamin Wilson, decidieron hacer esto. Seleccionaron imágenes de peatones, que se utilizan para entrenar algoritmos de visión por computadora. Se pidió a los voluntarios que marquen a las personas en las imágenes y les asignen un número del 1 al 6 en la escala de fototipo de piel de Fitzpatrick.

Los científicos han descubierto que a ocho algoritmos les es más difícil identificar peatones con la piel más oscura (4 a 6 en la escala de Fitzpatrick), en un 5%, aproximadamente. Asimismo, la diferencia en la precisión no se vio afectada por la oscuridad del día ni por los objetos que bloquean parcialmente al peatón.

Los desarrolladores creen que la razón de un peor reconocimiento a las personas con piel más oscura no solo se debe a que no son suficientes en la muestra, sino que el algoritmo en sí puede no estar configurado para la insuficiencia de datos. En general, el trabajo realizado muestra la importancia de las pruebas preliminares de las redes neuronales y la configuración de sus parámetros en función de la muestra. Como señala MIT Technology Review en el encabezado de esta nota, este sesgo puede ser peligroso en el uso de algoritmos de visión de computadora en vehículos no tripulados: si el sistema detecta a una persona negra con una probabilidad menor, entonces es más probable que lo mate.

Un grupo internacional de científicos descubrió que los robots humanoides sufren de discriminación racial. Los investigadores realizaron un experimento en el que les pidieron a los participantes decidir si disparar contra robots armados y desarmados y personas con diferente color de piel, y descubrieron que los voluntarios son más rápidos para disparar contra un robot armado oscuro. La preimpresión del artículo se publica en la biblioteca electrónica de ACM.

 

María Cervantes 
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que sumawww.nmas1.org”.

 

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.