La IA tiene sus límites: algoritmos no pudieron aprender a crear ilusiones ópticas

Los círculos tienen el mismo radio, pero parecen desiguales debido al contraste y al patrón

viperlib.york.ac.uk

Desarrolladores estadounidenses presentaron ViperLib, un conjunto de datos que contiene casi 7.000 imágenes de ilusiones ópticas. Se supone que ayudará a entrenar algoritmos informáticos para que estos creen ilusiones, sin embargo, los propios desarrolladores, que entrenaron una red de contención generativa en ViperLib, no lograron construir un modelo efectivo. El artículo preimpreso fue publicado en arXiv.

La ilusión óptica aparece cuando se produce un error de percepción visual: los objetos estáticos parecen estar en movimiento, los objetos bidimensionales (tridimensionales e incluso figuras) aparecen como si tuviesen volumen. Su apariencia depende directamente de la forma y el contenido de la imagen: por ejemplo, cuando los objetos se perciben en un fondo contrastante, hay un fenómeno de irradiación. Los mecanismos de percepción de las ilusiones ópticas son poco conocidos, pero se cree que su causa es la discrepancia entre el ojo (el órgano que recibe la información) y la corteza visual (la parte del cerebro que procesa esta información).

Una tarea bastante complicada 

Debido a que el mecanismo de la apariencia y la percepción de las ilusiones ópticas no se conoce bien, la tarea de procesarlas utilizando técnicas de visión artificial es mucho más complicada. Este problema fue resuelto por Robert Williams y Roman Yampolskiy de la Universidad de Louisiana, quienes recolectaron datos de 6.725 imágenes de varias ilusiones ópticas, divididas en categorías.

Con los datos recopilados, los científicos también entrenaron una red de contención generativa, un tipo de red neuronal cuya arquitectura es más adecuada para crear nuevos objetos basados ​​en datos determinados. Los resultados, sin embargo, se parecen poco a ilusiones ópticas reales.

Proceso de crear una imagen basada en el conjunto de datos
Williams & Yampolskiy / arXiv 2018
La razón puede ser la heterogeneidad y la falta de datos, por ejemplo, recientemente los desarrolladores de NVIDIA lograron crear retratos realistas de personas que usan una red generativa-adversaria en una base mucho más grande con fotos de celebridades. Sin embargo, los científicos planean tomar en cuenta las deficiencias de las imágenes obtenidas para un estudio adicional. El conjunto de datos completo está disponible en el sitio web de los desarrolladores.

 

María Cervantes
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que suma: www.nmas1.org”.​​​​​​

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.