Una inteligencia artificial ‘revive’ los retratos de Dalí, Einstein y Mona Lisa [VIDEO]

Egor Zakharov et al. / arXiv, 2019

 

Desarrolladores rusos han presentado un algoritmo basado en una red neuronal que puede convertir retratos estáticos en imágenes animadas. Su sistema utiliza expresiones diferentes de rostros humanos que obtiene de videos propuestos como base datos. Después las transfiere a una imagen o a la secuencia de ellas, gracias a lo cual los hablantes se pueden convertir en Salvador Dalí, Albert Einstein o Marilyn Monroe o aún Fiódor Dostoyevski. La descripción de algoritmo fue publicada en arXiv.org.

 

 

La transferencia de información sobre imagen y video no es tan fácil. Por ejemplo, si queremos combinar la pista de audio con el video con una persona que habla, hay que asegurarse de que la mímica del hablante corresponda con lo que se dice en el audio. En este campo los desarrolladores han logrado muy buenos resultados gracias a la gran cantidad de datos recopilados y modelos basados en ellos. 

Sin embargo, esos sistemas también tienen sus desventajas. Los modelos frecuentemente se basan en miles de fotogramas similares de la persona o el objeto particular, es decir, de un solo video. Por consiguiente, la red neuronal puede trabajar solo con este origen. Sin embargo, en teoría los algoritmos no deberían estar enfocados en un objeto concreto y tendrían que utilizar la cantidad mínima de imágenes iniciales. 

 

Egor Zakharov et al. / arXiv, 2019

 

Los desarrolladores de Samsung y científicos rusos de Skolkovo, liderados por Egor Zakharov, decidieron resolver ese problema. Entrenaron su algoritmo en una amplia base de imágenes de caras humanas. En cada fotograma había una máscara especial que se superponía en la cara para designar sus rasgos y expresiones básicas. Después la forma de la máscara se almacenó como un vector para poder imponerla en la cara de otra persona y comparar la imagen inicial con el resultado. 

Representación de modelo utilizado por científicos rusos
Egor Zakharov et al. / arXiv, 2019

 

Tras varios ensayos ese modelo finalmente permitió a los científicos transferir información entre dos objetos utilizando solo uno o dos fotogramas. Para recibir un resultado, hay que tener una imagen de origen y otra de destino. Luego la red forma una máscara y la superpone a la imagen original. Cabe mencionar que es capaz no solo de cambiar la expresión facial de la persona en el fotograma inicial, sino también de convertirlo en la imagen animada. 
   
En un video que muestra los resultados de su trabajo podemos ver como los desarrolladores ponen a hablar a celebridades, como Salvador Dalí o Marilyn Monroe, o personajes de obras maestras, como Mona Lisa. 

 

Egor Zakharov et al. / arXiv, 2019

 

Anteriormente, desarrolladores estadounidenses lograron resolver el mismo problema. Su algoritmo puede crear animaciones en 3D tan solo usando fotografías. 

 

Yana Berman
Esta noticia ha sido publicada originalmente en N+1, tecnología que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, tecnología que sumawww.nmas1.org”.

Novedades

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.