La inteligencia artificial ahora convierte tu selfie favorito en imagen 3D

Una muestra de la tecnología desarollada por la Universidad de Nottingham, con el rostro de Barack Obama.

En la actualidad, existen apps para smartphone como Phogy, que permiten convertir tu cámara en una herramienta de captura de imágenes en 3D, aunque ello implica tener un buen pulso y mantener apuntada la lente del celular al objeto que queremos retratar en tres dimensiones. Claro, de más está decir que estas aplicaciones no son capaces de convertir fotos pasadas en una imagen tridimensional, con lo cual aquel autorretrato de esas vacaciones de ensueño o con aquella deslumbrante tenida seguirían siendo un foto plana.

A no ser por la Universidad de Nottingham y la Universidad de Kingston, cuyos científicos han desarrollado una tecnología capaz de producir una reconstrucción facial en 3D a partir de una sola imagen 2D.

De hecho, la tecnología ha sido puesta al servicio de quien lo necesite y desde este portal se puede no solo revisar la conversión hecha a varias fotos, algunas de personajes bastante conocidos como el ex presidente Barack Obama, sino también subir tu propio selfie a color para que la inteligencia artificial (IA) del sistema lo transforme en pocos segundos en una imagen que salte de la pantalla.

Hasta ahora, más de 400.000 usuarios han empleado el sistema.

La investigación, de la cual da cuenta Nottingham en un comunicado, se titula “Gran reconstrucción facial en 3D a partir de una sola imagen vía Regresión Directa Volumétrica por CNN, cuyos resultados serán presentados en la Conferencia Internacional sobre Visión por Computador (ICCV) 2017 en Venecia el próximo mes.

Y no, con CNN los científicos no se refieren a la cadena noticiosa internacional, sino a la Convolutional Neural Network o red neuronal convolucional, un área de la IA que emplea el aprendizaje de máquina para facultar a las computadoras la capacidad de aprender sin programar en ellas necesariamente un estímulo. Las CNN o convnet tienen neuronas conformando campos receptivos que imitan a las conectadas con la corteza visual del cerebro humano, por lo que su uso está enfocado en sistema de visión artificial.

Aunque esta tecnología está en una etapa muy temprana y solo es capaz de darle volumen al rostro que detectan en la imagen proporcionada, se trata de los primeros pasos de una tecnología que promete.

La misma ha sido desarrollada gracias a la disposición de un conjunto de 80.000 imágenes en 2D y modelos faciales en 3D, a partir del cual la red ha aprendido a reconstruir la geometría tridimensional de los rostros, e incluso suponer cómo serían algunas partes no visibles de la  cara, contando tan solo con una imagen 2D. En definitiva, un enfoque más sencillo que el convencional para crear imágenes tridimensionales, que implica el uso de varias cámaras desde diversos ángulos y se topa con dificultades como el que el objetivo se mueva o esté iluminado irregularmente, dependiendo del ángulo.

Aaron Jackson, uno de los autores del proyecto, señala: "Nuestro CNN utiliza solo una imagen facial 2D, y trabaja para poses faciales arbitrarias (por ejemplo, imágenes frontales o de perfil) y expresiones faciales (por ejemplo, sonriendo)".

La técnica podría mejorar los sistemas de reconocimiento facial y emociones, para optimizar plataformas de vigilancia, investigación o incluso personalizar juegos de computadora, mejorar la realidad aumentada y, en el campo de la medicina, simular los resultados de cirugías reconstructivas.

Hans Huerto

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter.

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.