Los teléfonos inteligentes aprenden a retocar imágenes en tiempo real

Ejemplo de la transformación de la foto en tiempo real

Michael Gharbi / YouTube

Los expertos de Google y del Instituto Tecnológico de Massachussets han desarrollado un algoritmo basado en redes neuronales, que permite procesar fotografías -por ejemplo, aclarar imágenes oscuras. A diferencia de los algoritmos similares existentes, el recientemente creado es capaz de procesar imágenes en tiempo real, utilizando el poder de tan solo un smartphone. El algoritmo será presentado en la conferencia de gráfica computarizada SIGGRAPH 2017. La revista ACM Transactions on Graphics ha publicado un artículo sobre este modelo.

Las cámaras de los teléfonos inteligentes mejoran constantemente, muchas veces gracias al aumento de la calidad de sus lentes o de sus procesadores gráficos. Pero debido a que tienen un tamaño muy pequeño, su desarrollo futuro se hace cada vez más difícil y caro. Por lo tanto, muchos fabricantes se concentran en el mejoramiento del software, y no del aparato. Por ejemplo, los creadores de varios modelos ignoraron la estabilización mecánica de imagen, que se logra con un juego de lentes, prestando más atención a la algoritmia, esto es, la fórmula para el procesamiento de las imágenes captadas.

Google también ha decidido seguir este camino y ahora su teléfono inteligente, el Pixel, incluye la función HDR +, que combina varias tomas, con diferentes exposiciones, en una sola, ampliando así su rango dinámico; y elimina las zonas demasiado oscuras o claras. La desventaja de esta función es que se aplica a la imagen ya capturada, por lo que el usuario no puede apreciar el resultado final antes de tomar la foto.

Los especialistas de Google, junto a sus colegas del Laboratorio de Tecnología de la Información e Inteligencia Artificial del MIT, decidieron optimizar el algoritmo de la cámara de esta forma, para que el procesamiento se diera en tiempo real.

Comparación del retoque de la foto de 12 megapíxeles con ayuda del algoritmo existente HDR+, y el nuevo diseño (Michael Gharbi et al. / ACM Transactions on Graphics, 2017).

En la base del nuevo algoritmo se encuentra la circunvolución de la red neuronal. Procesar la imagen, completamente, en alta resolución y en tiempo real no es posible aún, debido a la potencia limitada de los teléfonos inteligentes. Por lo tanto, los investigadores utilizaron un sistema complejo, que realiza en la nube la mayor parte de los cálculos en una copia reducida de la imagen original, y luego transfiere los resultados a la foto en alta resolución.

Los ingenieros entrenaron al algoritmo con cinco mil pares de fotos: originales y retocadas por fotógrafos profesionales y probaron el programa en un teléfono inteligente real, el Pixel: el algoritmo pudo llevar a la pantalla, en tiempo real, la imagen procesada con una resolución de 1920 × 1080 píxeles , y la frecuencia de actualización de 40-50 Hz.

Los desarrolladores creen que esta tecnología podrá ser implementada en los teléfonos inteligentes en el futuro próximo, y que permitirá a los usuarios ver fotos de alta calidad procesadas antes de ser tomadas, sin temor al consumo de batería.

La compañía ya ha comenzado a utilizar en su red social Google+, un diseño similar.

Gregory Kopiev

Si te gustó esta noticia, entérate de más a través de nuestros canales de Facebook y Twitter

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.