Vea También
El Stanford Computational Imaging Lab ha combinado sus conocimientos en óptica e inteligencia artificial. Sus avances más recientes en este campo se detallan en un artículo publicado hoy (12 de noviembre de 2021) en Science Advances y en un trabajo que se presentará en SIGGRAPH ASIA 2021 en diciembre.
En su esencia, esta investigación se enfrenta al hecho de que las actuales pantallas de realidad aumentada y virtual solo muestran imágenes en 2D a cada uno de los ojos del espectador, en lugar de imágenes en 3D -u holográficas- como las que vemos en el mundo real.
"No son realistas desde el punto de vista de la percepción", explica Gordon Wetzstein, profesor asociado de ingeniería eléctrica y director del Laboratorio de Imagen Computacional de Stanford. Wetzstein y sus colegas trabajan en la búsqueda de soluciones para salvar esta brecha entre la simulación y la realidad, creando al mismo tiempo pantallas más atractivas y fáciles de ver.
La investigación publicada detalla una técnica para reducir la distorsión del moteado que suele aparecer en las pantallas holográficas normales basadas en láser, mientras que el artículo de SIGGRAPH Asia propone una técnica para representar de forma más realista la física que se aplicaría a la escena 3D si existiera en el mundo real.
Un puente entre la simulación y la realidad
En las últimas décadas, la calidad de imagen de las pantallas holográficas existentes ha sido limitada. Como explica Wetzstein, los investigadores se han enfrentado al reto de conseguir que una pantalla holográfica tenga el mismo aspecto que una pantalla LCD.
Uno de los problemas es que resulta difícil controlar la forma de las ondas de luz con la resolución de un holograma. El otro gran reto que dificulta la creación de pantallas holográficas de alta calidad es superar la diferencia entre lo que ocurre en la simulación y el aspecto que tendría la misma escena en un entorno real.
Anteriormente, los científicos han intentado crear algoritmos para resolver estos dos problemas. Wetzstein y sus colegas también desarrollaron algoritmos, pero lo hicieron utilizando redes neuronales, una forma de inteligencia artificial que intenta imitar el modo en que el cerebro humano aprende información. Lo llaman "holografía neural".
La pantalla holográfica neural que estos investigadores han creado implicó el entrenamiento de una red neural para imitar la física del mundo real de lo que ocurría en la pantalla y consiguió imágenes en tiempo real. A continuación, lo combinaron con una estrategia de calibración de "cámara en bucle" que proporciona una retroalimentación casi instantánea para informar sobre los ajustes y las mejoras. Al crear un algoritmo y una técnica de calibración que se ejecutan en tiempo real con la imagen vista, los investigadores pudieron crear imágenes de aspecto más realista con mejor color, contraste y claridad.
El nuevo artículo de SIGGRAPH Asia destaca la primera aplicación del laboratorio de su sistema de holografía neural a las escenas 3D. Este sistema produce una representación realista y de alta calidad de escenas que contienen profundidad visual, incluso cuando partes de las escenas se representan intencionadamente como lejanas o desenfocadas.
El trabajo de Science Advances utiliza la misma estrategia de optimización de la cámara en bucle, junto con un algoritmo inspirado en la inteligencia artificial, para proporcionar un sistema mejorado para las pantallas holográficas que utilizan fuentes de luz parcialmente coherentes: los LED y los SLED. Estas fuentes de luz son atractivas por su coste, tamaño y requisitos energéticos, y también tienen el potencial de evitar el aspecto moteado de las imágenes producidas por los sistemas que dependen de fuentes de luz coherentes, como los láseres. Pero las mismas características que ayudan a los sistemas de fuentes parcialmente coherentes a evitar el moteado tienden a dar lugar a imágenes borrosas con falta de contraste. Mediante la creación de un algoritmo específico para la física de las fuentes de luz parcialmente coherentes, los investigadores han producido las primeras imágenes holográficas 2D y 3D de alta calidad y sin motas utilizando LEDs y SLEDs.
Potencial transformador
Wetzstein y Peng creen que esta combinación de técnicas emergentes de inteligencia artificial junto con la realidad virtual y aumentada será cada vez más omnipresente en una serie de sectores en los próximos años.
"Soy un gran creyente en el futuro de los sistemas informáticos vestibles y de la RA y la RV en general, creo que van a tener un impacto transformador en la vida de las personas", afirma Wetzstein. Puede que no sea en los próximos años, dijo, pero Wetzstein cree que la realidad aumentada es el "gran futuro".
Aunque la realidad virtual aumentada se asocia ahora mismo sobre todo a los juegos, ésta y la realidad aumentada tienen un uso potencial en diversos campos, entre ellos la medicina. Los estudiantes de medicina pueden utilizar la realidad aumentada para su formación, así como para superponer los datos médicos de las tomografías y las resonancias magnéticas directamente sobre los pacientes.
"Este tipo de tecnologías ya se utilizan en miles de cirugías al año", afirma Wetzstein. "Prevemos que las pantallas que se llevan en la cabeza, que son más pequeñas, más ligeras y simplemente más cómodas visualmente, son una parte importante del futuro de la planificación quirúrgica".
"Es muy emocionante ver cómo la computación puede mejorar la calidad de la pantalla con la misma configuración de hardware", afirma Jonghyun Kim, investigador visitante de Nvidia y coautor de ambos artículos. "Una mejor computación puede hacer una mejor visualización, lo que puede suponer un cambio de juego para la industria de las pantallas".
Fuentes, créditos y referencias:
Yifan Peng et al, Speckle-free holography with partially coherent light sources and camera-in-the-loop calibration, Science Advances (2021). DOI: 10.1126/sciadv.abg5040. www.science.org/doi/10.1126/sciadv.abg5040