Imagínese una cámara que
le permita ver a través de una multitud para obtener una visión clara de
alguien que de otro modo estaría en la sombra, un teléfono inteligente que tome
fotos con la calidad de los lentes especializados o una fotografía que le
permita cambiar el ángulo después que la haya tomado.
A diferencia de la
fotografía digital normal -que usa un sensor para capturar una sola imagen
bidimensional de una escena- la técnica registra un conjunto más rico de datos
para construir sus imágenes.
En lugar de tratar de
imitar la forma en la que funciona el ojo humano, le abre las puertas a un
nuevo software con posibilidades mejoradas.
Pelican Imaging es una
de las firmas líderes en este campo.
La empresa con sede en
California está trabajando en una parte del equipo que contiene un conjunto de
16 objetivos, cada uno conectado a un sensor azul, rojo o verde, vinculados a
un chip que fusiona los datos que producen.
"Al final uno
obtiene una imagen estándar JPEG con un mapa de profundidad de la escena que
permite identificar todos los bordes de todos los objetos, hasta de un cabello
humano", le explicó el director ejecutivo Christopher Pickett a la BBC.
Una aplicación de la
compañía utiliza esta información para que el usuario decida qué partes de su
foto deben estar enfocadas aún después de que se toman. Esto incluye la
capacidad inusual para elegir múltiples planos focales.
Por ejemplo, una
fotógrafa en Nueva York podría optar por hacer los detalles de la cara de su
marido y de la Estatua de la Libertad detrás de él, pero que todo lo demás
(incluyendo los objetos de entre ellos) quede borroso o fuera de foco.
"Como no tenemos
partes móviles también tenemos el primer disparo súper rápido, ya que no
tenemos que preocuparnos de enfocar", añade Pickett. "Para lograr la
foto perfecta, basta con que no dejar pasar el momento".
Sin que se rompa la imagen
Otra empresa, Lytro, ya
ofrece funciones similares en su propia cámara de campo de luz independiente,
pero Pelican dice que ofrecer la tecnología a través de un componente tan
pequeño que cabe en un teléfono resultará fundamental para su éxito.
Nokia ya invirtió en
Pelican, dando lugar a especulaciones de que será uno de los primeros en
ofrecer la tecnología en cuanto esté disponible el próximo año.
Entre tanto, para tener
una idea de lo que es la fotografía computacional están las imágenes de alto
rango dinámico (HDR). Utilizan el poder de la computadora para combinar fotos
tomadas con diferentes exposiciones y crear una sola imagen cuyas zonas de luz
no son demasiado brillantes y las oscuras no son demasiado sombrías.
Sin embargo, si el
sujeto principal no está estático puede haber problemas al tratar de unir las
imágenes. A menudo, los usuarios se quejan de que los objetos en movimiento en
el fondo se ven como si se estuvieran rompiendo a pedazos.
Una solución
-actualmente promovida por el fabricante de chips Nvidia- es aumentar la
capacidad de procesamiento para reducir el tiempo entre cada toma.
Pero buscar una técnica
alternativa que sólo requiera una sola foto podría ser mejor.
"Imagine que tiene
un sensor con píxeles de diferentes niveles de sensibilidad", explica el
profesor Shree Nayar, director del Laboratorio de Visión por Computador de la
Universidad de Columbia.
"Algunos podrían
ser buenos para medir las cosas con poca luz y sus vecinos pueden medir bien
cosas muy brillantes.
"Se tendría que
aplicar un algoritmo para decodificar la imagen producida, pero una vez que se
haga, se podría obtener una imagen con una enorme variedad en términos de
brillo y color, mucho más de los que el ojo humano puede ver".
Aún si las técnicas de
HDR actuales pasan de moda, la fotografía computacional ofrece otros usos para
imágenes multitoma.
El año pasado,
investigadores estadounidenses mostraron un proceso que consiste en mover una
cámara compacta alrededor de un objeto o persona para tomar cientos de imágenes
en el lapso de un minuto más o menos (ver video arriba).
Los datos resultantes se
utilizan para crear lo que se llama un mapa del campo de luz en una computadora
portátil.
El software usa esto
para representar las vistas de la escena, permitiéndole al usuario elegir el
ángulo exacto que quiere mucho después de que el evento finalice.
Otra técnica consiste en
el análisis de dos fotos tomadas en rápida sucesión, una con flash y la otra
sin él.
"Se puede utilizar
para saber qué parte de la imagen son sombras", explica el doctor Martin
Turner, experto en visión artificial en la Universidad de Manchester (ver
abajo).
Microsoft solicitó una
patente para esta idea diciendo que la información podría ser utilizada para
hacer que las fotografías con flash se vean menos "chirriantes",
mejorando automáticamente su equilibrio de color, eliminando las feas sombras
proyectadas por la luz brillante y evitando los ojos rojos.
Al final, se tiene lo
que parece ser una imagen muy detallada y sin ruido.
Ver a través
Algunos de los usos más
exóticos de la fotografía computacional se han llevado a cabo en la Universidad
de Stanford, donde los investigadores idearon una manera de "ver a
través" del follaje denso y las multitudes.
Posicionando decenas de
cámaras en diferentes ángulos y procesando los datos resultantes fueron capaces
de crear un efecto de poca profundidad de foco que dejó al sujeto deseado bien
definido pero los objetos que lo obstruyen tan borrosos que parecían
transparentes (ver video abajo).
Su trabajo de
investigación propone como un posible uso de esta tecnología la vigilancia de
objetivos.
"Se gastaron US$2
millones para construir este gran conjunto de cámaras y se necesitó un equipo
de estudiantes de postgrado dedicados a ejecutar el experimento", dijo el
profesor Jack Tumblin, un experto en fotografía computacional en la Universidad
de Northwestern, cerca de Chicago.
"Fue una máquina de
laboratorio maravillosa, pero no es muy práctica".
El profesor Tumblin está
tratando de desarrollar una versión económica del efecto usando una sola
cámara.
Su teoría es que
haciendo varios disparos desde diferentes posiciones, con la ubicación exacta
de la lente registrada para cada uno, debería ser posible usar el software para
eliminar un objeto no deseado de la fotografía final. Lo único es que el objeto
en cuestión debe estar estático.
No tan complicado
Tal vez el mayor
beneficio potencial de la fotografía computacional no son nuevos efectos
rebuscados, sino más bien la capacidad de captar la mejor imagen en dos
dimensiones que sea posible.
Un área de investigación
es la creación de una imagen de alta calidad, que actualmente requiere tomarse
con un objetivo pesado hecho de varios elementos de cristal pulido de
precisión, pero con uno más barato, más pequeño y menos complejo.
La idea es dejar que
pasen las imperfecciones en la imagen por el sensor y arreglarlas luego con el
software.
Otra técnica consiste en
hacer disparos en rápida sucesión, moviendo el sensor tan sólo medio píxel
entre cada uno, para después combinar la información y crear una imagen con
"súper resolución".
El manufacturero sueco
de equipos fotográficos Hasselbad ya utiliza esto en una de sus cámaras de lujo
para que sus sensores de 50 megapíxeles creen fotos de 200MP.
Y también está la idea
de construir un dispositivo híbrido que pueda tomar al mismo tiempo tanto
imágenes fijas como vídeo de alta velocidad para resolver el problema de la
vibración de la cámara.
"El propósito es
poder medir cómo la foto salió borrosa", explica Tumblin.
"Si la parte de la
cámara de vídeo se centra en algún punto brillante en la distancia, puede ser
usado para calcular la trayectoria. Eso permite que el desenfoque causado por
el temblor de la mano sea reversible".
Tomado de:
No hay comentarios:
Publicar un comentario