Hola a todos,
voy a explicar, de una forma sencilla, mi tecnica para fotografiar objetos con un rango dinámico demasiado grande para ser recogido por el rango dinámico de la cámara.
En el campo, las técnicas son las mismas que las de siempre: tenemos que hacer diferentes exposiciones de diferentes duraciones para cubrir por entero el rango dinámico del objeto, desde las partes más brillantes a las más débiles. Por supuesto, tanto más profundo queramos llegar, tanto más grande será el rango dinámico a capturar.
Sin embargo, lo que diferencia esta técnica de las demás es la manera en la cual se compone la imagen de alto rango dinámico. Vamos a sintetizar una imagen la cual sería similar a la producida por una cámara ideal. Esta cámara tendría unos pixels con un pozo de electrones gigantesco (del orden de millones de electrones), por lo que virtualmente no tendría un punto de saturación. Entonces seríamos capaces de hacer exposiciones largas para capturar las partes más débiles, pero sin saturar las más brillantes, y la imagen de salida tendría un tamaño de datos mayor de 16 bits. Con esta técnica, he conseguido obtener imágenes con un rango dinámico real tan alto como 24 bits de niveles de grises por canal.
Como estás suponiendo, vamos a componer la imagen HDR de una forma completamente lineal. Imagina el objeto que vamos a fotografiar como una pirámide. La altura de nuestra pirámide representa el rango dinámico del objeto que fotografiado, y nosotros la truncamos horizontalmente, puesto que la pirámide es demasiado grande para nuestra cámara. Nosotros conocemos la altura total de la pirámide, pero no conocemos, a priori, la altura de cada una de las secciones. Este es el parámetro que vamos a determinar, que es la clave para reconstruir perfectamente nuestra pirámide.
Este es el principio básico. Como nuestra cámara no tiene el suficiente rango dinámico, vamos a superponer las exposiciones más cortas sobre las más largas, pero sólo donde las exposiciones más largas están saturadas. Siendo cada exposición una sección diferente de la pirámide, tenemos que reescalar la imagen más larga para acoplarla a la corta.
Imagina que tenemos una fuente de luz de una determinada intensidad. E imagina que hacemos dos fotografías de dicha fuente con una diferente duración (E1 y E2), con una cámara de un sólo pixel. Mientras la señal registrada en E1 será S1, la señal en E2 será:
S2 = S1*(E2/E1)
De una forma más práctica:
Hacemos dos exposiciones de esa fuente de luz: una de un segundo (E1) y otra de tres segundos (E2) de duración. Mientras en la primera exposición la luz produce una señal de 100 electrones, la señal en la segunda exposición será de 300 electrones:
S2 = 100*(3/1) = 300 e-
Para tener dos imágenes idénticas de un pixel, debemos por lo tanto dividir S2, una vez digitalizada, por un factor de tres, para tener el mismo valor numérico en el pixel de ambas imágenes. Esta proporción, como hemos visto arriba, es la clave para unir ambas imágenes.
Para acoplar las dos exposiciones, necesitamos un punto de referencia. Como siempre, en fotografía diurna nos encontramos en un escenario poco más que perfecto: nuestro punto de referencia es, simplemente, la duración de la exposición. Si hacemos dos exposiciones de 1/60s y 1/30s, una vez realizada la calibración (especialmente la sustracción de la imagen de bias), solamente tenemos que dividir la imagen de 1/30s por un factor de 2.
Pero, de nuevo, tenemos varios factores que harán que esta operación no nos valga de nada en astrofotografía. La extinción atmosférica, la transparencia del cielo y el brillo del fondo del cielo pueden variar entre cada una de las exposiciones. Por lo tanto, necesitamos calcular las proporciones entre exposiciones directamente de los objetos fotografiados.
La idea proviene de una técnica utilizada para medir la linearidad de un sensor de imagen. Esta idea, adaptada al problema de las imágenes de alto rango dinámico, consiste en medir la diferencia de iluminación entre dos regiones de la misma imagen, y comparar esta diferencia a la diferencia observada en las mismas regiones de la otra exposición. Esto nos dará la proporción de iluminación entre las dos imágenes. La ecuación que nos dará el factor de acople, F, será:
F = (Image1_region1 – Image1_region2) / (Image2_region1 – Image2_region2)
Esto corregirá los efectos de extinción atmosférica y transparencia del cielo. Pero no corregirá el cambio del nivel de iluminación del fondo del cielo. Tenemos pues que modificar esta ecuación, teniendo en cuenta el brillo del fondo del cielo. Hay que sustraer el fondo a cada área de la imagen a medir:
F = ((Image1_region1 – Image1_bg) – (Image1_region2 – Image1_bg)) / ((Image2_region1 – Image2_bg) – (Image2_region2 – Image1_bg))
Esta última ecuación nos dará la corrección para todos los factores que diferencian nuestras astrofotografías de una fotografía diurna (excluyendo, por supuesto, el ruido aleatorio). Continuaremos en un próximo post, puesto que se hace necesario mirar este problema desde una punto de vista práctico.