Hola a todos:
David:
En el caso de un número pequeño de exposiciones el proceso podría ser viable. Pero yo recolecto siempre más de 20 exposiciones, por lo cual el procedimiento se eternizaría.
Carlos:
Te digo lo mismo que a David. No cabe duda que para "apañar" un par o tres exposiciones el procedimiento que propones posiblemente de los mejores resultados, pero en mi caso reconozco que no tengo paciencia para ello.
Por otro lado cuando se hacen una larga tanda de exposiciones con el mismo objetivo, con la misma apertura de diafragma, temperatura similar, así como el resto de las condiciones, parece razonable pensar que se pudiera obtener una función a aplicar a cada canal y que sea valido para todas las exposiciones.
Una primera aproximación seria suponer que tomando el canal azul como base un punto en el canal verde se desplaza radialmente un número, no necesariamente entero, de píxeles que es función de la distancia al centro de la imagen y lo mismo ocurre con el canal rojo en el que el desplazamiento es mayor. Si de alguna manera, tal como con el alineamiento dinámico, se obtuviera los parámetros de las funciones podrían aplicarse al resto de las exposiciones con un error muy bajo, creo.
Por otro lado he observado que DSS tiene en su procedimiento de apilar una función que es el alineamiento de canales que dice en su ayuda (copio y pego):
Alineado de Canales RGB
Cuando esta opción se encuentra habilitada el DeepSkyStacker intenta alinear los tres canales para reducir el corrimiento de color entre los canales de la imagen resultante.
El efecto principal visible es que las estrellas no estan mas rojas de un lado y azules del otro lado.
Cada canal es registrado (las estrellas son detectadas) y la transformación es calculada entre el mejor canal y los otro dos.
La transformación es luego aplicada a los dos canales lo que los alinea con el mejor canal.
Fin de la cita
No obstante tengo la duda de si la alineación que DSS realiza es un simple desplazamiento lineal y una rotación, cosa que en principio no seria válida pues de esta manera si se corrige el efecto de un extremo de la foto se empeora el lado opuesto. Tampoco lo tengo claro si es así porque también dice (vuelvo a copiar y pegar):
Alineación
Evaluación de desplazamientos y ángulos
Durante el proceso de alineación la mejor imagen (la que tiene mejor puntuación)será utilizada como archivo de imagen de referencia a menos que usted seleccione otro archivo de imagen de referencia utilizando el menú contextual.
Todos los desplazamientos y ángulos de rotación se evalúan relativos a este archivo de imagen e referencia.
Los desplazamientos y ángulos de rotación son evaluados identificando patrones de estrellas en los archivos de imagen.
Para decirlo simple, el algoritmo busca los triángulos más grandes cuyas distancias entre sus lados (y por lo tanto los ángulos comprendidos entre estos lados) son más cercanas.
Con un número suficiente de triángulos detectados entre el archivo de imagen de referencia y el archivo de imagen a alinear el desplazamiento y la rotación son evaluados y validados por medio del método de los cuadrados mínimos.
Dependiendo del número de estrellas, se utiliza una transformación bicuadrática o bilineal.
Fin de la nueva cita
Con lo cual al final no me entero del significado de esa trasformación.
Lo que si es cierto es que las imágenes apiladas no presentan una aberración tan acusada como las imágenes RAW. También es cierto que utilizo el método para de debayerizar de los superpíxeles y al reducir el tamaño de la imagen los defectos se atenúan.
Saludos.