[Summary in English below]Hola Manolo
Aquí hay varias cosas distintas. Yo me refería al ajuste de canales RGB para conseguir un fondo neutro.
Otra cosa muy distinta es la normalización de las imágenes durante la integración. Esto último no es que sea recomendable, es que es
absolutamente imprescindible. Lo que en nuestro ImageIntegration se llama
normalization (normalización), en DSS se llama
calibración de fondo. Bueno, no es exactamente lo mismo porque nosotros hacemos más cosas aparte de compatibilizar los fondos de las imágenes, pero en cuanto a la función que se desempeña se trata del mismo concepto.
Copio la información pertinente desde la documentación de DSS en Inglés (en la traducción al Español he visto algunas inexactitudes importantes):
Background Calibration
The Background Calibration consists in normalizing the background value of each picture before stacking it.
The background value is defined as the median value of all the pixels of the picture.
Two options are available.
* With the Per Channel Background Calibration option the background for each channel is adjusted separately to match the background of the reference frame.
* With the RGB Channels Calibration the three red, green and blue channels of each light frame are normalized to the same background value which is the minimum of the three medians values (one for each channel) computed from the reference frame. On top on creating compatible images (stacking wise) this option is also creating a neutral gray background. A side effect is that the overall saturation of the stacked image is quite low (grayscale look).
It is important to check one of these options when using Kappa-Sigma Clipping or Kappa-Sigma Clipping Median methods to ensure that the pictures being stacked have all the same background value.
El último párrafo es crucial. Al realizar la integración (apilado) de un conjunto de imágenes utilizando un algoritmo de rechazo de píxeles como
sigma clipping, lo que pretendemos es excluir (rechazar) los valores de píxel que son identificados como
outliers (perdón, no recuerdo cómo se dice técnicamente esto en Español ahora), es decir, valores que no son (estadísticamente) representativos del verdadero valor de un píxel en la imagen. Ejemplos típicos son una traza de avión o satélite, o un rayo cósmico.
Pero para que el algoritmo de rechazo de píxeles funcione correctamente, es necesario que todas las imágenes tengan valores compatibles entre sí. En el caso de sigma clipping, lo que queremos es que la curva del histograma que formamos con una pila de píxeles a partir del conjunto de imágenes que estamos integrando presente un único pico (o sea, que sea unimodal) y tenga la mínima dispersión de valores posible. Menos gráficamente, se pretende minimizar la distancia media entre todos los valores de píxel en las mismas coordenadas. De lo contrario, la desviación estándar deja de ser una estimación representativa de la dispersión real, la mediana deja de ser una buena estimación del valor central, y sigma clipping funciona mucho peor que un simple promedio de las imágenes sin rechazo. La normalización (o calibración del fondo en DSS) sirve precisamente para conseguir compatibilizar las imágenes en este sentido.
Cuestión distinta es cómo se realiza la normalización. Nosotros aplicamos transformaciones estrictamente lineales, que es como se tiene que hacer este trabajo, en nuestra opinión. La normalización que se aplica para el rechazo de píxeles no tiene por qué aplicarse necesariamente después durante la integración (por ejemplo, para calcular la media de los píxeles que sobreviven al rechazo); al menos en nuestro caso esto es opcional. Cuando publiquemos la 1.5 haremos nuevos videotutoriales en los que explicaremos cómo funciona ImageIntegration y cómo hay que realizar la normalización.
Con respecto a DSS, mi recomendación en principio es que selecciones la primera opción, es decir "Per Channel Background Calibration", y que realices la neutralización del fondo después en PI con BackgroundNeutralization (cuando 1.5 esté publicada, claro
).
=========================================================
Summary in English -- Manolo asked about background calibration procedures applied in DeepSkyStacker, and their repercussion for subsequent processing in PixInsight, specifically with the new BackgroundNeutralization and ColorCalibration tools available in the upcoming 1.5 version. My recommendation is to apply the "Per Channel Background Calibration" option when integrating images with sigma clipping rejection. Instead of using the "RGB Channels Calibration" option, my advice is to use the new BackgroundNeutralization tool available in PI 1.5.
When we integrate (stack) a set of images using a pixel rejection algorithm, such as sigma clipping for example, we pursue to exclude (reject) those pixel values that are identified as
outliers, or values that are not (statistically) representative of the true value of a given pixel in the image. Typical examples are planes, satellites and cosmic rays.
But, for a pixel rejection algorithm to work correctly, all images being integrated must have
compatible pixel values. In the case of sigma clipping for example, we want the histogram curve formed with a stack of pixels from the set of integrated images to show a unique peak (unimodal distribution) with the minimum possible dispersion. Less graphically, we want to minimize the mean distance between all pixel values at the same image coordinates. If this condition is not met, the standard deviation can't be a good estimate of the actual dispersion of values, the median can't be a good estimate of the actual central value, and then sigma clipping works much worse than a simple average of images without rejection. Normalization (or background calibration in DSS) is intended precisely to achieve compatibility between images, in the sense that we have just explained.