Comprendo. Sí, es una buena idea. En principio debería haber una forma "automática" (ojo a las comillas) de equiparar las regiones de la imagen que sólo están cubiertas por la DSLR a las que lo están por ambas cámaras. Claro, esto funcionará en cuanto a brillo, pero la relación señal/ruido será inferior en esas regiones: todavía no hacemos milagros.
Podrías probar haciendo un modelo del fondo con DBE para la imagen de DSLR y otro para la imagen CCD. Por supuesto, estos modelos hay que hacerlos después de toda la calibración e integración de los subframes. Asumiendo que ambas imágenes son planas (sin gradientes), el cociente entre las medias de ambos modelos de fondo se podría usar como un factor de corrección.
No sé si merece la pena hacer esto, o si sería mejor hacerlo a mano con histogramas o curvas, sobre la imagen DSLR, con una máscara que tape la zona cubierta por ambas imágenes (con los bordes un poco desenfocados, para que no se note el escalón). Generar esa máscara es muy sencillo con PixelMath. Si te decides te echo una mano.