EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS TRADICIONALES Grupo de Investigación en Fusión de Imágenes Ingeniería Catastral y Geodesia, Facultad de Ingeniería, Universidad Distrital Profesores: Iván Lizarazo Salcedo Rubén Javier Medina Daza Estudiantes: Alejandro Vivas Perdomo Fredy Alexander Bolívar Carlos Calderón Samuel Mesa Alexander Munar RESUMEN
La fusión de imágenes es un proceso digital que permite reunir en una sola imagen el detalle espacial de una imagen pancromática y la riqueza espectral de una imagen multiespectral.
Los procedimientos convencionales de fusión de imágenes están basados en transformaciones tales como RGB IHS, Brovey y Componentes Principales. Estos métodos no son completamente satisfactorios debido a la pérdida relativamente alta de la información espectral original.
En los últimos años se ha empezado a experimentar con otras transformaciones matemáticas que permitan conservar mejor la riqueza espectral de la imagen multiespectral original.
calidad de las imágenes fusionadas mediante wavelet en comparación con los métodos tradicionales. En este artículo se hace una revisión de los métodos tradicionales de fusión de imágenes, de los fundamentos matemáticos de la descomposición de wavelet, de los conceptos básicos de la fusión basada en wavelet y, finalmente, se indican los resultados de la fusion de imagenes realizada en una zona piloto. Dichos resultados indican que la fusion mediante wavelet permite conservar mejor la riqueza espectral que los metodos convencionales pero que la ganancia de resolución espacial es inferior a la de aquellos. ABSTRACT Image fusion is a digital process used to get one single image that keeps the high spatial resolution of one panchromatic image and the richness of one multiespectral image.
Traditional techniques for image fusion are based mainly in the RGBHIS transformations, Principal Components Analysis and Brovey Transformation, among others. These methods are not good enough due to the spectral losses of the original spectral information.
In the recent years, some research have been done about image fusion using mathematical transformations which seems to preserve a lot the spectral information from the original images.
The authors have done research work to evaluate the quality of images fusioned by wavelet and traditional methods. In this article, they review the traditional approach for image fusion, the mathematical wavelet theory, the basic concepts of the wavelet fusion method, and communicate the results achieved when fusing images of a pilot zone. According to these results, the wavelet fusion approach keeps spectral information higher than traditional methods but the detail does not improve as well as those.
1. INTRODUCCIÓN
Las imágenes de satélite constituyen, desde su aparición en 1973, una fuente de datos importante para la ejecución de proyectos sobre medio ambiente y desarrollo. Las imágenes de satélite, a diferencia de las fotografías aéreas, adquieren datos de reflectancia de los objetos terrestres, en diferentes longitudes de onda. Por ello, contienen una gran riqueza de información espectral.
Hasta 1999, las imágenes de satélite multiespectrales sólo alcanzaban resoluciones espaciales de 20 metros, lo cual limitó su uso a proyectos regionales de escala pequeña y mediana (léase nivel general y, en el mejor de los casos, nivel semidetallado). De 1999 en adelante, las imágenes multiespectrales han alcanzado resoluciones espaciales hasta de 2.50 metros1 y su uso en estudios de nivel detallado, básicamente de zonas urbanas, ha empezado a intensificarse. En un intento de ¨mejorar¨ la resolución espacial de las imágenes multiespectrales, se han generado diversas técnicas para combinar dichas imágenes con otro tipo de imágenes cuya resolución espacial sea más alta. Dichas técnicas, conocidas como fusión de imágenes, se han utilizado con relativo éxito desde hace muchos años y están implementadas en herramientas de software convencionales.
La fusión de imágenes es un campo de investigación continua que abre la posibilidad de involucrar nuevos conceptos y herramientas, entre ellos algunas transformaciones matemáticas usadas en tratamiento de señales. Una de ellas es la transformación wavelet, la cual constituye el objeto de la investigación que actualmente adelanta el Grupo de Investigación en Fusión de Imágenes, GIF. 2. QUE ES FUSIÓN DE IMÁGENES La fusión de imágenes es una técnica digital que pretende mejorar una imagen multiespectral y así potenciar su uso en diversas aplicaciones. Para ello se
1 La resolución espacial de una imagen QuickBirdXS es de 2.50 metros. La resolución de una imagen IKONOSXS es de 4 metros.
combinan los datos de una imagen pancromática (o una imagen de radar o de otro sensor no óptico) de alta resolución espacial con los de una imagen multiespectral de alta resolución espectral. El resultado final es una nueva imagen en la cual se ha conservado una buena parte de la riqueza espectral original y se ha ganado resolución espacial. De acuedo con Pohl y van Genderen (1998) la fusión de imágenes se puede usar para: – Mejorar la corrección geométrica de una imagen – Realzar elementos que no son visibles en una imagen – Complementar datos para mejorar una clasificación – Detectar cambios en una zona usando datos multitemporales – Reemplazar datos anómalos de una imagen – Adicionar datos faltantes en una imagen La fusión de imágenes se puede realizar por diferentes métodos, según sea el lugar donde se ejecuta, en la cadena de producción de información espacial: • A nivel de datos • A nivel de objetos • A nivel de decisiones La fusión de imágenes usualmente se realiza a nivel de los datos, es decir a nivel de pixel2. Las técnicas para realizar fusión a este nivel pueden ocurrir en diferentes dominios: • En el dominio de la frecuencia espacial3 2 Píxel es el elemento mínimo que conforma una imagen. Píxel es una contracción de picture element. 3 La frecuencia espacial es una medida de la variación del nivel digital de una imagen en función de la distancia.
• En el dominio espectral • En un dominio mixto, espacial y espectral 3. MÉTODOS TRADICIONALES DE FUSIÓN DE IMÁGENES La fusión de imágenes convencional, es decir aquella que está implementada en los programas comerciales de procesamiento digital de imágenes, permite obtener resultados aceptables y útiles. Los métodos convencionales son los siguientes: 31 En el dominio de la frecuencia espacial
En esta técnica se busca transferir el contenido de frecuencia de la imagen pancromática a la imagen multiespectral, aplicando el siguiente algoritmo (ERDAS,2002): en donde, Imagen fusionada Imagen multiespectral banda k Imagen pancromática con filtro paso alto Función de ponderación 32 En el dominio espectral Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en el cual una imagen representa el componente correlacionado, por ejemplo: • el componente principal 1 (CP1) en el espacio de Componentes Principales
• el componente de intensidad en el espacio de percepción de color IHS (Intensidad, Matiz y Saturación)
La fusión en el dominio espectral se realiza mediante la ejecución de las siguientes fases: • Aplicar una transformación a las bandas de la imagen original • Reemplazar el componente que representa el detalle espacial por la imagen pancromática • Transformar la imagen resultante en el dominio original de la imagen 3.21MÉTODO TRADICIONAL RGBIHS: Este método incluye (Pohl,1999): 1. Registrar una composición a color RGB de la imagen multiespectral con una imagen pancromática, usando el mismo tamaño de píxel de esta última. 2. Transformar los componentes RGB en componentes IHS (Intensidad, Matiz y Saturación).
3. Ajustar el histograma de la imagen pancromática al histograma de la componente I. 4. Reemplazar el componente I por la imagen pancromática 5. Realizar la transformación inversa IHS a RGB 3.22MÉTODO TRADICIONAL RGBCOMPONENTES PRINCIPALES: Este método incluye: 1. Obtener los componentes principales de una composición RGB de la imagen multiespectral.
2. Escalar la imagen pancromática dentro del rango de niveles digitales del componente principal 1 y reemplazar este componente con dicha imagen. 3. Aplicar una transformación inversa de componentes principales para obtener una nueva imagen RGB. 3.23MÉTODO TRADICIONAL TRANSFORMADA DE BROVEY Este método se basa en obtener una nueva imagen RGB usando la Transformada de Brovey que combina tres bandas originales de una imagen multiespectral con la imagen pancromática. El algoritmo usado es (ERDAS, 2002): Imagen fusionada Imagen multiespectral banda k Imagen pancromática 3.24Método tradicional multiplicación
Este método aplica un algoritmo simple de multiplicación, para incorporar el contenido de la imagen pancromática en la imagen multiespectral (ERDAS, 2002):
En donde,
Imagen fusionada
4. LA TRANSFORMADA DE WAVELET
Una transformación wavelet permite descomponer una imagen en dos tipos de coeficientes: aproximación, que representan la riqueza espectral, y detalle, que representan la resolución espacial. La descomposición wavelet se puede hacer en diferentes niveles de resolución, lo cual significa que los componentes de aproximación y detalle se pueden examinar en diferentes tamaños de píxel (Sanjeevi et al., 2001). En cada nivel de descomposición wavelet se tiene una resolución espacial igual a la mitad de la resolución anterior. Por ello, la descomposición de la imagen pancromática de nivel 2 de la Figura 1 corresponde a un tamaño de píxel equivalente al de la imagen multiespectral sin descomposición, considerando una imagen pancromática de resolución espacial de 1m y una imagen multiespectral de resolución espacial de 4 m.
Figura 1
La descomposición wavelet es un proceso iterativo, con sucesivas aproximaciones, la cual recibe el nombre de descomposición de árbol. La imagen original es descompuesta en coeficientes de aproximación (A1) y coeficientes de detalle (D1). Los coeficientes de aproximación (A1) se descomponen en nuevos coeficientes de aproximación (A2), y coeficientes de detalle (D2). Los coeficientes de aproximación (A2), se pueden descomponer en nuevos coeficiente de aproximación (A3) y detalle (D3) y así sucesivamente. Para recuperar la imagen original se adiciona la última descomposición de los coeficientes de aproximación con cada una de las descomposiciones de los coeficientes de detalle, tal como se muestra en la Figura 2 (Misiti, 2002). Figura 2
5. FUSIÓN DE IMÁGENES USANDO WAVELET Este método consiste en combinar los coeficientes de la Wavelet de la imagen pancromática y de la imagen multiespectral. Para el efecto, se tiene en cuenta la relación entre los tamaños de píxel de la imagen pancromática y de la imagen multiespectral. La fusión de imágenes basada en Wavelet puede ser realizada de dos formas (Nuñez J. et al., 1999):
1). Remplazando los coeficientes de detalle de la Wavelet de la imagen multiespectral por los coeficientes correspondientes de la imagen pancromática. 2). Adicionando los coeficientes de detalle de la wavelet de la imagen pancromática a los coeficientes correspondientes de la imagen multiespectral. Este método de fusión se basa en el hecho que, en la descomposición de wavelet, las imágenes (l =o,...,n) son versiones sucesivas de la imagen original en escalas decrecientes; así, los primeros planos de la wavelet de la imagen pancromática de alta resolución tienen información espacial que no está presente en la imagen multiespectral. En el método de sustitución, los planos de wavelet correspondientes a la imagen multiespectral son eliminados y sustituidos por los planos correspondientes de la imagen pancromática. Sin embargo, en el método de adición toda la información espacial de la imagen multiespectral es preservada. Así, la gran ventaja del método de adición es que la información de detalle de ambos sensores es usada.
El Grupo de Investigación en Fusión de Imágenes (GIF) de Ingeniería Catastral y Gedesia, ha realizado pruebas de fusión usando los métodos convencionales y la transformación de wavelet en dos zonas pilotos:
Yopal (Casanare)
En esta zona, se fusionaron una imagen multiespectral de LANDSAT5TM (resolución espacial de 30 m.) y una imagen pancromática de IRS1C (resolución espacial de 5 metros).
Bogotá (Distrito Capital)
En esta zona, se fusionaron una imagen multiespectral de SPOT2HRV (resolución espacial de 20 metros) y una imagen pancromática de SPOT2 (resolución espacial de 10 metros).
Los autores no conocen de trabajos de implementación y evaluación de la fusión wavelet, desarrollados a nivel nacional.
Para realizar su investigación, los autores desarrollaron unos scripts para el software MATLAB 6.0 que permiten manipular los coeficientes de detalle y aproximación de las imágenes digitales y obtener la imagen fusionada mediante wavelet.
La fusión tradicional se realizó utilizando el programa ERDAS IMAGINE 8.5.
Para calificar el comportamiento de los métodos estándar de fusión de imágenes y del método wavelet, se calculó la correlación entre las diferentes imágenes fusionadas y la imagen multiespectral original, para obtener un índice de conservación de la resolución espectral. Para analizar la ganancia de resolución espacial se obtuvo la diferencia entre las correlaciones de las diferentes imágenes fusionadas y la imagen pancromática con respecto a las correlaciones entre la imagen multiespectral original y la imagen pancromática. La correlación entre dos imágenes A y B está definida por (ERDAS,2002): En donde y son los niveles digitales promedio de las imágenes correspondientes [2] y es el coeficiente de correlación entre las imágenes A y B, dicho coeficiente varía entre –1 y +1. Se usan los signos + y – para las correlaciones positivas y negativas, respectivamente. Nótese que es un parámetro adimensional.
8. TABLA DE RESULTADOS
En la siguiente tabla se muestra la correlación entre la imagen multiespectral original y las imágenes obtenidas en los diferentes métodos de fusión, para la zona piloto de Bogotá:
Fusión Métodos convencionales
Infrarrojo Rojo Verde
RGBIHS 0.743 0.928 0.943 Componentes Principales 0.834 0.831 0.807 Fusión métodos
convencionales
Brovey 0.714 0.888 0.825
Fusión métodos wavelet
(Nivel 1)
Infrarrojo Rojo Verde
Haar 0.9648 0.9655 0.9547 Discreta de Meyer 0.9621 0.9707 0.9700 Biortonormal inversa 0.9547 0.9655 0.9648 Dabuiches 0.9595 0.9686 0.9680 Coiflet 0.9618 0.9704 0.9698 En la siguiente tabla se muestra la ganancia de resolución espacial para las imágenes obtenidas en los diferentes métodos de fusión: Imágenes fusionadas método wavelet (Nivel 3) Ganancia Banda Verde Ganancia Banda Roja Ganancia Banda Infrarrojo Haar 0.062 0.050 0.116 Discreta de Meyer 0.064 0.053 0.115 Biortonormal inversa 0.061 0.050 0.116 Dabuiches 0.061 0.050 0.116 Coiflet 0.063 0.051 0.114 Imágenes fusionadas métodos convencionales Ganancia Banda Verde Ganancia Banda Roja Ganancia Banda Infrarrojo Brovey 0.14 0.127 0.463 Componentes Principales 0.168 0.157 0.452 Multiplicación 0.126 0.105 0.636 HIS 0.146 0.148 0.627
En las Figuras 1 a 6 se pueden ver las imágenes fusionadas. Figura 1. Imagen fusionada usando el método RGB IHS. Figura 2. Imagen fusionada usando Componentes principales Figura 3. Imagen Fusionada usando el método de Multiplicación. Figura 4. Imagen Fusionada usando la Transformada de Brovey Figura 5. Imagen Fusionada mediante la Transformada de Wavelet Biortonormal Inversa Figura 6. Imagen fusionada usando la transformada wavelet Discreta de Meyer
9. ANÁLISIS DE RESULTADOS:
En las tablas indicadas antes puede verse que los métodos convencionales permiten conservar la resolución espectral, en un porcentaje promedio variable entre 81 y 88%. El orden de desempeño espectral, de mayor a menor, de los métodos es el siguiente: multiplicativo, RGBIHS, Componentes Principales y Brovey. La banda del infrarojo es la que menos conserva la resolución espectral (en promedio el 75%) frente a las bandas verde (88%) y roja (90%). La ganancia de resolución espacial, por su parte, está entre 12.7 y 63%. La mejor ganancia promedio corresponde a la banda del infrarrojo (54.45%) frente a las bandas roja (13%) y verde (14%). La fusión por el método wavelet (nivel 3) permite conservar la resolución espectral en un porcentaje promedio variable del orden del 96%. El orden de desempeño espectral, de mayor a menor, de los métodos es el siguiente: Discreta de Meyer, Coiflet, Haar, Biortonormal Inversa y Dabuiches. Todas las bandas conservan, en promedio, la misma resolución espectral: 96%. La ganancia de resolución espacial, por su parte, está entre 6% y 11%. La mayor ganancia corresponde a la banda infrarroja (en promedio el 11%) frente a las bandas roja (6%) y verde (5%). Los resultados obtenidos por los autores de este trabajo, en la zona piloto de Yopal muestran una tendencia similar a la aquí indicada: la fusión wavelet permitió conservar la resolución espectral en un porcentaje promedio entre 82 y 90% frente a una conservación entre 50 y 80% en los métodos tradicionales. Por su parte, la ganancia de resolución espacial mediante wavelet está entre el 26% y el 42% frente a la ganancia entre el 32 y el 78% de los métodos tradicionales.
Otra manera de evaluar la calidad de la fusión es examinar la exactitud temática de la clasificación de las imágenes fusionadas y compararla contra la exactitud temática de la clasificación de la imagen multiespectral original. Esa evaluación se está realizando actualmente como parte del trabajo de investigación reseñado en este artículo. CONCLUSIONES De acuerdo con los resultados obtenidos en las zona pilotos de Bogotá y de Yopal se puede concluir: La fusión de imágenes mediante wavelet permite conservar mejor la resolución espectral original pero la ganancia de resolución espacial es menor que la obtenida por los métodos convencionales.
El método de fusión de imágenes usando la transformada de Wavelet es una alternativa promisoria a los métodos de fusión convencionales en aquellos casos en donde se requiera conservar al máximo la riqueza espectral original de la imagen multiespectral.
Los resultados de una fusión de imágenes dependen en buena parte de las condiciones específicas de la zona en la cual se realice el trabajo.
BIBLIOGRAFÍA
ERDAS Inc, 2002. ERDAS IMAGE Tour Guides.
Misiti M. et al, 2002. Wavelet Toolbox for use with MATLAB.
Nuñez. Jorge et al. 1999, MultiresolutionBased Image fusion with Additive Wavelet Descomposition, IEEE Transactions on Geoscience and Remote Sensing. 37 (3).
Pohl, C. 1999. Tools and Methods for fusion of images of different spatial resolution. International Archives of Photogrammetry and Remote Sensing. 32 (743).
Pohl, C. y van Genderen, J.L., 1998. Multisensor image fusion in remote senisng: Concepts, methods and applications. International Journal of remote Sensing, 19 (5).
Sanjeevi S. et al, 2001. Comparison of conventional and wavelet transform techniques for fusion of IRS1C LISSIII and PAN images, 22nd Asian Conference on Remote Sensing.