EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS TRADICIONALES

16  Download (0)

Full text

(1)

EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA  TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS  TRADICIONALES Grupo de Investigación en Fusión de Imágenes Ingeniería Catastral y Geodesia, Facultad de Ingeniería, Universidad Distrital Profesores: Iván Lizarazo Salcedo Rubén Javier Medina Daza Estudiantes:  Alejandro Vivas Perdomo Fredy Alexander Bolívar Carlos Calderón Samuel Mesa Alexander  Munar RESUMEN

La   fusión   de   imágenes   es   un   proceso   digital   que   permite   reunir   en   una   sola  imagen el detalle espacial de una imagen pancromática y la riqueza espectral de  una imagen multiespectral.

Los   procedimientos   convencionales   de   fusión   de   imágenes   están   basados   en  transformaciones   tales   como   RGB   ­   IHS,   Brovey   y   Componentes   Principales.  Estos   métodos   no   son   completamente   satisfactorios   debido   a   la   pérdida  relativamente alta de la información espectral original.

En los últimos años se ha empezado a experimentar con otras transformaciones  matemáticas   que   permitan   conservar   mejor   la   riqueza   espectral   de   la   imagen  multiespectral original.

(2)

calidad de las imágenes fusionadas mediante wavelet en comparación con los  métodos tradicionales.   En este artículo se hace una revisión de los métodos  tradicionales   de   fusión   de   imágenes,   de   los   fundamentos   matemáticos   de   la  descomposición de wavelet, de los conceptos básicos de la fusión basada en  wavelet y, finalmente, se indican los resultados de la fusion de imagenes realizada  en una zona piloto.     Dichos resultados indican que la fusion mediante wavelet  permite conservar mejor la riqueza espectral que los metodos convencionales pero  que  la ganancia de resolución espacial es inferior a la de aquellos.  ABSTRACT Image fusion is a digital process used to get one single image that keeps the high  spatial   resolution   of   one   panchromatic   image   and   the   richness   of   one  multiespectral image. 

Traditional   techniques   for   image   fusion   are   based   mainly   in   the   RGB­HIS  transformations,   Principal   Components   Analysis   and   Brovey   Transformation,  among others. These methods are not good enough due to the spectral losses of  the original spectral information. 

In the recent years, some research have been done about image fusion using  mathematical   transformations   which   seems   to   preserve   a   lot   the   spectral  information from the original images. 

The authors have done research work to evaluate the quality of images fusioned  by   wavelet   and   traditional   methods.   In   this   article,   they   review   the   traditional  approach for image fusion, the mathematical wavelet theory, the basic concepts of  the wavelet fusion method, and communicate the results achieved when fusing  images of a pilot zone. According to these results, the wavelet fusion approach  keeps spectral information higher than traditional methods but the detail does not  improve as well as those.

(3)

1. INTRODUCCIÓN

Las imágenes de satélite constituyen, desde su aparición en 1973, una fuente de  datos   importante   para   la   ejecución   de   proyectos   sobre   medio   ambiente   y  desarrollo.     Las   imágenes   de   satélite,   a   diferencia   de   las   fotografías   aéreas,  adquieren datos de reflectancia de los objetos terrestres, en diferentes longitudes  de onda.  Por ello, contienen una gran riqueza de información espectral.  

Hasta   1999,   las   imágenes   de   satélite   multiespectrales     sólo   alcanzaban  resoluciones espaciales de 20 metros, lo cual limitó su uso a proyectos regionales  de escala pequeña y mediana (léase nivel general y, en el mejor de los casos,  nivel semidetallado).   De 1999 en adelante, las imágenes multiespectrales han  alcanzado resoluciones espaciales hasta de 2.50 metros1 y su uso en estudios de  nivel detallado, básicamente de zonas urbanas, ha empezado a intensificarse. En un intento de ¨mejorar¨ la resolución espacial de las imágenes multiespectrales,  se han generado diversas técnicas para combinar dichas imágenes con otro tipo  de imágenes cuya resolución espacial sea más alta.  Dichas técnicas, conocidas  como fusión de imágenes, se han utilizado con relativo éxito desde hace muchos  años y están implementadas en herramientas de software convencionales.

La   fusión   de   imágenes   es   un   campo   de   investigación   continua   que   abre   la  posibilidad de involucrar nuevos conceptos y herramientas, entre ellos algunas  transformaciones matemáticas usadas en tratamiento de señales. Una de ellas es  la   transformación wavelet, la cual constituye el objeto de la investigación que  actualmente adelanta el Grupo de Investigación en Fusión de Imágenes, GIF. 2. QUE ES FUSIÓN DE IMÁGENES  La fusión de imágenes es una técnica digital que pretende mejorar una imagen  multiespectral   y   así   potenciar   su   uso   en   diversas   aplicaciones.   Para   ello   se 

1 La resolución espacial de una imagen QuickBird­XS es de 2.50 metros. La resolución de una imagen  IKONOS­XS es de 4 metros.

(4)

combinan los datos de una   imagen pancromática (o una imagen de radar o de  otro   sensor   no   óptico)     de   alta   resolución   espacial   con   los   de   una   imagen  multiespectral de alta resolución espectral. El resultado final es una nueva imagen  en la cual se ha conservado una buena parte de la riqueza espectral original y se  ha ganado resolución espacial. De acuedo con Pohl y van Genderen (1998) la fusión de imágenes se puede usar  para: – Mejorar la corrección geométrica de una imagen – Realzar elementos que no son visibles en una imagen – Complementar datos para mejorar una clasificación – Detectar cambios en una zona  usando datos multitemporales – Reemplazar datos anómalos de una imagen – Adicionar datos faltantes en una imagen La fusión de imágenes se puede realizar por diferentes métodos, según sea el  lugar donde se ejecuta, en la cadena de producción de información espacial: • A nivel de datos • A nivel de objetos • A nivel de decisiones La fusión de imágenes usualmente se realiza a nivel de los datos, es decir a nivel  de pixel2. Las técnicas para realizar fusión a este nivel pueden ocurrir en diferentes  dominios: • En el dominio de la frecuencia espacial3 2 Píxel es el elemento mínimo que conforma una imagen.  Píxel es una contracción de  picture element. 3 La frecuencia espacial es una medida de la variación del nivel digital de una imagen en función de la  distancia.

(5)

• En el dominio espectral • En un dominio mixto, espacial y espectral 3. MÉTODOS TRADICIONALES DE FUSIÓN DE IMÁGENES La fusión de imágenes convencional, es decir aquella que está implementada en  los programas comerciales de procesamiento digital de imágenes, permite obtener  resultados aceptables y útiles.   Los métodos convencionales  son los siguientes: 31   En el dominio de la frecuencia espacial

En   esta   técnica   se   busca   transferir   el   contenido   de   frecuencia   de   la   imagen  pancromática   a   la   imagen   multiespectral,   aplicando   el   siguiente   algoritmo  (ERDAS,2002): en donde, Imagen fusionada Imagen multiespectral ­ banda k Imagen pancromática con filtro paso alto Función de ponderación 32   En el dominio espectral Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en  el cual una imagen representa el componente correlacionado, por ejemplo: • el componente principal 1 (CP1) en el espacio de  Componentes Principales

(6)

• el   componente   de   intensidad   en   el   espacio   de   percepción   de   color   IHS  (Intensidad, Matiz y Saturación)

La   fusión   en   el   dominio   espectral   se   realiza   mediante   la   ejecución     de   las  siguientes fases:   • Aplicar una transformación a las bandas de la imagen original • Reemplazar el componente que representa el detalle espacial por la imagen  pancromática • Transformar la imagen resultante en el dominio original de la imagen 3.21MÉTODO TRADICIONAL RGB­IHS: Este método incluye (Pohl,1999):  1.    Registrar una composición a color RGB de la imagen multiespectral con una  imagen pancromática, usando el mismo tamaño de píxel de esta última. 2.   Transformar los componentes RGB en componentes IHS (Intensidad, Matiz y  Saturación).

3.     Ajustar   el   histograma   de   la   imagen   pancromática   al   histograma   de   la  componente I. 4.   Reemplazar el componente I por la imagen pancromática 5.   Realizar la transformación inversa IHS a RGB 3.22MÉTODO TRADICIONAL RGB­COMPONENTES PRINCIPALES: Este método incluye:  1.   Obtener los componentes principales de una composición RGB de la imagen  multiespectral.

(7)

2.    Escalar la imagen pancromática dentro del rango de niveles digitales del  componente principal 1 y reemplazar este componente  con dicha imagen. 3.   Aplicar una transformación inversa de componentes principales para obtener  una nueva imagen RGB. 3.23MÉTODO TRADICIONAL  TRANSFORMADA DE BROVEY Este método se basa en obtener una nueva imagen RGB usando la Transformada  de Brovey  que combina tres bandas originales  de  una imagen multiespectral con  la imagen pancromática. El algoritmo usado es (ERDAS, 2002): Imagen fusionada Imagen multiespectral ­ banda k Imagen pancromática  3.24Método tradicional multiplicación

Este   método   aplica   un   algoritmo   simple   de   multiplicación,   para   incorporar   el  contenido de la imagen pancromática en la imagen multiespectral (ERDAS, 2002):

En donde,

Imagen fusionada

(8)

4. LA TRANSFORMADA DE WAVELET 

Una transformación wavelet permite descomponer una imagen en dos tipos de  coeficientes:  aproximación, que representan la riqueza espectral, y  detalle, que  representan la resolución espacial. La descomposición wavelet se puede hacer en diferentes niveles de resolución, lo  cual significa que  los componentes de aproximación y detalle se pueden examinar  en diferentes tamaños de píxel (Sanjeevi et al., 2001).    En cada nivel de descomposición wavelet se tiene  una resolución espacial igual a  la   mitad   de   la   resolución   anterior.   Por   ello,   la   descomposición   de   la   imagen  pancromática   de   nivel   2   de   la   Figura   1   corresponde   a   un   tamaño   de   píxel  equivalente al de la imagen multiespectral sin descomposición, considerando una  imagen  pancromática de resolución espacial de 1m y una imagen multiespectral  de resolución espacial de 4 m.

Figura 1

La   descomposición   wavelet   es   un   proceso   iterativo,   con   sucesivas  aproximaciones, la cual recibe el nombre de descomposición de árbol.  La imagen original es descompuesta en coeficientes de aproximación (A1) y coeficientes de  detalle (D1).  Los coeficientes de aproximación (A1) se descomponen en nuevos  coeficientes de aproximación  (A2), y coeficientes de detalle (D2). Los coeficientes de  aproximación (A2), se pueden descomponer en nuevos coeficiente de aproximación (A3) y  detalle (D3) y  así sucesivamente. Para recuperar la imagen original se adiciona la última  descomposición de los coeficientes de aproximación con cada una  de las descomposiciones  de los coeficientes de detalle, tal como se muestra en la  Figura 2 (Misiti, 2002).  Figura 2

(9)

5. FUSIÓN DE IMÁGENES USANDO WAVELET Este método consiste en combinar los coeficientes de la Wavelet de la imagen  pancromática y de la imagen multiespectral. Para el efecto, se tiene en cuenta la  relación entre   los tamaños de píxel de la imagen pancromática y de la imagen  multiespectral.  La fusión de imágenes basada en Wavelet puede ser realizada de dos formas  (Nuñez J.  et al., 1999):

1).   Remplazando   los   coeficientes   de   detalle   de   la   Wavelet   de     la   imagen  multiespectral por los coeficientes correspondientes de la imagen pancromática. 2).   Adicionando   los   coeficientes   de   detalle   de   la   wavelet   de   la   imagen  pancromática a los coeficientes correspondientes de la imagen multiespectral. Este método de fusión se basa en el hecho que, en la descomposición de wavelet,  las imágenes      (l =o,...,n)   son versiones sucesivas de la imagen original en  escalas decrecientes; así, los primeros planos de la wavelet de la imagen  pancromática de alta resolución tienen información espacial que no está presente  en la imagen multiespectral. En el  método de sustitución, los planos de  wavelet correspondientes a la imagen  multiespectral son eliminados y sustituidos por los planos correspondientes de la  imagen pancromática. Sin embargo, en el método de adición toda la información  espacial   de   la   imagen   multiespectral   es   preservada.   Así,   la   gran   ventaja   del  método de adición es que la información de detalle de ambos sensores es usada.

(10)

El Grupo de Investigación en Fusión de Imágenes (GIF) de Ingeniería Catastral y  Gedesia, ha realizado pruebas de fusión usando los métodos convencionales y  la  transformación de wavelet  en dos zonas pilotos:

Yopal (Casanare)

En   esta   zona,   se   fusionaron   una   imagen   multiespectral   de   LANDSAT5­TM  (resolución espacial de 30 m.) y una imagen pancromática de IRS­1C (resolución  espacial de 5 metros).

Bogotá (Distrito Capital)

En   esta   zona,   se   fusionaron   una   imagen   multiespectral   de   SPOT2­HRV  (resolución   espacial   de   20   metros)   y   una   imagen   pancromática   de   SPOT2  (resolución espacial de 10 metros). 

Los autores no conocen de trabajos de implementación y evaluación  de la fusión  wavelet,  desarrollados a nivel nacional.

Para   realizar   su   investigación,   los   autores   desarrollaron   unos   scripts   para   el  software   MATLAB   6.0   que   permiten   manipular   los   coeficientes   de   detalle   y  aproximación de las imágenes digitales y obtener la imagen fusionada mediante  wavelet.  

La fusión tradicional se realizó utilizando el programa ERDAS IMAGINE 8.5.

(11)

Para calificar el comportamiento de los métodos estándar de fusión de imágenes y  del   método   wavelet,     se   calculó   la   correlación   entre   las   diferentes   imágenes  fusionadas   y   la   imagen     multiespectral   original,   para   obtener   un   índice   de  conservación de la resolución espectral. Para analizar la  ganancia de resolución  espacial se obtuvo la diferencia entre las correlaciones de las diferentes imágenes  fusionadas y la imagen pancromática con respecto a las correlaciones entre la  imagen multiespectral original y la imagen pancromática.  La correlación entre dos imágenes  A y B está definida por (ERDAS,2002): En donde  y  son los niveles digitales promedio de las imágenes correspondientes  [2] y   es el coeficiente de correlación entre las imágenes A y B,  dicho coeficiente  varía entre –1 y +1. Se usan los signos + y – para las correlaciones positivas y  negativas,  respectivamente. Nótese  que es un parámetro adimensional. 

8. TABLA DE RESULTADOS

En  la   siguiente  tabla  se  muestra  la   correlación  entre  la  imagen   multiespectral  original y las imágenes obtenidas   en los diferentes métodos de fusión, para la  zona piloto de Bogotá:

Fusión Métodos  convencionales

Infrarrojo Rojo Verde

RGB­IHS 0.743 0.928 0.943 Componentes  Principales 0.834 0.831 0.807 Fusión métodos 

(12)

convencionales

Brovey 0.714 0.888 0.825

Fusión métodos wavelet

(Nivel 1)

Infrarrojo Rojo Verde

Haar 0.9648 0.9655 0.9547 Discreta de Meyer 0.9621 0.9707 0.9700 Biortonormal inversa 0.9547 0.9655 0.9648 Dabuiches 0.9595 0.9686 0.9680 Coiflet 0.9618 0.9704 0.9698 En la siguiente tabla se muestra la ganancia de resolución espacial para las  imágenes obtenidas  en los diferentes métodos de fusión: Imágenes fusionadas  método wavelet (Nivel 3) Ganancia  Banda Verde  Ganancia  Banda  Roja Ganancia  Banda Infrarrojo  Haar 0.062 0.050 0.116 Discreta de Meyer 0.064 0.053 0.115 Biortonormal inversa 0.061 0.050 0.116 Dabuiches 0.061 0.050 0.116 Coiflet 0.063 0.051 0.114 Imágenes fusionadas  métodos  convencionales Ganancia  Banda Verde  Ganancia  Banda  Roja Ganancia  Banda Infrarrojo  Brovey 0.14 0.127 0.463 Componentes Principales 0.168 0.157 0.452 Multiplicación 0.126 0.105 0.636 HIS 0.146 0.148 0.627

(13)

En las Figuras 1 a 6 se pueden ver las imágenes fusionadas. Figura 1.  Imagen fusionada usando el método RGB­ IHS. Figura 2. Imagen fusionada  usando Componentes principales Figura 3.  Imagen Fusionada  usando  el método de  Multiplicación. Figura 4. Imagen Fusionada usando la Transformada de Brovey Figura 5. Imagen Fusionada  mediante la Transformada de Wavelet Biortonormal Inversa  Figura 6. Imagen fusionada usando la transformada wavelet Discreta de Meyer  

(14)

9. ANÁLISIS DE RESULTADOS:

En   las   tablas   indicadas   antes   puede   verse   que   los   métodos   convencionales  permiten conservar la resolución espectral, en un porcentaje promedio variable  entre 81 y 88%. El orden de desempeño espectral, de mayor a menor, de los  métodos   es   el   siguiente:   multiplicativo,   RGB­IHS,   Componentes   Principales   y  Brovey. La banda del infrarojo es la que menos conserva la resolución espectral  (en promedio el 75%) frente a las bandas verde (88%)  y roja (90%). La ganancia de resolución espacial, por su parte,  está entre 12.7 y 63%. La mejor  ganancia promedio corresponde a la banda del infrarrojo (54.45%) frente a las  bandas roja (13%) y verde (14%). La fusión por el método wavelet (nivel 3) permite conservar la resolución espectral  en un porcentaje promedio variable del orden del 96%. El orden de desempeño  espectral, de mayor a menor, de los métodos es el siguiente: Discreta de Meyer,  Coiflet, Haar, Biortonormal Inversa y Dabuiches.  Todas las bandas conservan, en  promedio, la misma resolución espectral:  96%.  La ganancia de resolución espacial, por su parte,  está entre 6% y 11%. La mayor  ganancia corresponde a la banda infrarroja (en promedio el 11%) frente a las  bandas roja (6%) y verde (5%). Los resultados obtenidos por los autores de este trabajo,   en la zona piloto de  Yopal muestran una tendencia similar a la aquí indicada: la fusión wavelet permitió  conservar la resolución espectral en un porcentaje promedio entre 82 y 90% frente  a una conservación entre 50 y 80% en  los métodos tradicionales. Por su parte, la  ganancia de resolución espacial mediante wavelet   está entre el 26% y el 42%  frente a la ganancia entre el 32 y el 78% de los métodos tradicionales.  

(15)

Otra manera de evaluar la calidad de la fusión es examinar la exactitud temática  de la clasificación de las imágenes fusionadas y compararla contra la exactitud  temática de la clasificación de la imagen multiespectral original. Esa evaluación se  está realizando actualmente como parte del trabajo de investigación reseñado  en  este artículo. CONCLUSIONES De acuerdo con los resultados obtenidos en las zona pilotos de Bogotá y de Yopal  se puede  concluir: La fusión de imágenes mediante wavelet permite conservar mejor la resolución  espectral   original   pero   la   ganancia   de   resolución   espacial   es   menor   que   la  obtenida por los métodos convencionales. 

El método de fusión de imágenes usando la transformada de Wavelet es una  alternativa promisoria a los métodos de fusión convencionales en aquellos casos  en  donde  se  requiera  conservar al  máximo  la  riqueza espectral  original  de la  imagen multiespectral. 

Los   resultados   de   una   fusión   de   imágenes   dependen   en   buena   parte   de   las  condiciones específicas de la zona en la cual se realice el trabajo.

(16)

BIBLIOGRAFÍA

ERDAS Inc, 2002. ERDAS IMAGE Tour Guides.

Misiti M. et al, 2002. Wavelet Toolbox for use with MATLAB. 

Nuñez.   Jorge   et   al.   1999,   Multiresolution­Based   Image   fusion   with   Additive  Wavelet Descomposition, IEEE Transactions on Geoscience and Remote  Sensing. 37 (3).

Pohl,   C.   1999.   Tools   and   Methods   for   fusion   of   images   of   different   spatial  resolution.  International Archives of Photogrammetry and Remote Sensing.  32 (7­4­3).   

Pohl, C. y van Genderen, J.L., 1998. Multisensor image fusion in remote senisng:  Concepts,   methods   and   applications.   International   Journal   of   remote  Sensing, 19 (5).

Sanjeevi   S.   et   al,   2001.  Comparison   of   conventional   and   wavelet   transform  techniques   for   fusion   of   IRS­1C   LISS­III   and   PAN   images,   22nd  Asian  Conference on Remote Sensing.

Figure

Updating...

References

Related subjects :