det( Q) 1, para calcular Q VQ. Los productos

Download (0)

Full text

(1)

Mejoramiento de la resolución espacial de las

imágenes Ikonos a partir de ortofotos: una aplicación de la fusión de imágenes con la Transformada

Wavelet

Improving the spatial resolution of Ikonos images based on orthophotos: an application of image fusion

with wavelet transform

Rubén Javer Medina Daza Laura Cristina Becerra Gonzalez

Jhon Camilo Matiz Leon

Proyecto Curricular Ingeniería Catastral y Geodesia, Facultad de ingeniería,

Proyecto Curricular Maestría en ciencias de la Información y las Comunicaciones, Facultad de ingeniería, Universidad Distrital Francisco José de Caldas (UDFJ)

Bogotá D. C., Colombia e-mails: rmedina@udistrital.edu.co

lauracriss@misena.edu.co jcmatizl@correo.udistrital.edu.co Resumen — Este artículo tiene como objetivo desarrollar y evaluar

dos metodologías, que permiten mejorar la resolución espacial sin pérdida significativa de la resolución espectral, con una imagen Ikonos y una Ortofoto. Usando la transformación RGB-IHS y el análisis de componentes principales (ACP). Aplicando la fusión a las componentes de intensidad de la imagen multiespectral (Im) y de la ortofoto (Io) mediante la transformada Wavelet. De igual forma a la componente principal de la imagen multiespectral (CP1m) y de la Ortofoto (CP1o) mediante la transformada Wavelet y junto con la técnica de ARSIS se genera una nueva intensidad y una nueva componente principal respectivamente.

Para realizar las transformadas inversas de manera independiente IHS-RGB y IACP, y asi obtener dos imágenes multiespectrales.

Finalmente se presentan los resultados obtenidos con los índices matemático-estadístico CC, ERGAS, RASE y Qu.

Palabras clave – Wavelet; Fusión; imágenes de satélite; ortofoto;

multiespectral.

Abstract — This article aims to develop and evaluate two methodologies that improve the spatial resolution without significant loss of spectral resolution, with an Ikonos and orthophoto image. Using the transformation RGB-IHS principal component analysis (PCA). Applying fusion to components multispectral image intensity (Im) and orthophotos (Io) by the wavelet transform. Similarly to the main component of the multispectral image (CP1M) and orthophoto (CP1o) using Wavelet transformed together with ARSIS technique a new intensity and a major new component is generated respectively. To perform the inverse transformed independently IHS-RGB and IACP, and thus obtain two multispectral images. Finally, the

results obtained with the mathematical-statistical indices CC, ERGAS, RASE and Qu are presented.

Keywords – Wavelet; Fusion; satellite images; orthophoto;

multispectral.

I. INTRODUCCIÓN

La fusión de datos en un marco formal permite la combinación y utilización de datos procedentes de fuentes diferentes. La idea es obtener información de “mayor calidad”

que la original, la cual dependerá de la aplicación [1][19]. La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una sola imagen datos de alta resolución espectral y espacial a partir de imágenes de diferente resolución espacial y/o diferentes sensores remotos. La fusión permite obtener información detallada sobre el medio ambiente urbano y rural, útil para una aplicación específica en diferentes estudios geográficos [20][19]. Las técnicas de fusión de imágenes, como una solución alternativa, se pueden utilizar para integrar el detalle geométrico de una imagen para este caso de estudio una Ortofoto de alta resolución espacial (ORTO) y el color de las imágenes multiespectrales de baja resolución espacial y alta resolución espectral (MULTI) para producir una nueva imagen de alta resolución espacial y espectral (N-MULTI) [12].

En los últimos años se ha experimentado con procedimientos que usan la transformada de Wavelet en dos dimensiones con el objetivo de conservar en gran medida la riqueza espectral de las imágenes originales [4][6][10-13]. Mostrando resultados satisfactorios en diferentes aplicaciones [2] [3][4][8].De otra parte el avance tecnológico en el desarrollo de sensores remotos

(2)

pone a disposición diferentes tipos de imágenes en las cuales las mejoras tanto en la información espacial como espectral son evidentes. Sin embargo la necesidad de mejoras y realces para extraer mayor información de las imágenes sigue siendo una preocupación para los científicos, por lo cual la fusión de imágenes satelitales sigue siendo un área de investigación [23].

El objetivo principal de este artículo es evaluar la eficiencia de la transformada Wavelet propuesta en [5][12] para fusionar una sub-escena de una imagen MULTI del satélite Ikonos que tiene 4 metros de resolución espacial con una ORTO de 0.25 metros de resolución espacial, un sector central de la ciudad de Bogotá (Colombia), Parque Metropolitano Simón Bolívar para generar una imagen fusionada N-MULTI. Se exponen los resultados de la fusión de imágenes usando Transformada Wavelet, comparándolas con dos métodos propuestos, el primero transforma la imagen MULTI y ORTO a sus componentes Intensidad, Matiz y Saturación respectivamente, la intensidad de la MULTI (Im) y la intensidad de ORTO (Io) los cuales contienen información espacial, mediante la transformada de Wavelet se obtiene los coeficiente de aproximación y detalle respectivamente, concatenando los coeficientes de aproximación de Im y los coeficientes de detalle Io se genera una nueva matriz de coeficientes aplicando la transformada inversa Wavelet se obtiene la nueva Imo y con Matiz y la Saturación se realiza la transformada inversa IHS- RGB obteniendo así una nueva imagen MULTI. El segundo transforma la imagen MULTI y ORTO a sus componentes principales CP1m, CP2m y CP3m, CP1o, CP2o y CP3o respectivamente, La CP1m de la MULTI y la CP1o de ORTO los cuales contienen información espacial, mediante la transformada de Wavelet se obtiene los coeficiente de aproximación y detalle respectivamente, concatenando los coeficientes de aproximación de CP1m y los coeficientes de detalle CP1o se genera una nueva matriz de coeficientes aplicando la transformada inversa Wavelet se obtiene la nueva CP1mo y con CP2m y la CP3m se realiza la transformada inversa componentes principales, obteniendo así una nueva imagen MULTI.

Usando el toolbox de Wavelet y el toolbox de Procesamiento Digital de Imágenes en MatLab [7] para realizar los dos métodos anteriores. Se realiza la evaluación de la fusión a través de cuatro indicadores, a saber, el índice de calidad Universal Qu , la Ccorrelación espacial y espectral, el índice RASE y el índice ERGAS espacial y espectral.

II. MÉTODO TRADICIONAL RGB-COMPONENTES

PRINCIPALES

Usando las bandas B1, B2 y B3 de la imagen multiespectral, se genera los vectores en 3cuyos componentes serán NDij, se calcula las media para cada banda por separado, para hallar la matriz de varianza y covarianza usando la formula (1).

  

1

1 1

n t

i i

i

V ND ND

n

 

  



Se resuelve la ecuación característica

V   I  0

, donde los valores propios de

V

son las soluciones de la ecuación

característica, para obtener el porcentaje de varianza por cada componente Principal

% VCP

i

. Para hallar los espacios propios asociados a cada valor propio se resuelven sistemas homogéneos de la forma

A  

i

I v

i

0

. Se construye la matriz ortogonal Q colocando como columnas a los vectores

1

, ,...,

2 n

u u u

, para hallar el determinante de Q , es decir det( ) 1Q  , para calcular

Q VQ

1 . Los productos

1

ij ij

ND   Q ND

proporcionan las coordenada en los nuevos ejes, de esta manera se obtiene los componentes principales CP1, CP2 y CP3 [3][15].

III. TRANSFORMADA DE WAVELET

En las últimas décadas, las estrategias de fusión de imágenes más utilizadas, se han basado en técnicas de análisis multiresolución. El objetivo es encontrar una transformada discreta que mejore la respuesta espacial y que no degrade la resolución espectral, desde este punto de vista la transformada discreta de ondiculas (Wavelet) (TDW) mejora la resolución espacial y degrada en menor valor la resolución espectral que los métodos tradicionales [6] [12].

La transformada discreta de Wavelet, es una transformación lineal que tiene una gran utilidad en el área de procesamiento de señales. Una de sus principales aplicaciones consiste en separar conjunto de datos en componentes de distinta frecuencia espacial, representados en escalas comunes.

Los algoritmos de Mallat y el ‘à trous’ son los algoritmos de transformación wavelet discreta más empleados en el ámbito de la fusión de imágenes. Cada uno, con distintas propiedades matemáticas, conduce a distintas descomposiciones y por lo tanto, a distintas imágenes fusionadas. Desde el punto de vista teórico el algoritmo ‘á trous’ es menos adecuado que el de Mallat para extraer detalle espacial en el ámbito del análisis multirresolución [6][12].

A. Análisis multiresolución y las transformaciones Wavelet El análisis multirresolución, basado en la teoría Wavelet, permite descomponer datos bidimensionales en componentes de distinta frecuencia y estudiar cada componente a una resolución acorde con su tamaño. A diferente resolución, el detalle de una imagen (componentes de alta frecuencia) caracteriza distintas estructuras físicas de la escena [8]. A resoluciones groseras, este detalle corresponde a las estructuras o elementos de mayor tamaño mientras que a resoluciones finas este detalle corresponde a las estructuras de menor tamaño. Las transformaciones Wavelet permiten, en el ámbito del análisis multirresolución, extraer el detalle espacial que se pierde al pasar de una resolución espacial a otra menor. La aproximación discreta de la transformada Wavelet puede realizarse a partir de distintos algoritmos [6] [11][12].

B. Algoritmo de Mallat

Para comprender el concepto de análisis multirresolución basado en el algoritmo de Mallat (1989) es muy útil hacer referencia a una pirámide en la que la base la constituye la imagen original de C columnas y F filas. Cada nivel de la

(3)

pirámide, al que se accede únicamente desde el nivel inmediatamente inferior, es una aproximación de la imagen original. Conforme se asciende de nivel en la pirámide, las sucesivas aproximaciones a la imagen original tienen cada vez menor resolución espacial. Como el factor de degradación que se emplea para pasar de un nivel al siguiente es diádico, se cumple que en el nivel N , la imagen aproximación tiene

/ 2N

C columnas y F/ 2N filas. Cada una de estas imágenes aproximación se obtiene utilizando funciones de escala asociadas a la Wavelet Madre ( ) x .

La diferencia de información entre dos niveles sucesivos de la pirámide, por ejemplo, entre la imagen original A2j de resolución 2j y la imagen aproximación A2j1 de resolución

2

j1, la dan las transformaciones Wavelet. Los coeficientes Wavelet DH2j1 , DV2j1 y DD2j1 recogen el detalle horizontal, vertical y diagonal que se pierde en la imagen al pasar de una resolución

2

j a

2

j1. Si se invierte el proceso, la imagen original A2j podrá reconstruirse exactamente a partir de una imagen aproximación A2j1 y las imágenes de coeficientes wavelet DH2j1, DV2j1 y DD2j1.

La implementación práctica del algoritmo de Mallat se realiza empleando filtros unidimensionales asociados a las funciones wavelet y de escala. El filtro h, asociado a la función de escala, es un filtro de paso bajo que permite analizar los componentes de baja frecuencia mientras que el filtro g , asociado a la función Wavelet, es un filtro de paso alto que permite analizar los componentes de alta frecuencia, es decir, detalle de la imagen. El número de parámetros de cada filtro así como el valor de los mismos depende de la función Wavelet Madre empleada en el análisis.

El algoritmo piramidal de Mallat (TDWM) [9] es uno de los más ampliamente utilizados dentro de las estrategias de fusión de imágenes de satélite debido a la alta calidad espectral que caracteriza a las imágenes fusionadas mediante este método; sin embargo, la baja direccionalidad del procesado de filtrado (horizontal, vertical y diagonal) y su carácter decimado, presenta como principal problema la aparición del efecto diente de sierra que deteriora notablemente la calidad espacial de las imágenes fusionadas [2].

La fusión de imágenes se puede entender como la combinación sinérgica de información proporcionada por varios sensores o por el mismo sensor en diferentes escenarios (espaciales, espectrales y temporales). En particular, la fusión de imágenes Multiespectrales (MULTI) y Ortofoto (ORTO), objeto de este artículo, consiste en combinar de una forma coherente la información espectral de la imagen MULTI, con la espacial de la imagen ORTO, con objeto de que la calidad global (espacial- espectral) de la imagen fusionada sea muy alta [16] [23]. En la última década, las estrategias de fusión de imágenes más utilizadas, se han basado en técnicas de análisis multirresolución. Existen diferentes formas de calcular esta transformada. En particular, el algoritmo piramidal de Mallat

(TDWM) [9] es uno de los más ampliamente utilizados dentro de las estrategias de fusión de imágenes de satélite debido a la alta calidad espectral que caracteriza a las imágenes fusionadas mediante este método [2].

C. Concepto ARSIS

El “Concepto ARSIS” [16] (Accroissement de la Résolution Spatiale par Injection de Structures en francés) es el mejoramiento de la resolución espacial de la imagen MULTI, gracias a la concatenación de la información de las principales características espaciales de la primera componente principal CP1o o de la componente Io de ORTO con la primera componente principal CP1m o de la componente Im de la imagen MULTI, que define una estrategia para la fusión de imágenes. Entre las condiciones básicas de ARSIS debe existir una similitud entre estructuras fisiográficas observadas en las bandas espectrales, sin que esto suponga que hay un recubrimiento entre bandas ni que los coeficientes de correlación entre las imágenes sean elevados.

IV. TRANSFORMADA WAVELET PARA LA FUSIÓN DE IMÁGENES SATELITALES

Para la implementación de la transformada Wavelet, en este estudio [5][11][12] junto con el concepto ARSIS [16], la transformación RGB-IHS y Componentes Principales [1] y el software Matlab [10] [11][12].

Como resultado de esta investigación se proponen las siguientes dos metodologías para implementar la fusión de imágenes usando la transformada Wavelet para la descomposición de los componentes Im y Io:y los componentes CP1m y CP2o

A. Metodología e implementación RGB-IHS

 Registrar una composición a color RGB (verdadero color) de la imagen MULTI con la ORTO, usando el mismo tamaño de píxel de esta última (0.25) metros.

Transformar la imagen RGB en componentes IHS (Intensidad, matiz y saturación) de la imagen MULTI Im y de la ORTO Io.

 Aplicar el concepto de Transformada Wavelet al componente Im, iterativamente hasta el segundo nivel descomposición [8][18], obteniendo de esta manera los siguientes coeficientes de aproximación y detalle.

cA2im coeficientes de aproximación que contienen la información espectral de la componente Im, cV1im, cH1im, cD1im, cV2im, cH2im, cD2im, coeficientes de detalle donde se almacena la información espacial de

 Aplicar el concepto de la Transformada Wavelet a la Im.

componente Io hasta el segundo nivel descomposición obteniendo de esta manera los coeficientes de aproximación y detalle. cA2io coeficientes de aproximación que contiene la información espectral de la ORTO, cV2io, cH2io, cD2io, cV1io, cH1io y cD1io, coeficientes de detalle donde se almacena la información espacial de la componente Io.

 Generar una nueva matriz concatenando los coeficientes cA2im (que almacena la información espectral de la componente Im) y los coeficientes de detalle espacial de segundo nivel de la componente Io, cV2io, cH2io,

(4)

cD2io, cV1io, cH1io y cD1io. Aplicar la transformada inversa de la Transformada Wavelet a la matriz obtenida en el paso anterior para obtener la nueva componente intensidad (N-INT).

 Generar una nueva composición IHS (N-IHS), uniendo la N-INT (nuevo componente intensidad) junto con las componentes originales de matiz y saturación (obtenidas en el paso 1). Realizar la transformación IHS a RGB, usando la nueva composición N-IHS. De esta manera se obtiene la nueva imagen multiespectral (nueva rgb, NRGB-IW), que mantiene la resolución espectral ganando así la resolución espacial.

B. Metodología e implementación ACP

 Registrar una composición a color RGB (verdadero color) de la imagen MULTI con la imagen ORTO, usando el mismo tamaño de píxel de la última.

 Transformar los componentes RGB de la imagen MULTI en componentes Principales CP1m, CP2m y CP3m.

 Aplicar el concepto de la Transformación de Wavelet a la componente principal 1, CP1m de la imagen MULTI, iterativamente hasta el segundo nivel descomposición, obteniendo de esta manera los siguientes coeficientes de aproximación y detalle: A1m coeficientes de aproximación que contiene la información espectral de la componente CP1m, V1m, H1m y D1m coeficientes de detalle donde se almacena la información espacial de Cp1m. A1m se descompone por segunda vez de esta manera se obtiene coeficientes de aproximación A2m que contiene la información espectral de la componente CP1 y V2m, H2m y D2m coeficientes de detalle donde se almacena la información espacial de la componente Cp1.

 Aplicar, de manera paralela, el concepto de la Transformación Wavelet a la componente principal 1, ORTO CP1o de la Ortofoto hasta el segundo nivel descomposición obteniendo de esta manera los coeficientes de aproximación A2o (contiene la riqueza espectral de la CP1o), y los coeficientes de detalle V2o, H2o, D2o, V1po, H1po y D1o, que contiene la riqueza espacial de la CP1o.

 Generar un nuevo componente principal 1, aplicando el concepto ARSIS a través de la concatenación de los coeficientes de aproximación de la componente principal 1 de la imagen Ikonos A2m (que almacena la información de la imagen del componente principal 1 de CP1m) y los coeficientes de detalle de segundo nivel de la CP1o, V2o, H2o, D2o, V1o, H1o y D1o (que almacenan la información de espacial de la componente principal 1 CP1o).

 A esta matriz resultante de concatenar estos coeficientes se le aplica la transformada Wavelet inversa para obtener un nuevo componente principal 1 (N-CP1).

 Generar la nueva imagen (N-CP) con la N-CP1 y las componentes originales (CP2m y CP3m) de la imagen MULTI.

 Realizar la transformación inversa componentes principales a N-CP. Con el proceso anterior se han fusionado las imágenes MULTI y ORTO obteniendo la

nueva imagen NRGB-CPW que mantiene la resolución espectral de la imagen MULTI (nueva rgb, NRGB-CPW) ganando en resolución espacial de la ORTO.

C. Resultados

De manera similar se evalúan las dos imágenes fusionadas tanto espacial como espectralmente con respecto a las imágenes originales MULTI y ORTO con el segundo nivel de descomposición. En la figura 1, se muestra las dos imágenes originales y las dos imágenes fusionadas por los dos métodos propuestos, donde el primer método permite generar una imagen con una buena ganancia espacial y con menor perdida espectral

(a)

(b)

(c)

(d)

Figura 1. (a) imagen MULTI, (b) Imagen ORTO, (c) Imagen nuevargb I-W, (d) Imagen nuevargb CP-W

Para la evaluación y análisis de los resultados de las imágenes fusionadas se analizaron los siguientes índices: índice de calidad Qu , coeficiente de correlación, Índice RASE, y ERGAS que se describen a continuación.

1) Índice de calidad Qu.

Este índice [22] identifica cualquier distorsión como una combinación de tres factores: pérdida de correlación, distorsión

(5)

de luminancia y contraste de distorsión. El valor ideal es el cercano a 1, y se obtiene con la ecuación 2 (ver resultados en las tablas II y III).

   

2 2 2 2

2x y 2

xy x y

Qu

x y

x y x y

  

   

  

  

2) Coeficiente de correlación.

El coeficiente de correlación (CC) [6][11][14] está definido por la ecuación 3.

( / ) 1

1 1

x y

x y

npix

j J

corr x y j

npix npix

j j

j j

x y

x y

 

 



  

 

 

 

  

  

  

   

   

   

(3)

Para obtener un índice de conservación de la resolución espectral (ver tabla I) se calcula la correlación entre las diferentes bandas de las imágenes fusionadas y las bandas de la imagen MULTI, mientras que para analizar la conservación de la resolución espacial se obtienen las correlaciones de las diferentes bandas de las imágenes fusionadas con la componente I y CP1 de la imagen MULTI (ver tabla I) En los dos casos los valores varían entre -1 y 1.

3) Índice ERGAS

La evaluación de la calidad de las imágenes fusionadas se ha llevado a cabo mediante los índices ERGASEspectral y espacial, donde el valor ideal es el más cercano a cero (ver tablas II y III). La definición de ERGASEspectral (Erreur Relative Globale Adimensionallede Synthèse en frances) [19-21] es dada por la ecuación:

2

( ( ))2

100 1

1 ( )

Bandas

N i

Espectral

Espectral i

Bandas

RMSE Banda ERGAS h

i

l N MULTI

 

 

 

 

 



Donde h y l representan la resolución espacial de las imágenes PAN y MULTI; N es el número de bandas de la imagen fusionada; MULTI es el valor de la radiancia de la i banda i ésima de imagen y RMSE será definida como sigue:

( ) ( ( ) ( ))2

1

1 NP

i i i

Banda j FUS j

Espectral

RMSE MULTI

NP i

 

 

Siendo NP el número de píxeles de la imagen FUS x yi( , ) De manera homologa, Lillo y su equipo [4] proponen otro índice, denominado ERGASEspacial que está inspirado en el

Espectral

ERGAS y busca evaluar la calidad espacial de las imágenes fusionadas, y está definido como sigue:

2

( ( ))2

100 1

1 ( )

Bandas

N i

Espacial

Espacial i

Bandas

RMSE Banda ERGAS h

l N i PAN

 

 

 

 

 



Finalmente RMSEEspacial ha sido definido como:

( ) ( ( ) ( ))2

1

1 NP

i i i

Banda PAN j FUS j

Espacial

RMSE NP i 

4) El índice RASE

El índice RASE (Relative average spectral error en inglés) [20] se expresa como un porcentaje y entre más cercano a cero menor será el error (ver resultados en las tablas II y III):

1 2

100 ( ( ))

1

1 n

RASE M NiRMSE Bi 

Donde hes la resolución de alta resolución especial (imagen PAN) y les la baja resolución espectral (imagen MULTI). En está investigación se analizó la conservación de la resolución espacial cambiando PAN por las componente Io y CP1o respectivamente, generados de imagen ORTO.

TABLA I. CORRELACIÓN ESPACIAL Y ESPECTRAL PARA LA EVALUACIÓN DE LA CALIDAD DE LA IMAGEN IKONOS FUSIONDA.

FUSIÓN DE IMÁGENES

POR:

COEFICIENTE DE CORRELACIÓN ESPECTRAL

COEFICIENTE DE CORRELACIÓN ESPACIAL BANDA

R

BANDA G

BANDA B

BANDA R

BANDA G

BANDA B

NRGB-IW 0,87 0,85 0,89 0,86 0,85 0,86

NRGB-

CPW 0,92 0,92 0,93 0,96 0,96 0,95

TABLA II. INDICES RASE,ERGAS Y Q PARA LA EVALUACIÓN DE LA CALIDAD ESPECTRAL DE LA IMAGEN IKONOS FUSIONDA.

FUSIÓN DE

IMÁGENES POR: RASE ERGAS

ESPECTRAL Q

NRGB-IW 43,4% 2.71 0,80

NRGB-CPW 50,3% 3,14 0,82

TABLA III. INDICES RASE,ERGAS Y Q PARA LA EVALUACIÓN DE LA CALIDAD ESPACIAL DE LA IMAGEN IKONOS FUSIONDA

FUSIÓN DE

IMÁGENES POR: RASE ERGAS

ESPACIAL Q

NRGB-IW 41,1% 2,56 0,81

NRGB-CPW 52,5% 3,28 0,70

V. CONCLUSIONES YRECOMENDACIÓNES

En lo que concierne el CC (tabla I) los valores más altos de correlación espacial y espectral se obtienen con NRGB-CPW, sin embargo la diferencia está 0,077 aproximadamente entre los dos métodos. La diferencia espectral es en el orden 0,058 y espacial del orden de 0,096. Lo cual indica que los dos métodos evaluados por este índice son muy cercanos.

En cuanto al índice ERGAS, RASE y Qu espectral en la tabla II los mejores resultados se obtuvieron con el primer

(6)

método, con la nueva imagen NRGB-IW con los índices ERGAS 2,71 y RASE del 43,4% y con el índice Qu el mejor se obtuvo con el segundo método de 0,823 con una diferencia del 0,023.

En cuanto a la evaluación de la calidad espacial (tabla III), los mejores resultados son obtenidos con el primer método con la imagen NRGB-IW, teniendo el valor de RASE (41,1%), ERGAS espacial (2,56) y Qu (0,819). La diferencia entre los métodos con el índice Qu es del orden de 0,116 siendo una diferencia muy baja y con respecto a ERGAS una diferencia de 0,72, lo cual refleja que la ganancia espacial es significativa, lo cual demuestra que el primer método es mejor que el segundo.

Teniendo en cuenta la evaluación cuantitativa los mejores valores se obtienen, de manera general, con el NRGB-IW.

Adicional y completando el análisis cuantitativo, la revisión visual de las imágenes fusionadas (figura 1) evidencian la ganancia espacial de la imagen fusionada con NRGB-IW (c), las cuales además mantienen la información espectral; ese mismo efecto no se evidencia con NRGB-CPW (d). Lo anterior permite concluir que de manera cualitativa y cuantitativa los mejores resultados de la fusión se obtienen con el primer método generando la nueva imagen NRGB-IW.

Los estudios anteriores habían demostrado que los métodos de fusión de imágenes basados en la transformada de Wavelet son más adecuados para la fusión de imágenes que los métodos convencionales [3-5][8][17][21][23]. El método propuesto consiste en aplicar la transformación RGB a IHS; de la componente Intensidad se extrae los coeficientes cA2im, estos coeficientes contienen la riqueza espectral extraída de la imagen MULTI de baja resolución espacial, combinando estos coeficientes de aproximación con los coeficientes de detalle, H2io, V2io, D2io, H1p, V1io y D1io de ORTO que contiene la riqueza espacial, se genera la nueva intensidad N-INT, posteriormente se transforma N-IHS a N-RGB de esta manera se genera la imagen fusionada (nueva rgb NRGB-IW). La aplicación de la transformada puede considerarse como una mejora en la transformación RGB-IHS, en el sentido que el componente I obtenido a partir de la imagen MULTI no es sustituido totalmente por la ORTO, pero la alta resolución de la ORTO se incluye en el componente I mediante la sustitución de los coeficientes Wavelet al aplicar el concepto ARSIS. La Transformada Wavelet es capaz de mejorar la calidad espacial de la imagen multiespectral preservando al mismo tiempo su contenido espectral en mayor medida.

AGRADECIMIENTOS

Los datos utilizados en esta investigación fueron suministrados por el Instituto Geográfico Agustín Codazzi (IGAC) Bogotá-Colombia.

REFERENCIAS BIBLIOGRÁFICA

[1] L. Alparone, L. Wald, J. Chanussoat, C. Thomas, P. Gamba, L. Bruce,

“Comparison of Pansharpening Algorithms: Outcome of the 2006 GRS- S Data Fusion Contest”, IEEE Transactions on Geoscience and Remote Sensing.Vol. 45 No. 10. pp 3012-3021. 2007.

[2] E. J. Candès, and D. L. Donoho, “Curvelets, multiresolution representation, and scaling laws, Wavelet applications” in Signal and image processing VIII, A. Aldroubi, A. F. Laine, M. A. Unser eds., Proc.

SPIE 4119. 2000.

[3] M. Gónzalez-Audicana, J. L. Saleta, R. García Catalán y R. García;

“Fusion of Multiespectral and Panchromatic Images Using Improved IHS and PCA Mergers based on Wavelet Decomposition”, IEEE Transactions on Geosciencesn and Remote Sensing: 42 (6), 1291-1297. 2004.

[4] M. Lillo-Saavedra, C. Gonzalo, A. Arquero y E. Martinez. “Fusion of multispectral and panchromatic satellite sensor imagery based on tailored filtering in the Fourier domain,” International Journal of Remote Sensing, vol. 26, pp. 1263-1268, 2005.

[5] Y. Nievergelt., Wavelets made easy, Ed Birkhäuser, Boston, pp 297.

1999.

[6] J. Nuñez., X. Otazu., O. Fors, A. Prades, V. Pala., R. Arbiol,

“Multiresolution-Based Image fusion whit Additive Wavelet Descomposition,” IEEE Transactions on Geoscience and Remote Sensing, vol 37, Nº. 3, pp 1204 -1211. 1999.

[7] S. Mallat., “Wavelets for a vision,” Proceedings of the IEEE, vol 84, Nº (4 APRIL 1996).

[8] S. Mallat. “A Theory for MultiresolutionSignal Decomposition: The Wavelet Representation”.IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. II, No. 7. July 1989

[9] S. Mallat. A Wavelet Tour of Signal Processing, 2nd ed., Academic Press, Elsevier. ISBN 13:978-0-12466606-1. 1999.

[10] M. Misiti, Y Misiti., Oppenheim G., Poggi J. M. The Wavelet Toolbox.

For Use whit MATLAB®. 1996.

[11] J. Medina, I. Lizarazo. Fusión de imágenes satelitales usando la trasformada de wavelet. Bogotá: Universidad Distrital Francisco José de Caldas. pp. 169. 2004.

[12] J. Medina, C. Pinilla, L. Joyanes, “Two-Dimensional Fast Haar Wavelet Transform for Satellite-Image Fusion”, Journal of Applied Remote Sensing. 7(1), 073698 (September 24, 2013); doi:

10.1117/1.JRS.7.0736982013

[13] R. J. Medina, L. Joyanes, C. Pinilla. “Algoritmos Matemático para la fusión de imágenes satelitales,” V Simposio Internacional de Sistemas de Información e Ingeniería de Software en la Sociedad del Conocimiento (Octubre de 2010).

[14] S. R. Murray. Estadística, Segunda edición Mc Graw Hill. 1999.

[15] K. Pearson. "On Lines and Planes of Closest Fit to Systems of Points in Space". Philosophical Magazine 2 (11): 559–572.

doi:10.1080/14786440109462720. 1901.

[16] T. Ranchin & L. Wald, “Fusion of high spatial and spectral resolution images: The ARSIS concept and its implementation,” Photogrammetric Engineering & Remote Sensing, vol. 66. No. 1, pp. 49-61 2000.

[17] R. Riyahi, C. Kleinn, H. Fuchs. “Comparison of different image fusion techniques for individual tree crown identification using quickbird image”. International Society for Photogrammetry and Remote Sensing, High- Resolution Earth Imaging for Geospatial Information. Vol.

XXXVIII-1-4-7/W5., June 2-5 ISPRS Hannover Workshop, Germany.

2009.

[18] C. Sindney Burrus, Introduction to Wavelets and Wavelet Transforms.

Prentice Hall. 1998.

[19] L. Wald. “Somes terms of reference in data fusion,” IEEE Trans Geoscience and. Remote Sensing, Vol. 37, No. 3, pp. 1190-1193. 1999.

[20] L. Wald. “Quality of high resolution synthesized images: is there a simple criterion?,” Proceedings of the third conference “Fusion of Earth data:

merging point measurements, raster maps and remotely sensed image”, pp. 26-28, 2000, T Ranchin and L. Wald Editors, Nice: SEE/URISCA. pp.

99-105, 2000.

[21] L. Wald. Data Fusion, Definition and Architectures: “Fusion of Image of Different Spatial Resolution,” Paris: Le Presses de l’École des Mines, 2002.

[22] W. Zhou and A. C. Bovink. “A Universal Image Quality Index”, IEEE Signal Processing Letters, 2002, vol. XX, No Y. 2002.

[23] J. Zhou, D. Civco. and J. Silander. “A Wavelet Method to Merge Landsat TM and SPOT Panchromatic Data”. International Journal of Remote Sensing: 19, 743- 757. 1998

Figure

Updating...

References

Related subjects :