Implementación y evaluación de métodos convencionales y la transformada wavelet, para la fusión de imágenes satelitales RapidEye Y Sentinel 2a, caso de estudio: departamento de Cundinamarca

77  Download (0)

Full text

(1)

"IMPLEMENTACIÓN Y EVALUACIÓN, DE MÉTODOS CONVENCIONALES Y LA TRANSFORMADA WAVELET, PARA LA FUSIÓN DE IMÁGENES SATELITALES RAPIDEYE

Y SENTINEL 2A: CASO DE ESTUDIO DEPARTAMENTO DE CUNDINAMARCA”

AUTORES

DAVID EDUARDO GONZÁLEZ HERREÑO LEONARDO BUENO MORENO

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE INGENIERÍA

INGENIERÍA CATASTRAL Y GEODESIA BOGOTÁ D.C, COLOMBIA

(2)

2 | P á g i n a

"IMPLEMENTACIÓN Y EVALUACIÓN, DE MÉTODOS CONVENCIONALES Y LA TRANSFORMADA WAVELET PARA LA FUSIÓN DE IMÁGENES SATELITALES RAPIDEYE

Y SENTINEL 2A: CASO DE ESTUDIO DEPARTAMENTO DE CUNDINAMARCA”

TRABAJO DE GRADO EN MODALIDAD PASANTÍA PARA OPTAR AL TITULO DE INGENIERO CATASTRAL Y GEODESTA

AUTORES

DAVID EDUARDO GONZÁLEZ HERREÑO LEONARDO BUENO MORENO

DIRECTOR INTERNO

PhD. RUBÉN JAVIER MEDINA DAZA

DIRECTOR EXTERNO MSc. CARLOS ANDRÉS FRANCO

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS FACULTAD DE INGENIERÍA

INGENIERÍA CATASTRAL Y GEODESIA BOGOTÁ D.C, COLOMBIA

(3)

3 | P á g i n a

TABLA DE CONTENIDO

1. INTRODUCCIÓN ... 9

2. PROBLEMA ... 10

3. JUSTIFICACIÓN ... 11

4. OBJETIVOS ... 12

4.1. Objetivo general ... 12

4.2. Objetivos específicos ... 12

5. MARCO TEÓRICO ... 13

5.1. Imagen satelital ... 13

5.1.1. Tipos de Imágenes Satelitales ... 13

5.1.2. Resolución Espacial ... 14

5.1.3. Resolución espectral ... 14

5.1.4. Resolución radiométrica ... 14

5.1.5. Resolución temporal ... 15

5.2. Sensores Remotos ... 15

5.2.1. SENTINEL 2A: Sistema de observación terrestre. Especificaciones Técnicas. ... 15

5.2.2. Constelación RapidEye ... 17

5.3. Fusión de imágenes ... 18

5.3.1. Antecedentes ... 19

5.3.2. Métodos convencionales de fusión de imágenes satelitales ... 20

5.3.2.1. Transformación en Componentes principales ... 20

5.3.2.2. Método Multiplicativo ... 21

5.3.2.3. Transformación Brovey ... 21

5.3.2.4. Transformación RGB a componentes Intensidad, Matiz y saturación IHS. ... 21

5.3.2.5. Transformación HPF ... 22

5.3.3. Transformación Wavelet ... 23

5.3.3.1. Algoritmo de la transformación Wavelet Piramidal o Mallat ... 24

5.3.3.2. Transformada Wavelet Haar ... 24

5.3.3.3. Transformada Wavelet Daubechies ... 25

5.3.3.4. Transformada Wavelet Coiflet ... 26

5.3.3.5. Transformada Wavelet Symlet ... 26

5.4. Falsa Pancromática ... 27

5.5. Índices estadísticos de evaluación de calidad ... 27

(4)

4 | P á g i n a

5.5.2. Índice ERGAS espacial ... 29

5.5.3. Coeficiente de correlación ... 29

5.5.4. Índice BIAS ... 29

5.5.5. Índice RMSE, Error medio cuadrático ... 30

5.5.6. Índice RASE , Error relativo promedio... 30

5.5.7. Índice Calidad universal – Q ... 30

5.5.8. Índice Entropía ... 31

5.5.9. Índice Divergencia o diferencia entre varianzas . ... 31

5.6. Técnicas de Interpolación ... 31

5.6.1. Vecino más próximo ... 31

5.6.2. Interpolación Bilineal ... 31

5.6.3. Convolución cubica... 32

6. METODOLOGÍA ... 33

7. FUSIÓN DE IMÁGENES SATELITALES, CASO DE ESTUDIO: DEPARTAMENTO CUNDINAMARCA ... 35

7.1. Localización y descripción de la zona de estudio ... 35

7.1.1. Fisiografía ... 35

7.1.2. Localización ... 35

7.1.3. Posición Astronómica ... 35

7.1.4. Límites Geográficos ... 36

7.2. Imágenes satelitales Descripción imágenes ... 36

7.3. Mapa Localización departamento de Cundinamarca ... 37

7.4. Mosaico de imágenes Sentinel 2A ... 38

7.5. Mosaico de Imágenes RapidEye ... 39

8. RESULTADOS ... 40

8.1. Fusión de Imágenes, utilizando la imagen de alta resolución PAN generada a partir del promedio aritmético entre bandas ... 40

8.1.1. Imagen fusionada Análisis de componentes principales- ACP ... 40

8.1.2. Imagen fusionada mediante transformación RGB-IHS ... 43

8.1.3. Imagen fusionada mediante High Pass Filter- HPF ... 45

8.1.4. Imagen fusionada mediante método Multiplicativo ... 47

8.1.5. Imagen fusionada mediante transformación Brovey ... 49

8.1.6. Imágenes fusionadas mediante Transformada Wavelet ... 51

8.1.6.1. Imágenes fusionadas mediante trasnformacion Wavelet Haar ... 51

8.1.6.2. Imágenes fusionadas mediante transformada Wavelet Daubechies ... 54

(5)

5 | P á g i n a

8.1.6.4. Imágenes fusionadas por transformada Wavelet Symlet ... 58

8.2. Fusión de imágenes, utilizando la imagen de alta resolución PAN generada a partir de análisis de componentes principales ACP ... 60

8.2.1. Imagen fusionada usando el método de Análisis de componentes principales- ACP ... 60

8.2.2. Imagen fusionada mediante transformación RGB a Intensidad Matiz y Saturación. RGB a IHS 61 8.2.3. Imagen fusionada mediante método High Pass Filter, HPF ... 62

8.2.4. Imagen fusionada mediante Transformada Brovey ... 63

9. ÍNDICES ESTADÍSTICOS DE EVALUACIÓN DE CALIDAD ... 63

9.1. Evaluación de imágenes fusionada obtenidas mediante métodos Convencionales ... 64

9.2. Evaluación de calidad de las Imágenes obtenidas mediante transformación wavelet ... 65

10. CONCLUSIONES Y RECOMENDACIONES ... 68

11. ANEXOS ... 69

(6)

6 | P á g i n a

ÍNDICE DE TABLAS

TABLA 1GENERALIDADES SISTEMA DE PERCEPCIÓN REMOTA SENTINEL 2A ... 16

TABLA 2.CARACTERÍSTICAS DEL SENSOR SENTINEL 2A,13 CANALES MULTIESPECTRALES. ... 16

TABLA 3.ESPECIFICACIONES TÉCNICAS DEL PROGRAMA RAPIDEYE ... 18

TABLA 4LIMITES DEPARTAMENTALES CUNDINAMARCA.FUENTE ... 36

TABLA 5ÍNDICES ESTADÍSTICOS DE EVALUACIÓN DE CALIDAD ESPECTRAL ... 64

TABLA 6ÍNDICES ESTADÍSTICOS DE EVALUACIÓN DE CALIDAD ESPECTRAL ... 64

TABLA 7ÍNDICES DE EVALUACIÓN DE CALIDAD ESPACIAL IMÁGENES ... 65

TABLA 8 ÍNDICES DE EVALUACIÓN DE CALIDAD ESPACIAL IMÁGENES ... 65

TABLA 9ÍNDICES ESTADÍSTICOS DE EVALUACIÓN DE CALIDAD ,TRANSFORMADA WAVELET ... 66

TABLA 10ÍNDICES DE EVALUACIÓN DE CALIDAD ESPECTRAL MEDIANTE TRANSFORMADA WAVELET ... 67

TABLA 11ÍNDICE BIAS IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 69

TABLA 12 ÍNDICE DIV IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 69

TABLA 13 COEFICIENTE DE CORRELACIÓN IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 70

TABLA 14 ENTROPÍA IIMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 70

TABLA 15 ÍNDICE ERGAS IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 70

TABLA 16 ÍNDICE CALIDAD UNIVERSAL IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 71

TABLA 17 ÍNDICE RASE IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 71

TABLA 18RMSE IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET DB2 ... 71

TABLA 19ÍNDICE BIAS IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 72

TABLA 20ÍNDICE DIV IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 72

TABLA 21 COEFICIENTE DE CORRELACIÓN IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 73

TABLA 22 ENTROPÍA IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 73

TABLA 23 ÍNDICE ERGAS IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 73

TABLA 24 ÍNDICE QU IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 74

TABLA 25 ÍNDICE RASE IMAGEN FUSIONADA MEDIANTE TRANSFORMADA WAVELET HAAR ... 74

(7)

7 | P á g i n a

ÍNDICE DE ILUSTRACIONES

ILUSTRACIÓN 1ESQUEMA CANALES ESPECTRALES PARA EL SISTEMA SENTINEL. ... 17

ILUSTRACIÓN 2ESQUEMA DEL ALGORITMO MALLAT, MOSTRANDO ELEMENTOS CONFIGURATIVOS. ... 21

ILUSTRACIÓN 3.FAMILIA WAVELET COINFLET CON DIFERENTE ORDEN/FILTRO. ... 24

ILUSTRACIÓN 4 FAMILIA WAVELET SYMLET CON DIFERENTE ORDEN. ... 28

ILUSTRACIÓN 5PROTOCOLO DE WALD ... 28

ILUSTRACIÓN 6 METODOLOGÍA DEL PROYECTO. ... 34

ILUSTRACIÓN 7MAPA LOCALIZACIÓN DEPARTAMENTO DE CUNDINAMARCA ... 38

ILUSTRACIÓN 8.MOSAICO DE IMÁGENES SENTINEL 2A, DEPARTAMENTO DE CUNDINAMARCA. ... 38

ILUSTRACIÓN 9MOSAICO DE IMÁGENES RAPIDEYE PAN, DEPARTAMENTO DE CUNDINAMARCA... 39

ILUSTRACIÓN 10COMPONENTES PRINCIPALES DE LA FUSION. ... 40

ILUSTRACIÓN 11. FUSIÓN POR EL MÉTODO ACP ... 42

ILUSTRACIÓN 12. CUERPO HÍDRICO MAGDALENA. COMPONENTES PRINCIPALES ACP(321). ... .43

ILUSTRACIÓN 13.VISUALIZACIÓN FUSIÓN POR TRANSFORMACIÓN INTENSIDAD,MATIZ Y SATURACIÓN. ... …44

ILUSTRACIÓN 14.ACERCAMIENTO AL CUERPO HÍDRICO MAGDALENA,RGB A IHS.. ... 45

ILUSTRACIÓN 15.VISUALIZACIÓN IMÁGENES PRODUCTO FUSIÓN POR EL MÉTODO HIGH PASS FILTER HPF ... 46

ILUSTRACIÓN 16.CUERPO HÍDRICO MAGDALENA, POR EL MÉTODO HIGH PASS FILTER.HPF.. ... 47

ILUSTRACIÓN 17. VISUALIZACIÓN PRODUCTO FUSIÓN POR EL MÉTODO MULTIPLICATIVO.. ... .48

ILUSTRACIÓN 18.CUERPO HÍDRICO MAGDALENA, PRODUCTO FUSIÓN POR EL MÉTODO MULTIPLICATIVO . ... 49

ILUSTRACIÓN 19.VISUALIZACIÓN PRODUCTO FUSIÓN POR LA TRANSFORMACIÓN BROVEY ... 50

ILUSTRACIÓN 20.CUERPO HÍDRICO MAGDALENA,PRODUCTO FUSIÓN POR LA TRANSFORMACIÓN BROVEY .. .. 51

ILUSTRACIÓN 21.WAVELET HAAR, FALSA PANCROMÁTICA PROMEDIO ... 54

ILUSTRACIÓN 22.WAVELET DAUBECHIES, FALSA PANCROMÁTICA PROMEDIO ... 62

ILUSTRACIÓN 23 WAVELET COIFLET, FALSA PANCROMÁTICA PROMEDIO... 58

ILUSTRACIÓN 24 WAVELET,SYMLET , FALSA PANCROMÁTICA PROMEDIO ... 59

ILUSTRACIÓN 25.COMPONENTES PRINCIPALES 1 A 5, ... 62

ILUSTRACIÓN 26 FUSIÓN POR TRANSFORMACIÓN RGB A IHS……….……….…62

(8)

8 | P á g i n a

ÍNDICE DE ECUACIONES

ECUACIÓN 1TRANSFORMADA INVERSA DE ANÁLISIS DE COMPONENTES PRINCIPALES . ... 20

ECUACIÓN 2.MÉTODO BROVEY. ... 21

ECUACIÓN 3RGB A IHS ... 21

ECUACIÓN 4RGB A IHS MULTIPLICADO POR PACROMATICO ... 22

ECUACIÓN 5COMPONENETE MATIZ ... 22

ECUACIÓN 6TRANSFORMACIÓN HPF,CALCULO DE PARÁMETRO (REMUESTREO). ... 22

ECUACIÓN 7.TRANSFORMACIÓN HPF,CALCULO DEL FACTOR DE PONDERACIÓN. ... 23

ECUACIÓN 8 FUNCIÓN DE ESCALA WAVELET HAAR ... 24

ECUACIÓN 9TRANSFORMADA WAVELET HAAR ... 26

ECUACIÓN 16FALSA PANCROMÁTICA. ... 27

ECUACIÓN 17ÍNDICE ERGASESPECTRAL. ... 28

ECUACIÓN 18:ÍNDICE ERGASESPACIAL. ... 29

ECUACIÓN 19COEFICIENTE DE CORRELACIÓN ... 29

ECUACIÓN 20ÍNDICE DE BIAS: ... 29

ECUACIÓN 21 ÍNDICE RMS... 30

ECUACIÓN 22RELACIÓN BIAS-RMSE ... 30

ECUACIÓN 23ÍNDICE RASE ... 30

ECUACIÓN 24ÍNDICE CALIDAD UNIVERSAL-Q ... 30

ECUACIÓN 25ÍNDICE ENTROPÍA... 31

ECUACIÓN 26ÍNDICE DIVERGENCIA. ... 31

(9)

9 | P á g i n a

1.

INTRODUCCIÓN

Actualmente las imágenes satelitales provenientes de sistemas de percepción remota son el insumo para análisis posteriores en proyectos de distinta índole, especialmente en Sistemas de Información Geográfica (SIG); sin embargo, las imágenes deben ser procesadas previamente en algunos casos para su adecuación a una aplicación en específico, comúnmente el procesamiento debe permitir el aprovechamiento de la riqueza espectral así mismo de la resolución espacial de las imágenes satelitales. Los sensores tienen restricciones para la captura de imágenes con alta resolución espacial y espectral en la misma imagen, teniendo en cuenta la energía de la radiación entrante al sensor además el volumen de la información colectada por el sensor, considerando estas limitaciones, la solución más efectiva para proporcionar imágenes con alta resolución espacial y espectral son técnicas efectivas de fusión de imágenes (Zhang, Understanding Image Fusion, 2004). Entonces la fusión de imágenes es una técnica usada para integrar el detalle geométrico de una imagen pancromática (PAN) de alta resolución y el color de imágenes de baja resolución multiespectral (MS) (Zhang, 2004)

Con este trabajo se pretende fusionar imágenes de sensores Sentinel e imágenes Rapideye del departamento de Cundinamarca, en específico una sub-escena que abarca el municipio de Girardot. Para integrar en una sola imagen satelital la resolución multiespectral del programa Sentinel 2A y la resolución espacial (5m) del sistema Rapideye, para así, obtener una imagen producto de esta fusión que permita integrar las características del detalle geométrico y color, para que pueda ser el insumo para los distintos análisis geográficos pertinentes.

Los métodos de fusión de imágenes se pueden clasificar en convencionales, por mencionar algunos: transformación Brovey, transformación IHS a RGB, Análisis de Componentes Principales, método Multiplicativo y filtro de paso alto (HPF) y en métodos alternativos de fusión como la Transformada Wavelet. Sin embargo, estudios anteriores han demostrado que los métodos de fusión convencionales degradan de manera relevante la información espectral contenida en las imágenes fusionadas (Zhang, 2004) principalmente generando distorsión del color.

Teniendo en cuenta que el enfoque de la Transformada Wavelet preserva las características espectrales de la imagen (MS) original mejor que los métodos estándar basados en transformaciones RGB a IHS (Nuñez, y otros, 1999) , inicialmente se implementó como alternativa la Transformada Wavelet, con las familias: Haar, Daubechies, Coiflet y Symlet, además paralelamente los métodos convencionales de fusión, para obtener imágenes fusionadas, una por cada método, para el departamento de Cundinamarca, y la sub- escena de Girardot.

(10)

10 | P á g i n a

(Choi, Et al, 2005)

2.

PROBLEMA

Existen varias situaciones que requieren simultáneamente alta resolución espacial y espectral en una sola imagen, esto es particularmente importante en percepción remota (Nuñez, y otros, 1999) por ello la fusión de imágenes satelitales surge de la necesidad de contar con imágenes con una detallada resolución espacial y calidad espectral en un solo producto. Este sería el caso de generar una imagen fusionada, a partir de una pancromática (PAN) de alta resolución espacial con una multiespectral (MS) con pixel más grosero: obtendríamos la calidad espacial de la primera con el contraste cromático de la segunda (Chuvieco, 1995).

Las técnicas de fusión de imágenes no son nuevas, desde mediados de la década de los 80 con el lanzamiento del sistema SPOT 1 (1986) que tenía alta resolución espacial (10m) para imágenes pancromáticas (PAN) y baja resolución espacial (20m) en imágenes multiespectrales (MS) comenzó la investigación para desarrollar técnicas de fusión efectivas (Zhang, 2004).

Algunos de los métodos de fusión más populares como: Análisis de Componentes Principales (ACP), transformación RGB a IHS, High Pass Filter (HPF) y Transformación Brovey, pueden degradar de manera importante la información espectral de las imágenes. Es importante tener en cuenta las limitaciones de cada método de fusión, la más relevante es la distorsión del color (Zhang, 2004), por otra parte, estudios realizados muestran que las Wavelet tienen resultados de alta calidad en la resolución espectral.

(11)

11 | P á g i n a

3.

JUSTIFICACIÓN

La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una sola imagen datos de alta resolución espectral y espacial, a partir de imágenes multiespectrales y pancromáticas de diferente resolución espacial y/o diferentes sensores remotos (Medina & Upegui, 2015)

La limitación más significativa de los métodos de fusión de imágenes existentes es la distorsión del color (Zhang, 2004) por ello es necesario implementar los métodos de fusión convencionales y la Transformada Wavelet al caso de estudio del departamento de Cundinamarca, para encontrar cual método es óptimo para preparar su interpretación y análisis posteriores, utilizando como insumo principal las imágenes satelitales procesadas. Por lo cual es necesario diseñar una metodología que permita ganancia en términos de resolución espacial y conservación de información espectral de las imágenes Rapideye y Sentinel 2A, mediante técnicas de fusión de imágenes.

La fusión de datos en un marco formal permite la combinación y utilización de datos precedentes de diferentes satélites de observación, por lo cual, resulta pertinente el uso de la imagen Sentinel (Multiespectral) proporcionada por el Servicio Geológico de los Estados Unidos y la imagen Rapideye (Pancromática) del banco de imágenes satelitales del IGAC, las cuales fueron compradas con fines investigativos y productivos puesto que abarcan el territorio colombiano y sus límites político administrativos, cuya fusión creara finalmente un producto con mayor resolución espacial y riqueza espectral. Esta imagen será el producto final, sin embargo, es necesario realizar el proceso de validación o verificación correlacional, ya que, con esto se compara cada una de las bandas originales de la imagen multiespectral contrastada con la fusión obtenida, verificando que los niveles digitales obtenidos sean acordes y óptimos. “La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una sola imagen datos de alta resolución espectral y espacial a partir de imágenes multiespectrales y pancromáticas de diferente resolución espacial y diferentes sensores remotos. La fusión permite obtener información detallada sobre el medio ambiente urbano y rural, útil para una aplicación específica en estudio” (Wald, 1999).

Para evaluar la calidad de las imágenes obtenidas de cada método de fusión, en términos de conservación de riqueza espectral, se aplican los índices estadísticos de evaluación de calidad, a todas las imágenes obtenidas por los métodos de fusión, usando los algoritmos en MATLAB R2017 algoritmos desarrollados por (Vaiopoulus, 2011) , entonces se obtienen ocho índices (BIAS, ERGAS, Coeficiente de Correlación, Diferencia de Varianzas, Calidad Universal, Entropía, RMSE y RASE) con base en estos se podrá concluir que método es mejor en conservación de información espectral. Direccionando el estudio al departamento de Cundinamarca, los mosaicos de imágenes abarcan sus 116 municipios y finalmente se elige una sub-escena del municipio de Girardot, el cual presenta diversidad en coberturas y un porcentaje mínimo de nubosidad, por lo cual es pertinente, para analizar visualmente y estadísticamente los métodos en dichas zonas con distintas coberturas.

(12)

12 | P á g i n a

4.

OBJETIVOS

4.1.

Objetivo general

Comparar los resultados obtenidos al implementar los métodos convencionales de fusión de imágenes y la Transformada Wavelet como método alternativo, en el caso de estudio del departamento de Cundinamarca.

4.2.

Objetivos específicos

➢ Generar imágenes fusionadas utilizando los métodos tradicionales y la implementación de la Transformada Wavelet en el estudio de caso del departamento de Cundinamarca.

➢ Evaluar los resultados obtenidos en el proyecto al realizar la fusión de imágenes mediante los métodos convencionales y la implementación de la Transformada Wavelet a través de los índices estadísticos de evaluación de calidad.

(13)

13 | P á g i n a

5.

MARCO TEÓRICO

El proceso de fusión de imágenes es la herramienta central del proyecto S2R, para ello es necesario revisar conceptos previos relacionados con el área de percepción remota y procesamiento digital de imágenes, estos conceptos enmarcados y dirigidos al análisis de los métodos existentes en relación al proceso de fusionado, identificando el algoritmo optimo con fines productivos, en función de los departamentos y municipios solicitados al Instituto Geográfico Agustín Codazzi (IGAC) dentro de los cuales se encuentran el departamento del Huila, Tolima, Cundinamarca, Boyacá y norte de Santander. Los conceptos teóricos definidos posteriormente sustentan y orientan el proceso de fusión de imágenes satelitales indagando en el método óptimo para el proyecto S2R.

5.1.

Imagen satelital

“Una imagen satelital es una matriz digital de puntos (igual a una fotografía digital) capturada por un sensor montado a bordo de un satélite que órbita alrededor de la Tierra. A medida que el satélite avanza en su órbita, "barre" la superficie con un conjunto de detectores que registran la energía reflejada” (Chuvieco, 1995)

Es el producto obtenido por un sensor instalado a bordo de un satélite artificial mediante la captación de la radiación electromagnética emitida o reflejada por un cuerpo cualquiera, producto que posteriormente se transmite a estaciones terrenas para su visualización, procesamiento y análisis. Los datos son enviados a una estación control terrestre, en donde se procesan y se georreferencian. Los satélites de observación de la tierra obtienen datos en el menor tiempo posible para dar seguimiento a la evolución de un fenómeno (Análisis Multitemporal). Cada vez se obtienen imágenes de mayor resolución, con mayor cantidad de bandas en el aspecto electromagnético lo que amplía su potencial de aprovechamiento. Existen diferentes tipos de imágenes satelitales, dependiendo del tipo de sensor y de la finalidad de captación con la que fue construido.

“Las imágenes de satélite, se encuentran en formato raster, el cual consiste en una matriz de miles de píxeles, en donde cada píxel tiene un valor digital o de reflectancia; ejemplificando, si la resolución de la imagen es de 30 metros, cada píxel muestra un área en la superficie terrestre de 30x30 metros (900

𝑚2), con esto, la firma espectral o reflectancia de todos los objetos existentes en una superficie de 900

𝑚2 será promediada para darle su valor digital al píxel. La información contenida en cada píxel está en formato digital, normalmente de 8 bit (2 8 = 256) en una imagen en blanco y negro, en donde el 0 corresponde al color negro, 255 al color blanco y se encuentran 254 distintos tonos de gris intermedios.” (Chuvieco, 1995)

5.1.1.

Tipos de Imágenes Satelitales

“Imagen pancromática: se capta mediante un sensor digital que mide la reflectancia de energía en una amplia parte del espectro electromagnético (con frecuencia, tales porciones del espectro reciben el nombre de bandas). Para los sensores pancromáticos más modernos, esta única banda suele abarcar lo parte visible y de infrarrojo cercano del espectro. Los datos pancromáticos se representan por medio de imágenes en blanco y negro.”

(14)

14 | P á g i n a

onda. Estos distintos valores de reflectancia se combinan para crear imágenes de color. Los satélites de teledetección multiespectrales de hoy en día miden la reflectancia simultáneamente en un número de bandas distintas que pueden ir de tres a catorce”.

“Imagen hiperespectral: se refiere a un sensor espectral que mide la reflectancia en muchas bandas, con frecuencia cientos. La teoría en lo que se apoya la detección hiperespectral es que la medida de la reflectancia en numerosas franjas estrechas del espectro permite detectar características y diferencias muy sutiles entre los rasgos de la superficie, especialmente en lo que se refiere a vegetación, suelo y rocas.” (Chuvieco, 1995)

5.1.2.

Resolución Espacial

Se entiende como la menor área capaz de discriminar el sistema sensor, cuyas unidades están en función del tamaño mínimo de información en la imagen, denominado pixel.

“Este Termino designa al objeto más pequeño que puede ser distinguido sobre una imagen. En un sistema fotográfico, suele medirse como la mínima separación a la cual los objetos aparecen distintos y separados en la fotografía.” (Chuvieco, 1995)

“La resolución espacial determina la capacidad de un sensor para distinguir objetos o estructuras en el suelo. Dicha resolución espacial está determinada por la óptica del sensor y la disposición de los detectores dentro del instrumento de visión, así como de los efectos atmosféricos que condicionan la resolución espacial en la observación desde satélite.” (Franco, 1995)

5.1.3.

Resolución espectral

Muestra el número de canales espectrales (bandas) que es capaz de captar un sensor, entre más número de canales espectrales proporcione el sensor mayor será su utilidad, con el objetivo de caracterizar la superficie terrestre.

“Indica el número y anchura de las bandas espectrales que puede discriminar el sensor. Se pone en evidencia el interés de contar con información multiespectral; esto es, de registrar simultáneamente el comportamiento de los objetos en distintas bandas del espectro.” (Chuvieco, 1995)

5.1.4.

Resolución radiométrica

Hace referencia al número de niveles digitales utilizados para expresar los datos recogidos por el sensor. Cuanto mayor sea el número de niveles digitales, mejor será la resolución radiométrica.

(15)

15 | P á g i n a

5.1.5.

Resolución temporal

Se entiende como la frecuencia de paso del satélite por un mismo punto de la superficie terrestre, depende de las características del sensor en relación a su órbita.

“La resolución temporal alude a la frecuencia de cobertura que proporciona el sensor, esto es, la periodicidad con que adquiere imágenes de la misma porción de la superficie terrestre. El ciclo de cobertura está en función de las características orbitales de la plataforma (altura, velocidad, inclinación) así como del diseño del sensor (ángulo de observación y abertura)” (Sobrino, 2000)

5.2.

Sensores Remotos

“Entre las variadas formas de clasificar los sensores remotos, una de las más habituales considera su procedimiento de recibir la energía procedente de las distintas cubiertas. En este sentido, se habla de dos tipos de sensores: (i) pasivos, cuando se limitan a recibir la energía proveniente de un foco exterior a ellos, y (ii) activos, cuando son capaces de emitir su propio haz de energía. Estos últimos son, lógicamente más flexibles, puesto que no dependen tanto como los primeros de las condiciones exteriores al sistema sensor-Tierra.” (Chuvieco, 1995)

Para este caso de estudio en particular se habla de un sensor remoto pasivo, debido a que los programas Sentinel 2A y Rapideye están limitados a las condiciones climáticas de la zona. A continuación, se muestran las características de cada uno de los sistemas de percepción remota utilizados para nuestra fusión de imágenes.

5.2.1.

SENTINEL 2A: Sistema de observación terrestre. Especificaciones

Técnicas.

El satélite europeo SENTINEL 2A forma parte de la familia de misiones de la Agencia Espacial Europea (ESA) dentro de su programa espacial Copérnico. Se lanzó al espacio el 23 de junio de 2015, mediante el cohete Vega, proporciona imágenes ópticas de alta resolución para monitorear la superficie de nuestro planeta, posee sensores multiespectrales los cuales aportan a la identificación y cuantificación de áreas de cambio y usos de la tierra.

Pesa aproximadamente 1,2 toneladas, la vida útil del satélite es de 7.25 años, que incluye una fase de puesta de 3 meses en órbita, baterías y propulsores se han proporcionado para dar cabida a 12 años de operaciones, incluida la final de operaciones y clausura de orbita.

Sentinel 2 lleva una cámara multiespectral de alta resolución, basada en las misiones francesas SPOT y en los satélites estadounidenses Landsat, con 13 bandas espectrales que aportan una nueva perspectiva de la superficie terrestre y de la vegetación. Utiliza un sistema de barrido a lo largo de la trayectoria (push-broom) para generar una imagen de 290 kilómetros de ancho y poder ofrecer muy altas prestaciones geométricas y espectrales en sus datos.

La cámara cuenta con dos grandes planos focales, uno en las bandas del visible (VIS) y del infrarrojo próximo (NIR) y el otro, en el infrarrojo medio (SWIR). Cada uno de ellos está equipado con 12 detectores con un total de 450.000 píxeles.

(16)

16 | P á g i n a

los diversos índices de vegetación. Esto es particularmente importante para la predicción del rendimiento efectivo y aplicaciones relacionadas con la vegetación de la Tierra. También alerta de la contaminación en lagos y aguas costeras. Las imágenes contribuyen a gestionar las consecuencias de inundaciones, erupciones volcánicas y deslizamientos y ayudan en las tareas de ayuda humanitaria.

Tabla 1 Generalidades Sistema de percepción remota Sentinel 2 A; Fuente: (ESA, 2017)

En la tabla 1 se muestran las características generales de Sentinel-2 el cual es una misión de Observación terrestre desarrollada por la ESA dentro del programa Copérnico para ampliar observaciones del planeta Tierra para dar servicios como el seguimiento de la evolución de los bosques, los cambios en la corteza terrestre y la gestión de los desastres naturales. Está compuesto por dos satélites idénticos: Sentinel-2A y Sentinel-2B. Proporciona información sobre la contaminación de lagos y aguas costeras con el debido análisis en procesamiento de imágenes e interpretación de las mismas.

Tabla 2.Características del sensor Sentinel 2A, 13 canales multiespectrales. Fuente: (ESA, 2017)

La cámara multiespectral de alta resolución de Sentinel-2 es la más avanzada de su clase, y es la primera misión óptica de observación de la Tierra en incorporar tres bandas en el ‘borde rojo’, una región del espectro que permite obtener información fundamental sobre el estado de la vegetación, en la tabla 2 se muestran las 13 bandas que maneja la cámara, especificando resolución radiométrica y espacial, además de las características del espectro al que pertenece.

GENERALIDADES SISTEMA DE PERCEPCIÓN REMOTA

SISTEMA Sentinel. (Proyecto Copérnico, Copernicus)

PROGRAMA Sentinel 2A

SENSOR Cámara Multispectral con Sistema de barrido (push-broom). 13 canales espectrales

CARACTERÍSTICAS DEL SENSOR SENTINEL 2A Banda RESOLUCIÓN

RADIOMÉTRICA (µM)

RESOLUCIÓN ESPACIAL (m)

Banda 2 (Azul) 490 nm 10

Banda 3 (Verde) 560 nm 10

Banda 4 (Rojo) 665 nm 10

Banda 8 (NIR) 842 nm 10

Banda 5 (NIR) 705 nm 20

Banda 6 (NIR) 740 nm 20

Banda 7 (NIR) 783 nm 20

Banda 8a (NIR) 865 nm 20

Banda 11 (SWIR) 1610 nm 20

Banda 12 (SWIR) 2190 nm 20

Banda 1 (Aerosol) 443 nm 60

Banda 9 (Vapor agua) 940 nm 60

(17)

17 | P á g i n a Ilustración 1 Esquema representativo del conjunto de canales espectrales para el sistema Sentinel. Fuente:

http://www.esa.int/ESA.

En la ilustración 1, se observa las primeras 4 Bandas pertenecientes al espectro visible, en específico la banda 2 corresponde azul, banda tres al verde y la banda 4 al rojo (RGB). Posteriormente se observa las bandas que interactúan en el infrarrojo cercano (NIR) las cuales son la banda 5, 6, 7, y 8a dentro del infrarrojo cercano, se podrá analizar desastres naturales, inundaciones, incendios forestales, corrimientos de tierra entre otros. Por último, se observan las bandas pertenecientes a SWIR (Short-wavelength infrared) o infrarrojo de onda corta con el objetivo de penetrar niebla o bruma, para lograr distinguir elementos y coberturas.

5.2.2.

Constelación RapidEye

El sistema Rapideye se compone de cinco satélites, capaces de capturar 4 millones 𝑘𝑚2 de información

del planeta tierra por día, en alta resolución. Cada satélite pesa aproximadamente 150 kg, mide menos de un metro cubico, tiene el mismo sensor del programa y se ubica en el mismo plano orbital además el tiempo estimado de la misión es de siete años (Planet, 2016). En la tabla 3 se muestran las especificaciones técnicas del sistema Rapideye.

SISTEMA RAPIDEYE Numero de satélites Cinco

Tiempo de misión Siete años

Altitud de la orbita 630 km orbita helio sincrónica Hora de paso por el Ecuador 11:00 am (Hora local aprox.) Tipo de sensor Multi-espectral de barrido

Bandas espectrales Capaz de capturar en las siguientes longitudes de onda

Banda Rango espectral (nm)

Azul 440-510

Verde 520-590

Rojo 630-685

Rojo cercano 690-730

Infrarrojo cercano (NIR) 760-850

(18)

18 | P á g i n a

Tamaño del pixel

(ortorectificado)

5 m Ancho de la imagen 77 km Almacenamiento de datos a

bordo

1500 km de información por orbita Tiempo de revisita Diario (fuera del nadir) / 5.5 días (a nadir) Capacidad de captura de datos 5 millones 𝑘𝑚2/ día

Rango dinámico de la cámara 12 bit

Tabla 3. Especificaciones técnicas del programa Rapideye; Fuente: tomado y adaptado de (Planet, 2016)

Las imágenes del sistema Rapideye están disponibles en tres niveles de procesamiento: 1B, 3A y 3B, dependiendo de las necesidades del usuario; las imágenes adquiridas por el IGAC son de nivel de procesamiento 1B a este producto se le aplicó una corrección radiométrica y por el sensor (distorsiones ópticas).

5.3.

Fusión de imágenes

En Fusión de datos: Definiciones y arquitecturas: Fusión de imágenes de diferentes resoluciones espaciales Lucien Wald conceptualiza la fusión de imágenes así: “La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una sola imagen datos de alta resolución espectral y espacial a partir de imágenes multiespectrales y pancromáticas de diferente resolución espacial y diferentes sensores remotos. La fusión permite obtener información detallada sobre el medio ambiente urbano y rural, útil para una aplicación específica en estudio(Wald, 1999)

En cuanto a los requerimientos de las imágenes satelitales en términos de resoluciones autores afirman que: “La alta resolución espacial es necesaria para la descripción detallada de las figuras, características y estructuras, por otra parte, dependiendo de la aplicación y el nivel de complejidad de la cobertura, los diferentes tipos de uso de la tierra se clasifican mejor si imágenes con alta resolución espectral son usadas. Por ende, es necesario combinar la alta resolución espacial y alta resolución espectral con el objetivo de obtener la más completa y precisa (en términos de las banas espectrales) del área observada (Ranchin & Wald, Fusion of high spatial and spectral resolution images, 2006).

(19)

19 | P á g i n a

5.3.1.

Antecedentes

Uno de los principales autores en relación a la fusión de imágenes satelitales podría ser Lucien Wald, doctor en ciencias físicas de la universidad Pierre et Marie Curie de París, Francia, el cual obtuvo el premio ERDAS 2000, gracias a su publicación “Data Fusion. Definitions and Architectures - Fusion of Images of Different Spatial Resolutions” en el cual se establecen los fundamentos, definiciones y arquitecturas en la fusión de datos, está orientado a los métodos para la fusión de imágenes y muestra detalladamente las técnicas convencionales. Se hace un énfasis en las imágenes que tienen diversas resoluciones espaciales, con el fin de sintetizar imágenes con una mejor resolución espectral y resolución espacial.

“La fusión de imágenes es una respuesta a la frecuente necesidad de tener en una sola imagen datos de alta resolución espectral y espacial a partir de imágenes multiespectrales y pancromáticas de diferente resolución espacial y diferentes sensores remotos. La fusión permite obtener información detallada sobre el medio ambiente urbano y rural, útil para una aplicación específica en estudio” (Wald, 1999)

Xavier Otazu, María González Audicana, Octavi Fors y Jorge Núñez, publican en 2005 “Introduction of sensor spectral response into image fusion methods. Application to wavelet-based methods” el cual describe Los métodos usuales de fusión de imágenes, en donde se introducen características desde un sensor pancromático de alta resolución espacial en cada banda multiespectral de baja resolución espacial, tratando de preservar firmas espectrales y mejorar la resolución espacial a la del sensor pancromático. Los autores presentan una técnica, que produce imágenes más cercanas a la imagen obtenida por el sensor, basados en la Transformada Wavelet. Esta técnica se utiliza para definir un nuevo método de fusión de imágenes.

Kuchma Tetyana, en 2016 “Combinend Use of SAR an Optical Satellite Images for Landcape diversity assessmenr”, consiste en el mejoramiento espectral y espacial de los productos Rapideye y Landsat 8, mediante la técnica de sinergismo por medio de análisis de componentes principales (PCA), la cual se fundamenta en el manejo estadístico de transformación de datos multivariados que se correlacionan mediante la combinación lineal de las variables originales observando el análisis del cambio de la cobertura terrestre, para una gestión eficaz del uso de la tierra y la conservación de la biodiversidad en la nación de Ucrania.

En el caso de Jorge Delgado en 2004, se realiza la fusión de imágenes entre los sensores Landsat-TM y Spot-p mediante el método de simulación geoestadística estocástica, en particular, la co-simulacion secuencial directa permite la obtención de valores simulados en la imagen Landsat, con tamaño de pixel de 15 metros, a partir de la imagen original con resolución espacial de 30 metros y correlación existente entre Landsat y Spot.

(20)

20 | P á g i n a

5.3.2.

Métodos convencionales de fusión de imágenes satelitales

Parte fundamental del proyecto S2R es la investigación para establecer y determinar los mejores métodos de fusión de imágenes, con fines productivos, debido a que los procedimientos convencionales de fusión están basados en diferentes técnicas como las definidas posteriormente. Estos métodos no son completamente satisfactorios debidos a que pierden o degradan parte de la información espectral.

5.3.2.1.

Transformación en Componentes principales

El Análisis de Componentes Principales (ACP) es una técnica multivariada que permite reducir un conjunto de datos original, en uno más de menor tamaño, pero sin correlación entre los datos, creando variables artificiales llamadas componentes principales (CP) (Zubko, Kaufman, Burg, & Vanderlei, 2007)

En percepción remota el primer componente principal almacena la información espacial de una imagen luego de aplicar la transformación, los demás componentes contienen datos multiespectrales, esto hace que el Análisis de Componentes Principales sea una técnica muy adecuada cuando se fusionan imágenes pancromáticas PAN e imágenes multiespectrales MS (Shi & Xing, 2010)

El Algoritmo para la obtención de los componentes principales (CP) comprende los siguientes cálculos: Matriz de covarianza, vectores propios y componentes principales. Los primeros componentes generados explicaran el máximo de la varianza total de la imagen, el resto ira explicando una menor cantidad de información en forma sucesiva, por lo cual los tres primeros componentes principales bastaran para la analizar la información contenida en la imagen.

El análisis por componentes principales es una técnica comúnmente usada en fusión de imágenes. La idea de fusión es similar al método IHS, con la principal ventaja de que maneja todas las bandas Multiespectrales.

Primero se transforma a las imágenes multiespectrales de baja resolución, en un grupo de nuevas bandas que no están correlacionadas, donde el primer componente contiene la información que es común a todas las bandas multiespectral, mientras que la información espectral es detallada en los otros componentes, en la ilustración 2, se muestra el esquema matricial de la trasformación de la imagen multiespectral de baja resolución espacial en componentes principales.

[

𝑃𝐶1

𝑃𝐶2

.

.

.

𝑃𝐶𝑛]

= [

𝑣11

𝑣12

𝑣1𝑛

𝑣21

𝑣22

. . .

𝑣2𝑛

𝑣𝑛1 𝑣𝑛2

. .

𝑣𝑛𝑛

]

[

𝑅

𝑀𝑆1𝐼

𝑅

𝑀2𝐼𝐼

. . .

𝑅

𝑀𝑆𝑛𝐼

]

[

𝑅

𝑀𝑆1

𝑅

𝑀2𝐼

. . .

𝑅

𝑀𝑆𝑛

]

= [

𝑣11

𝑣12

𝑣1𝑛

𝑣21

𝑣22

. . .

𝑣2𝑛

𝑣𝑛1 𝑣𝑛2

. .

𝑣𝑛𝑛

] [

𝑅

𝑃𝐴𝑁ℎ𝑚

𝑃𝐶2

. . .

𝑃𝐶

𝑛

]

(21)

21 | P á g i n a

5.3.2.2.

Método Multiplicativo

Consiste en realizar un algoritmo simple de multiplicación para así incluir la información de la imagen pancromática con mayor resolución espacial a la imagen multiespectral que posee riqueza espectral. Mediante esta operación, las características espectrales de las bandas multiespectrales iniciales se modifican aproximándose a las de la imagen de alta resolución, en consecuencia, se genera un porcentaje de pérdida, en relación a la información espectral de la imagen original. Con el fin de posibilitar operaciones pixel a pixel, es necesario realizar un proceso de remuestreo llevando la imagen multiespectral al mismo número de pixeles de la imagen pancromática. Así para el caso en específico la imagen Sentinel será remuestreada al número de pixeles de la imagen Rapideye.

Se evidencia el proceso que se realiza, entendiendo (MS) como la imagen multiespectral, que será remuestreada dependiendo el número de pixeles de la imagen "PAN" pancromática, realizado este paso se procede a realizar la multiplicación de cada banda de la imagen multiespectral por la imagen pancromática, obteniendo así la fusión por este método, en la ecuación 2 se muestra la ecuación del método multiplicativo. (Franco, 1995)

𝑁𝐷𝑓𝑢𝑠𝑒𝑑−𝑖𝑚𝑎𝑔𝑒=𝑁𝐷𝑙𝑜𝑤−𝑟𝑒𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛∗𝑁𝐷ℎ𝑖𝑔ℎ−𝑖𝑚𝑎𝑔𝑒

Ecuación 2. Método multiplicativo, Transformada Brovey

5.3.2.3.

Transformación Brovey

Esta transformación normaliza los componentes RGB y los multiplica con las bandas de la imagen pancromática. Este proceso añade el componente de la intensidad y el brillo, a la imagen. (Shingare, 2014). Sin embargo, este método sencillo tiene la limitación de transformar solo tres bandas.

𝐵𝑖′ = 𝐵𝑖

𝐵1+ 𝐵2++ 𝐵𝑛∗ (𝑃𝑎𝑛)

(i=1, 2, n); n=número de bandas espectrales

Ecuación 3. Método Brovey. Fuente (Shingare, 2014)

5.3.2.4.

Transformación RGB a componentes Intensidad, Matiz y

saturación IHS.

Está basada en la trasformación RGB a IHS, separa la información espacial en el componente I and la información espectral en el componente H y S. Matiz es predominantemente color, saturación es pureza de luz anca que alcanza el ojo e intensidad es brillo del color (WU, HUANG, Liu, & TIAN, 2004). Los componentes RGB de la imagen son transformados a IHS usando la ecuación 4.

[ 𝐼 𝑉1 𝑉2 ] = [ 1 3 1 3 1 3 1 √6 1 √6 − 2 √6 − 1 √2 − 1

√2 0 ]

[ 𝑅 𝐺 𝐵 ]

(22)

22 | P á g i n a

A la imagen pancromática se le aplica un ajuste de histograma con el componente I, luego el componente I es remplazado por la imagen pancromática. La transformación inversa se hace con la ecuación 5 [ 𝑅𝑛𝑒𝑤 𝐺𝑛𝑒𝑤 𝐵𝑛𝑒𝑤 ] = [ 1 1 √6 1 √2 1 1 √6 − 1 √2

1 − 2

√6 0 ]

[ 𝑃𝐴𝑁

𝑉1 𝑉2

]

Ecuación 5. RGB a IHS *PAN (Wang, Ziou, Armenakis, Li, & Li, 2005)

Finalmente, en los componentes H y S son calculadas a partir de V1 and V2 (Shingare, 2002) , como se describe en la ecuación 5.

𝐻 = 𝑡𝑎𝑛−1(𝑉1 𝑉2)

Ecuación 6. Componente H (Shingare, 2002)

5.3.2.5.

Transformación HPF (High Pass Filter)

“Otro enfoque para mejorar la resolución espacial de datos multiespectrales que añade la información espacial a la información espectral es High Pass Filter (HPF) en combinación con la adición de las bandas. La imagen de alta resolución espacial se recrea con un pequeño filtro de paso alto Dando como resultado la parte de alta frecuencia de los datos, que está relacionada con la información espacial. Esto se agrega en píxeles a las bandas de baja resolución. Sin embargo, el método HPF tiene limitaciones en el paso de información textural, de la banda de alta resolución a los datos de baja resolución” (Shettigara 1992). (Genderen, 1998)

“La función de fusión de resolución HPF le permite combinar datos pancromáticos de alta resolución con datos multiespectrales de baja resolución, lo que resulta en una salida con excelentes detalles y una representación realista de colores de escena multispectrales originales.

El funcionamiento del algoritmo consta de cinco pasos:

1. Calcular el parámetro R a partir del tamaño del píxel de la capa pancromática y de la multiespectral:

R

=

𝑡𝑀𝑠

𝑡𝑃𝑎𝑛

Ecuación 7. Transformación HPF, Calculo de Parámetro (Remuestreo). Fuente: (Genderen, 1998)

Dónde:

• 𝑡𝑀𝑠 = Es el tamaño del pıxel de las bandas multiespectrales • 𝑡𝑃𝑎𝑛= Es el tamaño del pıxel de la banda pancromática.

(23)

23 | P á g i n a

(Choi, Et al, 2005)

3. Remuestreo de la imagen multiespectral a la resolución espacial de la imagen filtrada.

4. Suma de la imagen filtrada a las capas multiespectrales. Pero antes, la imagen filtrada se pondera en función de la desviación típica de la imagen multiespectral y el valor de R, a este factor de ponderación se le denomina W:

𝑊 =

𝜎

𝑀𝑠

𝜎

𝑃𝑎𝑛

∗ 𝑀

Ecuación 8. Transformación HPF, Calculo del factor de ponderación. Fuente: (Genderen, 1998)

Donde

𝜎

𝑀𝑠es la desviación típica de cada una delas bandas,

𝜎

𝑃𝑎𝑛 es la desviación típica de la imagen filtrada y M es un factor que determina la intensidad en la aplicación del filtro.

5. “Expansión lineal de los ND de la imagen multiespectral fusionada.” (Schowengerdt, 1980)

5.3.3.

Transformada Wavelet

Como la transformada de Fourier, la Transformada Wavelet realiza una descomposición de la señal en una base de funciones elementales: las Wavelets (ondiculas). La base es generada por dilataciones y traslaciones de una sola función 𝜓 llamada la wavelet madre (Ranchin & Wald, 2000). La ecuación 8 describe la Transformada Wavelet.

𝜓𝑎,𝑏 = 𝑎−1 2⁄ 𝜓[(𝑥 − 𝑏)/𝑎]

Ecuación 9. Transformada Wavelet, fuente (Ranchin & Wald, 2000)

Dond 𝑎, 𝑏 ∈ 𝑅 y 𝑎 ≠ 0, a es llamado el paso de dilatación y b el paso de traslación. Todas las wavelets tienen propiedades en común como regularidad, oscilación y localización, que satisfacen una condición de admisibilidad. (Ranchin & Wald, 2000)

Por su parte Young Kim afirma que: “La Transformación Wavelet posibilita el análisis de las señales en diferentes niveles de detalle. A diferencia de la transformación de Fourier, la de Wavelet permite realizar un estudio de la señal teniendo en cuenta la escala, lo que significa que es un método que aprecia los detalles más finos, cosa que no ocurre con Fourier”.

“La transformación Wavelet admite el trabajo con una función llamada ondina la cual se adapta al interés de estudio, así como representar señales en diferentes niveles de resolución. Dado que una imagen se puede entender como una señal bidimensional, esta teoría puede ser útil en el procesamiento digital de imágenes”. (Medina, 2004)

(24)

24 | P á g i n a

5.3.3.1.

Algoritmo de la transformación Wavelet Piramidal o Mallat

Algoritmo que permite el cálculo de los coeficientes pertenecientes a cada nivel sucesivo, formulado en el análisis piramidal dependiendo de las iteraciones que se planteen obtener de la imagen muestra.

Ilustración 2. Esquema representativo del algoritmo Mallat, mostrando elementos configurativos. (Machin, 2011).

Wavelet de Daubechies: “En la Transformada Wavelet son las más utilizadas para el procesamiento digital y análisis de imágenes, estas tienen la propiedad de formar una base ortonormal y poseen soporte compacto. Por esta razón, son adecuadas para el análisis de procesamiento digital de imágenes”. (Navarrete, 2010).

Debido a la condición de ortogonalidad, no se genera información redundante de esta forma se evita la aparición de información falsa. Además, las bases de Daubechies permiten calcular la Transformada Wavelet mediante un algoritmo menos complejo, con un bajo costo computacional y numéricamente estable.

5.3.3.2.

Transformada Wavelet Haar

Transformada Wavelet Haar utiliza la función de escala descrita en la ecuación 10, y la Wavelet descrita en la ecuación 11.

𝜑(𝑡) = {1, 0 ≤ 𝑡 ≤ 1 0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Ecuación 10. Función de escala Wavelet Haar(Tarkov, 2007)

Nivel 0

Imagen original Nivel 1

Nivel 2 Nivel N Aproximaciones sucesivas de la

imagen original

Diferencia entre niveles, detalle espacial que se pierde

de un nivel a otro

(25)

25 | P á g i n a 𝜓(𝑡) = { 1, 0 ≤ 𝑡 ≤ 1

−1, 0.5 ≤ 𝑡 ≤ 1

Ecuación 11. Intervalo Variable t. (Tarkov, 2007)

𝑓(𝑡) = ∑ 𝐶𝑘𝜑(𝑡 − 𝑘) + ∞ 𝑘=−∞ ∑ ∑ 𝑑𝑗,𝑘 ∞ 𝑘=−∞ ∞ 𝑘=−∞

𝜓(2𝑗𝑡 − 𝑘)

Ecuación 12. Transformada Wavelet Haar(Tarkov, 2007)

En la ecuación 12 se muestra la representación arbitraria de la función 𝑓(𝑡) como una sumatoria infinita, donde la Wavelet 𝜓(2𝑗𝑡 − 𝑘) es una copia de la función 𝜓(𝑡) cambiada k unidades a a derecha y

escalada al total de su ancho 1⁄2𝑗 (Tarkov, 2007)

Inicialmente el primer paso de la transformada bidimensional es calcular los promedios y las semi-diferencias para todas las filas de las imágenes, esto crea los promedios en la mitad izquierda de la imagen y semi-diferencias en la mitad derecha de la imagen. Luego se calculan los promedios en las semi-diferencias para todas las columnas, los pasos tres y cuatro operan en las filas y las columnas de ese cuadrante resultando en promedios concentrados en la parte superior izquierda del cuadrante.

5.3.3.3.

Transformada Wavelet Daubechies

Este tipo de Wavelet se conoce como “Wavelets ortogonales de soporte compacto”, el nombre de la familia de Daubechies se escribe como dbN, donde N es el orden (o filtro asociado) y db el nombre corto de la wavelet (Medina & Upegui, Assessment of WordView-2 satellite- image fusion using Daubechies Wavelet Transform, 2015). La Wavelet db1 define la misma Wavelet Haar.

La Transformada Wavelet Daubechies de clase D-2N es una función 𝜓 = 𝑁𝜓 ∈ 𝐿2 definida por la

ecuación 13 (Daubechies, 1990).

𝜓(𝑥) ≔ √2 ∑ (−1)𝑘 2𝑁−1

𝑘=0

2𝑁−1−𝑘𝜑(2𝑥 − 𝑘)

Ecuación 13. Familia Daubechies. (Daubechies, 1990)

Donde ℎ0, … , ℎ2𝑁−1∈ 𝑅 y son los coeficientes constantes del filtro que satisfacen estas condiciones

∑ ℎ2𝑘 𝑁−1

𝑘=0

= 1

√2= ∑ ℎ2𝑘+1 𝑁−1

𝑘=0

Ecuación 14. Familia Daubechies (Daubechies, 1990)

Así como, para 𝑙 = 0,1 … , 𝑁 − 1

∑ ℎ𝑘2𝑘−1= {1 𝑠𝑖 𝑙 = 0 0 𝑠𝑖 𝑙 ≠ 0 2𝑁−1+2𝑙

𝑘=0

Ecuación 15. Familia Daubechies (Daubechies, 1990)

(26)

26 | P á g i n a

(Misiti, Et al, 1996)

(Misiti, Et al, 1996) 𝜑(𝑥) ≔ √2 ∑ ℎ𝜑(2𝑥 − 𝑘)

2𝑁−1

𝑘=0

Ecuación 16. Familia Daubechies (Daubechies, 1990)

Lo que obedece a:

𝜑 = 0 𝑝𝑎𝑟𝑎 𝑥 ∈ [0,2 𝑁 − 1]

Ecuación 17. Familia Daubechies (Daubechies, 1990).

Así como

∫ 𝜑(2𝑥 − 𝑘)𝜑(2𝑥 − 𝑙)𝑑𝑥 𝑝𝑎𝑟𝑎 𝑘 ≠ 1

Ecuación 18. Familia Daubechies. (Daubechies, 1990)

La transformada Wavelet Daubechies ha demostrado resultados satisfactorios en diferentes aplicaciones (Medina & Upegui, 2015), entonces con base en resultados de estudios anteriores, donde la familia wavelet Daubechies consiguió la mejor extracción de características, dando la mejor precisión (Imah, Afif, & Fanany, 2011), se decidió que la wavelet madre para este estudio sea miembro de la familia Daubechies paralelamente se implementaron también las familias Coinflet y Symlet (Daubechies, 1990), que son modificaciones a la familia Daubechies.

5.3.3.4.

Transformada Wavelet Coiflet

Construida por (Daubechies, 1990) en requerimiento de R. Coifman. La función wavelet tiene 2N momentos iguales a 0 y la función de escala tiene 2N-1 momentos iguales a 0. Las dos funciones tienen soporte de longitud 6N-1.

Ilustración 3. Familia wavelet Coinflet con diferente orden/filtro (Misiti, Misiti, Oppenheim, & Poggi, 1996)

Algunas ventajas de la familia Coinflet son: las wavelets Coinflet tienen gráficos casi simétricos y que al ser similares a las wavelets Daubechies tienen un número máximo de momentos de desaparición (Chaudhary & Dhamija, 2013).

5.3.3.5.

Transformada Wavelet Symlet

(27)

27 | P á g i n a Ilustración 4. Familia wavelet symlet con diferente orden/filtro (Misiti, Misiti, Oppenheim, & Poggi, 1996)

Las ventajas de las wavelets symlet son que son “simétricas” y que están diseñadas para que tengan la menor asimetría y el número máximo de momentos de desaparición para dar un soporte compacto (Chaudhary & Dhamija, 2013).

5.4.

Falsa Pancromática

“La percepción del color es un elemento importante de la conciencia del medio ambiente. Diferentes objetos reflejan, emiten y transmiten diferentes cantidades y longitudes de onda de la energía que se registra en el sensor como tonalidades de color o variaciones densidad. Las imágenes de color verdadero a menudo facilitan la interpretación proporcionando una percepción familiar de los objetos, pero para muchos casos, la pantalla del analizador deja de proporcionar a los usuarios el contraste necesario para descubrir y analizar las clases bajo investigación. En estos casos, el 'falso color' se utiliza con éxito para mejorar la interpretabilidad mejorando el contraste a fondo de objeto a objeto” (Dragos, 2012)

Del promedio que se realiza se utilizan las bandas: B1 (Azul), B2 (Verde), B3 (Rojo), B4 (Red Edge) margen de la banda del rojo y el infrarrojo cercano (NIR), B5 (IRC) infrarrojo lejano.

El método utilizado consiste en un promedio aritmético, se describe en la ecuación 5:

𝑓𝑝 =𝐵1 + 𝐵2 + 𝐵3 + 𝐵4 + 𝐵5 5

Ecuación 19. Falsa pancromática. (Dragos, 2012)

5.5.

Índices estadísticos de evaluación de calidad

Es necesario evaluar la calidad espectral y espacial de las imágenes resultantes de la fusión, para ello se han desarrollado protocolos de medidas específicos, así como métricas de calidad. (Rodríguez Esparragón, 2015)

El protocolo de Wald propone las tres propiedades para evaluar los resultados de los algoritmos de sinergismo (Wald, 2002)

(28)

28 | P á g i n a

2. Síntesis: Cualquier imagen fusionada deberá ser tan idéntica como sea posible a la a imagen que el sensor observaría con la máxima resolución (imagen PAN)

3. Síntesis: el conjunto multiespectral de imágenes fusionadas (imagen MS) debería ser tan idéntico como sea posible al conjunto multiespectral de imágenes que el sensor correspondiente observaría con la máxima resolución.

En la ilustración 4 se muestra el protocolo de Wald (Wald, Ranchin et al. 1997) consiste en tres etapas, dicha etapas son: inicialmente diezmar la imagen PAN como la MS por el mismo factor, luego fusionar la imagen MS en esta escala y finalmente comparar la imagen fusionas con la imagen MS original. Sin embargo, el protocolo se dirige a la evaluación de la calidad espectral despreciando el componente espacial (Rodriguez, 2015)

Ilustración 5. Protocolo de Wald, (Rodriguez, 2015)

Existen índices estadísticos que permiten cuantificar la calidad de las imágenes fusionadas, evaluando la conservación de la riqueza espectral y resolución espacial del producto del sinergismo (Wald, 2002) En este trabajo se aplicaron los índices: ERGAS, BIAS, Coeficiente de Correlación y RMSE para la medición de la calidad de la imagen producto de la fusión Sentinel 2 A- Rapideye.

5.5.1.

Índice ERGAS Espectral

El índice de calidad ERGAS (Erreur Relative Globale Adimensionalle), se define en la ecuación 19

𝐸𝑅𝐺𝐴𝑆𝐸𝑆𝑃𝐸𝐶𝑇𝑅𝐴𝐿

= 100ℎ 𝑙√

1

𝑁𝑏𝑎𝑛𝑑𝑎𝑠 ∑ [

(𝑅𝑀𝑆𝐸𝐸𝑆𝑃𝐸𝐶𝑇𝑅𝐴𝐿(𝐵𝑎𝑛𝑑𝑎𝑖))(𝑅𝑀𝑆𝐸𝐸𝑆𝑃𝐸𝐶𝑇𝑅𝐴𝐿(𝐵𝑎𝑛𝑑𝑎𝑖)) 2

(𝑀𝑈𝐿𝑇𝐼𝑖)2 ]

𝑁𝐵𝑎𝑛𝑑𝑎𝑠

𝑖=1

Ecuación 20. Índice ERGAS Espectral. (Wald 1997)

Donde

ℎ : Resolución espacial imágenes pancromáticas (PAN) 𝑙: Resolución espacial imagen multiespectral (MS) 𝑁𝑏𝑎𝑛𝑑𝑎𝑠: Número de bandas de la imagen fusionada

(29)

29 | P á g i n a

5.5.2.

Índice ERGAS espacial

Existe una versión del índice ERGAS con objeto de evaluar la calidad espacial de las imágenes, inspirado en el ERGAS espectral, desarrollado por (Saavedra, 2004), en la ecuación 20 se define el índice ERGAS espacial

𝑅𝑀𝑆𝐸(𝐵𝑎𝑛𝑑𝑖) = 1

𝑁𝑃√∑(𝑃𝐴𝑁𝑖− 𝐹𝑈𝑆𝑖)2 𝑁𝑃

𝑖=1

Ecuación 21. Índice ERGAS Espacial. (Wald 1997)

Donde 𝑃𝐴𝑁𝑖 es la imagen obtenida al ajustar el histograma de la imagen PAN original al histograma de la banda 𝑖-esima de la imagen (MS). (Lillo-Saavedra, 2002)

5.5.3.

Coeficiente de correlación

La correlaciónes la medida de dependencia o relación entre dos variables cuantitativas (Canavos, 1988). Según el valor obtenido se pueden inferir tres casos, el primero es que si el resultado es menor a cero quiere decir tiene una correlación inversa, si el valor es mayor a cero los datos presentan una correlación directa, y finalmente si la correlación es igual a cero no habría relación entre los datos. La correlación entre bandas espectrales se calcula con la siguiente ecuación:

𝐶𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛𝑗𝑘 = 𝐶𝑜𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑗𝑘 √𝐷𝑒𝑠𝑣𝑗∗ 𝐷𝑒𝑠𝑣𝑘

Ecuación 22. Coeficiente de Correlación Fuente Canavos 1998

• 𝐷𝑒𝑠𝑣𝑗 = Desviación estándar de los niveles digitales de la banda j • 𝐷𝑒𝑠𝑣𝑘= Desviación estándar de los niveles digitales de la banda k

5.5.4.

Índice BIAS

Bias de media es la diferencia entre las medias de la imagen original multiespectral y de la imagen fusionada, su valor se da en relación a la imagen original y el valor ideal debe ser cero. (Morales, 2011)

𝐵𝑀 = 1 −𝑀𝑒𝑑𝑖𝑎 (𝑖𝑚𝑎𝑔𝑒𝑛 𝑓𝑢𝑠𝑖𝑜𝑛𝑎𝑑𝑎) 𝑀𝑒𝑑𝑖𝑎 (𝑖𝑚𝑎𝑔𝑒𝑛 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙)

(30)

30 | P á g i n a

5.5.5.

Índice RMSE (Error medio cuadrático)

El índice de Error medio cuadrático resulta ser uno de los más usado; en la ecuación 10 se enuncia el RMSE, que consiste en la raíz cuadrada del cociente entre la diferencia al cuadrado del nivel digital de cada banda elevado al cuadrado y el número de pixeles. (Wald, 2002)

𝑅𝑀𝑆𝐸 = √∑ (𝑥𝑖− 𝑦𝑖) 2 𝑛

𝑖=1 𝑛

Ecuación 24. Índice RMS

Existe una relación entre el índice BIAS y el RMSE (Wald, 2002), dada por la ecuación 24:

𝑅𝑀𝑆𝐸(𝐵𝑖)2= 𝑏𝑖𝑎𝑠(𝐵

𝑖)2+ 𝑑𝑒𝑠𝑣𝑖𝑎𝑐𝑖𝑜𝑛 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟(𝐵𝑖)2

Ecuación 25. Relación BIAS-RMSE (Wald y Ranchin, 2000)

5.5.6.

Índice RASE (Error relativo promedio)

El índice RASE se expresa como un porcentaje, hace uso de la medida global de todas las bandas, al igual que ERGAS, al encontrarse basado en la raíz cuadrada del error medio cuadrático el valor teórico idóneo es 0 o cercano a este. Se calcula por medio de la siguiente ecuación:

𝑅𝐴𝑆𝐸 =100 𝑋̅ √

1

𝑁∑ 𝑅𝑀𝑆𝐸 (𝐵𝑘) 2 𝑁

𝐾=1

Ecuación26.. Índice RASE

Donde se relaciona la alta resolución espacial (imagen pancromática) y la resolución espectral (imagen multiespectral). (Wald, 1999).

5.5.7.

Índice Calidad universal – Q

La calidad universal proporciona un modelo de índice de calidad identifica cualquier distorsión como una combinación de tres factores: pérdida de correlación, distorsión de luminancia y contraste de distorsión. Los mejores valores de este índice se obtienen cuando el valor es más cercano a uno. El índice se obtiene con la siguiente ecuación: (Medina, 2013)

𝑄 = ℴ𝑥𝑦 ℴ𝑋∗ ℴ𝑌

2𝑥̅𝑦̅ (𝑥̅)2+ (𝑦̅)2∗

2ℴ𝑥𝑦𝑥2+ ℴ𝑥2

(31)

31 | P á g i n a

5.5.8.

Índice Entropía

Puede mostrar la información de media incluida en la imagen y reflejar la información de detalle de la imagen fusionada; comúnmente la mayor es la entropía de la imagen fusionada, la información más abundante está incluida en ella y mayor será la calidad de la fusión. A mayor entropía se presentará más desorden en los niveles de gris. (Morales, 2011).

𝐸 = − ∑ 𝑝 ∗ 𝑙𝑜𝑔2 (𝑝) 𝑏𝑐

𝑖=1

Ecuación28. Índice Entropía.

5.5.9.

Índice Divergencia o diferencia entre varianzas (DIV).

Representa la diferencia de 1 y el cociente entre las varianzas involucradas, donde el numerador es la varianza de la imagen resultante y el denominador el de la imagen original. La interpretación es similar al Índice BIAS. (Wald, 1999).

𝐷𝐼𝑉 = 1 −ℴ𝑦2 ℴ𝑥2

Ecuación29. Índice Divergencia.

5.6.

Técnicas de Interpolación

El método de interpolación es un método científico lógico que consiste en determinar cada una de las variables en las formas en las que se pueden reproducir y cómo afectan al resultado. Pero no sólo basándose en su relación estadística sino también en su causalidad.

5.6.1.

Vecino más próximo

Este método consiste en aplicar un algoritmo que asigna a cada pixel de la imagen corregida la CD correspondiente al pixel de la imagen transformada cuyo centro esté más cercano al de la corregida. Este procedimiento no supo alteración de las CD de la imagen original, Sino solamente la traslación a otra localización. (Sobrino, 2000)

5.6.2.

Interpolación Bilineal

(32)

32 | P á g i n a

contribuyen al nivel de gris de la misma, y es útil cuando se trata de corregir imágenes con información cuantitativa. (Sobrino, 2000)

5.6.3.

Convolución cubica

El método de convolución cubica es una interpolación muy utilizada que emplea polinomios bivariados de tercer orden. El método e en esencia similar al anterior (interpolación bilineal, diferenciándose del solamente en que para realizar la media ponderada se involucran los dieciséis pixeles más cercanos al pixel considerad, en lugar de cuatro. Las CD de los dieciséis pixeles de la imagen transformada se interpolas linealmente en grupos de cuatro pixeles cada uno para formar cuatro interpolantes. Posteriormente se realiza otra interpolación lineal entre cuatro valores obtenidos para asignar el resultante al pixel. Corregido. (Sobrino, 2000)

(33)

33 | P á g i n a

6.

METODOLOGÍA

El flujo de procesos del presente trabajo se muestra en la ilustración 5, se plantea inicialmente la fase de adquisición de la información, en este caso se eligió el departamento de Cundinamarca, Colombia, y la una sub- escena del municipio de Girardot, la zona de estudio está compuesta por diferentes características y coberturas por ende el tamaño del pixel de la imagen MS Sentinel 2A (10m) no permitiría análisis detallados y posteriores aplicaciones, entonces se requiere mejorar la resolucion espacial con la imagen PAN Rapideye de la zona. La delimitación de la imagen se hizo en función que de fuese cuadrada, diádica, para la transformada wavelet.

Las imágenes satelitales Sentinel 2A se descargaron del portal web del Servicio Geológico de los Estados Unidos (USGS) y las imágenes Rapideye fueron proporcionadas por el banco nacional de imágenes del IGAC, teniendo en cuenta que cumpliera con los requisitos necesarios para la fusión. La etapa de pre-procesamiento implico el alistamiento de las imágenes para la fusión: unión de las bandas, generación de la imagen pancromática, corte de las imágenes de acuerdo al área de interés, re-escalamiento de 16 bits a 8 bits para facilitar su procesamiento, re-muestro del tamaño del pixel de 10 m a 5m en el caso de la imagen MS, entre otros procedimientos previos a la fusión.

Para generar la imagen pancromática en el IGAC se tenía planteado un método que involucraba el promedio simple de las bandas Rapideye, sin embargo, esta técnica no garantizaba la no correlación entre las bandas originales además de que esa banda generada fuese la pancromática, entonces, se decidió aplicar análisis de componentes principales (ACP) y tomar como imagen pancromática el primer componente para realizar la fusión.

En seguida se fusionan las imágenes, por cada uno de los métodos establecidos en el software ERDAS Imagine 2011: Análisis de Componentes Principales (ACP), RBG- IHS, High Pass Filter (HPF), Brovey y método multiplicativo simultáneamente en MATLAB R2017 se realizó la fusión utilizando el wavelet ToolBox (Misiti, Misiti, Oppenheim, & Poggi, 1996) mediante el algoritmo Mallat (Mallat, 1989) para obtener las imágenes provenientes de las familias: Haar, Daubechies, Coiflet y Symlet de la Transformada Wavelet en ocho niveles de descomposición con filtro de orden dos.

Luego se calculan los índices estadísticos de evaluación de calidad a cada una de las imágenes obtenidas de los métodos de fusión, usando el Toolbox Wavelet y los algoritmos en Matlab R2017 desarrollados por (Vaiopoulos, 2011); se obtienen ocho índices (BIAS, ERGAS, Coeficiente de Correlación, Diferencia de Varianzas, Calidad Universal, Entropía, RMSE y RASE)

(34)

34 | P á g i n a

0 Selección Área

de estudio

Descarga de imagen Sentinel 2A (ESA)

Imagen Rapideye, Banco de Imágenes IGAC

Imagen MS Layer Stack (B2, B3, B4, B8 yB11)

Generación Falsa Pancromática

Corte del área de interés de la imagen Multiespectral Corte del área de interés de

la Imagen pancromática.

ACP HPF Multiplicativo RGB a IHS

Transformada Wavelet. Algoritmo MALLAT Adquisición de la información Pre-Procesamiento Procesamiento Fusión de imágenes Evaluación Resultados Coeficiente correlación

ERGAS Calidad

unirvesal

RMS (Error Medio Cuadrático)

Comparación de los criterios de calidad

Conclusiones y recomendaciones

Ilustración 6. Metodología del proyecto; Fuente: Elaboración conjunta grupo PR-IGAC y autores. BIAS

Daubechies Haar

Brovey

RASE (Error relativo promedio)

Divergencia Entropía

Promedio de Bandas

Componentes principales

Figure

Updating...

References