U IVERSIDAD DE EXTREMADURA. Proyecto Fin de Carrera

117 

Loading....

Loading....

Loading....

Loading....

Loading....

Texto completo

(1)

UIVERSIDAD DE EXTREMADURA

Escuela Politécnica

Ingeniería Informática

Proyecto Fin de Carrera

Caracterización de imágenes hiperespectrales

utilizando Support Vector Machines y técnicas de

extracción de características

Marta Rojas Muriel

Diciembre, 2009

(2)

UIVERSIDAD DE EXTREMADURA

Escuela Politécnica

Ingeniería Informática

Proyecto Fin de Carrera

Caracterización de imágenes hiperespectrales

utilizando Support Vector Machines y técnicas de

extracción de características

Autora:

Marta Rojas Muriel

Fdo.:

Director:

Antonio Plaza Miguel

Fdo.:

Co-director:

Paolo Gamba

Fdo.:

Tribunal Calificador

Presidente: Pablo Bustos García de Castro Fdo.:

Vocal: Juan Carlos Díaz Martín Fdo.:

Secretario: Javier Plaza Miguel Fdo.:

CALIFICACIÓN: FECHA:

(3)
(4)

AGRADECIMIETOS

El presente Proyecto Fin de Carrera (PFC) no habría podido realizarse sin la colaboración de las siguientes personas, varias de las cuales aportaron importante soporte y ayuda durante la realización del mismo:

• Los profesores Antonio Plaza de la Universidad de Extremadura y Paolo Gamba de la Universidad de Pavía en Italia, el primero de los cuales supervisó el desarrollo del proyecto y el segundo de los cuales proporcionó soporte y valiosas sugerencias durante la estancia de 9 meses realizada en dicha Universidad en el marco del programa EC ERASMUS.

• El investigador Karoly Bakos de la Universidad de Pavía en Italia, el cual proporcionó una de las imágenes hiperespectrales consideradas en el presente estudio (Tatras) así como soporte con las diferentes implementaciones y técnicas de análisis utilizadas.

• Los investigadores Mario Fornaroli y Jacopo Nairoukh de la Universidad de Pavía en Italia, los cuales me proporcionaron soporte relativo a la implementación de los algoritmos considerados durante las primeras etapas del proyecto.

• El grupo del Profesor David Landgrebe en la Universidad de Purdue, Indiana, por proporcionar a la comunidad científica la imagen hiperespectral sobre la región Indian Pines, así como las medidas verdad-terreno disponibles sobre esta imagen.

• En último lugar, y no por ello menos importante, gracias a mi familia, con especial atención a mi hermano, a mis amigas y amigos de toda la vida por su apoyo y comprensión durante la realización del proyecto, además del grupo ERASMUS 08/09 de Pavia por acompañarme en uno de los mejores años de mi vida.

(5)

RESUME

La presente memoria resume el trabajo de investigación realizado por Marta Rojas Muriel con motivo de su proyecto fin de carrera (PFC). En concreto, el presente trabajo describe una comparativa de diferentes cadenas de procesamiento de imágenes hiperespectrales de la superficie terrestre, obtenidas mediante sensores aerotransportados para la observación remota de la tierra. El documento sigue la estructura clásica de un trabajo de investigación en dicho campo, presentando en primer lugar las motivaciones y objetivos que han motivado la comparativa de diferentes técnicas de análisis hiperespectral respondiendo a una necesidad claramente existente en este campo de estudio. A continuación se realiza un estudio en profundidad del estado del arte en dicho campo, desde el concepto de píxel hiperespectral hasta los algoritmos existentes que fundamentan la base de este estudio. Posteriormente se detallan los módulos de pre-procesado, clasificación y post-procesado que se han combinado en forma de diferentes cadenas de procesamiento orientadas a clasificar datos hiperespectrales de forma supervisada. En este sentido, el núcleo del presente trabajo viene dado por la comparativa de las cadenas de procesamiento consideradas en el marco de dos casos de estudio centrados en la utilización de imágenes hiperespectrales de referencia en la literatura, obtenidas por los sensores Airborne Visible Infra-Red Imaging Spectrometer (AVIRIS) de NASA/JPL y Digital Airborne Imaging Spectrometer (DAIS 7915) de la agencia espacial alemana (DLR). Como resultado del estudio cuantitativo y comparativo realizado al analizar los resultados de clasificación obtenidos utilizando diferentes cadenas de procesamiento en relación con información de referencia (verdad-terreno) disponible para dichas imágenes, se ofrecen una serie de conclusiones y recomendaciones generales acerca del mejor uso posible de los módulos de pre-procesado, clasificación y post-procesado que integran dichas cadenas. Dichas recomendaciones suponen un aspecto innovador en la literatura especializada dedicada al análisis de datos hiperespectrales, y pensamos que serán de gran utilidad para los usuarios de este tipo de datos interesados en aplicaciones relacionadas con la clasificación supervisada de los mismos.

(6)

ÍDICE DE COTEIDOS

La distribución de contenidos en el presente documento se organiza de la siguiente forma:

1. Motivaciones y objetivos...9

1.1. Motivaciones...9

1.2. Objetivos...10

2. Introducción al análisis hiperespectral...13

2.1. Concepto de imagen hiperespectral ...14

2.2. Sensores hiperespectrales...16

2.2.1. Resolución espectral ...16

2.2.2. Resolución radiométrica ...17

2.2.2.1. El sensor AVIRIS de NASA/JPL ...17

2.2.2.2. El sensor DAIS 7915 de DLR...19

2.3. Técnicas de análisis hiperespectral ...20

2.4. Clasificación de datos hiperespectrales ...23

2.4.1. Algoritmos de clasificación no supervisados...25

2.4.2. Algoritmos de clasificación supervisados...26

2.4.3. Técnicas de evaluación de algoritmos de clasificación ...26

3. Técnicas de procesamiento...30

3.1. Métodos de pre-procesado ...32

3.1.1. Técnicas de pre-procesado espectral...32

3.1.1.1 Análisis de componentes principales (PCA)...34

3.1.1.2 Fracción mínima de ruido (MNF)...36

3.1.1.3 Selección de características (FS) ...38

3.1.2. Técnicas de pre-procesado espacial ...40

3.1.2.1 Morfología matemática...42

3.1.2.2 Análisis de texturas ...46

3.2. Métodos de clasificación ...51

3.2.1. El clasificador Support Vector Machine (SVM)...51

3.3. Métodos de post-procesado ...56 4. Cadenas de procesamiento...58 4.1. Cadena de procesamiento #1 ...59 4.2. Cadena de procesamiento #2 ...61 4.3. Cadena de procesamiento #3 ...62 4.4. Cadena de procesamiento #4 ...63

(7)

4.5. Cadena de procesamiento #5 ...64

5. Resultados experimentales...66

5.1. Metodología de análisis ...67

5.2. Imágenes hiperespectrales consideradas...69

5.2.1. Imagen hiperespectral AVIRIS Indian Pines...69

5.2.2. Imagen hiperespectral DAIS 7915 sobre Tatras ...71

5.3. Resultados de las cadenas de procesamiento ...73

5.3.1. Resultados imagen hiperespectral AVIRIS Indian Pines...73

5.3.1.1 Resultados cadena procesamiento #1 con AVIRIS Indian Pines...74

5.3.1.2 Resultados cadena procesamiento #2 con AVIRIS Indian Pines...76

5.3.1.3 Resultados cadena procesamiento #3 con AVIRIS Indian Pines...78

5.3.1.4 Resultados cadena procesamiento #4 con AVIRIS Indian Pines...81

5.3.1.5 Resultados cadena procesamiento #4 con AVIRIS Indian Pines...84

5.3.1.6 Combinación de resultados de todas las cadenas...86

5.3.2. Resultados imagen hiperespectral DAIS 7915 Tatras...88

5.3.2.1 Resultados cadena procesamiento #1 con DAIS 7915 Tatras...89

5.3.2.2 Resultados cadena procesamiento #2 con DAIS 7915 Tatras...91

5.3.2.3 Resultados cadena procesamiento #3 con DAIS 7915 Tatras...93

5.3.2.4 Resultados cadena procesamiento #4 con DAIS 7915 Tatras...96

5.3.2.5 Resultados cadena procesamiento #5 con DAIS 7915 Tatras...99

5.3.2.6 Combinación de resultados de todas las cadenas...101

5.4. Discusión global de resultados...103

6. Conclusiones y líneas futuras de trabajo...109

6.1. Conclusiones...109

6.2. Líneas futuras...110

(8)

1. Motivaciones y objetivos

1.1. Motivaciones

El trabajo objeto del presente Proyecto Fin de Carrera (PFC) consiste en el análisis y estudio de diferentes técnicas de procesamiento automáticas para procesamiento de datos hiperespectrales de la superficie terrestre utilizando metodologías supervisadas. El trabajo desarrollado se enmarca dentro de las líneas de investigación actuales del Grupo de Redes Neuronales y Procesamiento de Señal (GRNPS) del Departamento de Informática de la Universidad de Extremadura. En sus inicios, la investigación realizada en el GRNPS estaba orientada al desarrollo de algoritmos de computación neuronal para la cuantificación de espectros. Esta línea de investigación fue pronto extendida al caso de imágenes hiperespectrales obtenidas de forma remota.

El presente trabajo de investigación también se enmarca en las actividades desarrolladas en el contexto del europeo HYPER-I-NET (Hyperspectral imaging network) [1], financiado por el programa Marie Curie Research Training etworks de la Comisión Europea (EC), y en el marco del programa de movilidad de intercambio de estudiantes EC ERASMUS. En particular, las actividades relacionadas con el mismo han sido realizadas de forma conjunta entre la Universidad de Extremadura y la Universidad de Pavía, en Italia, siendo los supervisores del trabajo los profesores Antonio Plaza (Extremadura) y Paolo Gamba (Pavía).

Las imágenes hiperespectrales obtenidas por satélite suponen una extensión del concepto de imagen digital, en el sentido de que sus pixels no están formados por un único valor discreto, sino por un conjunto amplio de valores correspondientes a las diferentes mediciones espectrales realizadas por un sensor o instrumento de medida en diferentes longitudes de onda. Este hecho supone la disposición de una gran cantidad de información con un alto nivel de detalle. La comunidad científica dedicada al análisis de datos hiperespectrales ha identificado la necesidad de interpretar estos datos de manera adecuada y obtener información relevante para distintos escenarios con poco esfuerzo [2]. Por tanto, se deben fijar las bases para la definición y testeo de una flexible cadena de recogida y procesamiento de datos hiperespectrales que produzca unos resultados eficientes.

(9)

En la literatura, existen gran variedad de metodologías y técnicas aplicables, que pueden ser considerados como bloques funcionales, combinables dentro de la cadena completa de procesamiento. Considerando como fin principal del procesamiento, la clasificación o caracterización de los pixels hiperespectrales para elaborar un mapa temático que identifique distintas clases o regiones de interés en la imagen, los pasos que se ejecuten a priori y a posteriori, se conocen como técnicas de pre-procesamiento y post-procesamiento respectivamente. En este trabajo se ha tenido en cuenta gran parte de la investigación realizada para esta disciplina y se pretende aumentar o profundizar en el conocimiento de cómo afecta la elección de un determinado pre- y post-procesado, además del algoritmo de clasificación, para obtener altos niveles de precisión y realizar un acercamiento a la secuencia de aplicaciones mas adecuada para definir una cadena de procesamiento estándar general o aplicable a un determinado caso.

En el presente estudio se han utilizado dos imágenes hiperespectrales distintas recogidas por satélite donde se pretenden clasificar diversos tipos de terreno o superficie, en su mayoría vegetación, utilizando una arquitectura supervisada y novedosa denominada Support Vector Machine (SVM) o máquina de vectores de soporte. Por último, conviene destacar que los experimentos realizados suponen una parte de todo el proceso que sufre una imagen hiperespectral desde que es recogida por el sensor hasta que el usuario saca provecho de la interpretación realizada. Por tanto, la precisión que se pueda obtener siempre estará condicionada por las transformaciones realizadas sobre los datos con anterioridad y la efectividad en la definición de los parámetros que se apliquen, factores que conciernen a otras áreas de investigación (altamente multidisciplinares) dentro de la comunidad científica.

1.2. Objetivos

El principal objetivo del presente trabajo es analizar distintos tipos de cadenas de procesamiento de imágenes hiperespectrales que permitan obtener unos resultados precisos y eficientes para este tipo de datos. Para ello se plantea el siguiente objetivo global: estudiar, evaluar y comparar las diferentes técnicas existentes para realizar una clasificación de datos hiperespectrales, así como extraer conclusiones relativas a la eficiencia y conveniencia de dichas técnicas. Para la consecución de este objetivo global, se han llevado a cabo los siguientes objetivos específicos:

(10)

Adquirir conocimientos sobre el análisis hiperespectral, necesarios para poder llevar a cabo el estudio (formato y representación de los datos…).

Adquirir conocimientos sobre el manejo de herramientas y programas adecuados para trabajar con este tipo de datos en el procesamiento.

Analizar las imágenes utilizadas para comprender mejor su comportamiento antes determinadas aplicaciones (procedencia, características, tipos de terreno, propiedades especiales de la vegetación…)

Investigar sobre las técnicas disponibles de procesado de los datos y establecer aquellas que proporcionen mejores resultados o sean mas precisas.

Investigar sobre los métodos de clasificación supervisada disponibles, con especial atención al novedoso algoritmo supervisado SVM.

Implementar una serie de cadenas de procesamiento con las técnicas elegidas y realizar pruebas de clasificación.

Estudiar, de forma comparativa, los experimentos realizados, centrando la atención en la influencia de utilizar diferentes tipos de pre-procesado antes de realizar la clasificación.

Obtener conclusiones a partir del estudio cuantitativo y comparativo realizado, y plantear posibles trabajos futuros.

El documento se encuentra organizado de la siguiente forma. En el capítulo 2 se ofrece una introducción y revisión del estado del arte en el contexto de la teledetección hiperespectral, prestando especial atención a las técnicas de clasificación supervisadas en este ámbito y a diferentes métodos de pre-procesado y post-procesado, los cuales se describen en más detalle en el capítulo 3. El capítulo 4 presenta las diferentes cadenas de procesamiento consideradas en el presente estudio. El capítulo 5 realiza una exhaustiva validación experimental de los resultados obtenidos tras aplicar las diferentes cadenas de procesamiento consideradas a datos hiperespectrales reales de referencia en la literatura. Este capítulo también incluye una discusión general de los resultados obtenidos por las diferentes cadenas en diferentes casos de estudio, extrapolando conclusiones acerca del rendimiento de cada cadena (en términos de la precisión obtenida en la clasificación) en diferentes casos de estudio. El capítulo 6 ofrece una serie de conclusiones sobre los estudios realizados y plantea una serie de posibles líneas

(11)

futuras de trabajo. El documento concluye con la presentación de las referencias bibliográficas que se han tenido en cuenta en la elaboración del mismo y otras referencias que permiten ampliar los conceptos presentados en el trabajo.

(12)

2. Introducción al análisis hiperespectral

La disponibilidad de información digital acerca de la superficie terrestre, obtenida de forma remota a partir de satélites o plataformas aerotransportadas, ha supuesto una auténtica revolución en nuestra concepción actual del mundo. Esta observación remota de la tierra constituye el marco de estudio de la teledetección, traducción latina del término inglés remote sensing, que surgió a principios de los años 50 para designar cualquier medio de observación remota, si bien se aplicó fundamentalmente a la fotografía aérea, principal sensor de aquel momento [3].

No obstante, la llegada de la era dorada de la teledetección tuvo que esperar hasta que confluyeron una serie de circunstancias bien diferenciadas. En primer lugar, el desarrollo del computador digital permitió optimizar los mecanismos de almacenamiento, procesamiento y transmisión de los datos proporcionados por dispositivos remotos. En segundo lugar, el desarrollo de las técnicas de reconocimiento de patrones, propiciado en parte por la creciente capacidad de cómputo de los computadores digitales, ha supuesto que, en la actualidad, la extracción de información significativa y relevante a partir de los datos de observación remota sea una tarea simple y cada vez más automatizada [4]. Finalmente, no podemos olvidar otras circunstancias clave como el desarrollo tecnológico en los instrumentos de medida y en las técnicas de aerotransporte y navegación espacial.

Históricamente, las técnicas de análisis de datos obtenidos de forma remota han seguido una serie de etapas marcadas por la evolución en los instrumentos de observación remota. En etapas tempranas, los medios de observación remota se caracterizaban por estar montados sobre plataformas exclusivamente espaciales, por lo que las técnicas de análisis derivadas se basaron en enfoques fundamentalmente espaciales. Posteriormente, la disponibilidad de instrumentos capaces de medir singularidades en el espectro de la luz reflejada por los diferentes materiales presentes en el mundo real trajo como consecuencia la introducción de técnicas basadas en espectroscopia.

En la actualidad, existen instrumentos que permiten un enfoque integrado en el que se considera tanto la información espacial como la espectral [4]. En este sentido, es muy importante destacar que la integración de ambas fuentes de información constituye en la

(13)

actualidad uno de los mayores desafíos a la hora de desarrollar nuevas técnicas de análisis de este tipo de datos, ya que la mayor parte de las aproximaciones clásicas existentes en la literatura se centran en la utilización de la información espectral y prestan menos atención a la correlación espacial de los datos, la cual puede proporcionar interesantes prestaciones.

2.1. Concepto de imagen hiperespectral

La observación remota de un determinado objeto está basada en la captación, por parte de un instrumento de medida o sensor, de la radiación electromagnética proveniente de la interacción entre el objeto y la fuente de la radiación. La radiación electromagnética recibe varios nombres dependiendo de la longitud de onda que la caracteriza, como puede apreciarse en la figura 2.1. Para medir la radiación emitida o reflejada por una determinada superficie es preciso cuantificar la cantidad de flujo energético que procede de la misma. Para ello se utiliza la medida de la radiancia, que depende de factores como la percepción de brillo, reflectancia, ángulos de observación, entre otros.

Visible 10-7 10-5 10-3 10 103 105 103 Longitud de onda (µµµµm) Ultravioleta Infrarrojo Microondas Radar Rayos X Rayos γ 10-1 0.4 µm 0.7 µm

Figura 2. 1: El espectro electromagnético

Las técnicas de teledetección espectral se basan en el hecho de que todos los materiales presentes en el mundo real reflejan, absorben y emiten energía electromagnética de forma distinta en diferentes longitudes de onda [5].

(14)

En la actualidad, existe un amplio conjunto de instrumentos o sensores capaces de medir singularidades espectrales en diferentes longitudes de onda a lo largo de áreas espaciales extensas [4]. La disponibilidad de estos instrumentos ha facilitado una redefinición del concepto de imagen digital a través de la extensión de la idea de pixel.

Recordamos que el valor asociado a cada pixel viene definido por un valor numérico denominado nivel digital (ND). El nombre se justifica por tratarse de un valor numérico, no visual, pero que puede fácilmente traducirse a una intensidad visual o nivel de gris mediante cualquier convertidor digital-analógico. Así, en un esquema puramente espacial, un pixel está constituido por un único valor discreto, mientras que, en un esquema espectral, un pixel consta de un conjunto de valores. Estos valores pueden ser entendidos como vectores N-dimensionales [6], siendo N el número de bandas espectrales en las que el sensor mide información.

La ampliación del concepto de pixel da lugar a lo que se conoce como imagen multi-dimensional, como aparece ilustrado en la figura 2.2. En dicha figura, el orden de magnitud de N permite realizar una distinción a la hora de hablar de imágenes multi-dimensionales. Así, cuando el valor de N es reducido, típicamente unas cuantas bandas espectrales [7], se habla de imágenes multiespectrales, mientras que, cuando el orden de magnitud de N es de cientos de bandas [8], se habla de imágenes hiperespectrales.

Líneas M u e st ra s Ban das 1 -4 Pixel en posición (x,y) ND en banda 1 ND en banda 2 ND en banda 3 ND en banda 4

(15)

2.2. Sensores hiperespectrales

El concepto de resolución puede estar referido a diferentes aspectos, entre los que se encuentran la resolución espacial, ya comentada, y las resoluciones espectral y radiométrica, que se describen a continuación, para dar paso a información detallada de los sensores remotos que han proporcionado las imágenes utilizadas en este trabajo.

2.2.1. Resolución espectral

La resolución espectral está relacionada con los siguientes parámetros [9]:

Número de canales espectrales en los que el sensor adquiere datos.

Anchura de las bandas espectrales correspondientes a dichos canales.

De forma intuitiva, cuanto mayor sea el número de bandas disponibles, mejor será la caracterización de los materiales presentes en la escena. Además, conviene que estas bandas sean estrechas, puesto que la utilización de bandas anchas introduce un promediado de valores que puede encubrir la diferenciación espectral entre cubiertas [10].

Llegados a este punto, podemos introducir el concepto de firma espectral de un determinado material o superficie como el conjunto de valores de radiancia o reflectancia en los diferentes canales espectrales del sensor. Si el número de bandas espectrales del sensor es muy grande y las bandas son muy estrechas, la firma espectral puede ser considerada como un espectro casi continuo [4].

La figura 2.3 muestra un ejemplo de dos firmas espectrales asociadas a una cubierta vegetal. La primera de ellas (parte izquierda) fue adquirida por un sensor multiespectral, en concreto, Landsat Thematic Mapper [11], que dispone de un total de 7 bandas en el rango 0.48 – 2.21 µm. La firma espectral mostrada en la parte derecha de la figura 2.3 fue adquirida por el sensor hiperespectral AVIRIS [8], con 224 bandas espectrales en el rango 0.4 a 2.4 µm. Como puede apreciarse en la figura, la firma espectral obtenida mediante un sensor hiperespectral se asemeja a un espectro continuo de valores, mientras que la firma proporcionada por un sensor multiespectral es mucho menos detallada [11]. De hecho, los sensores hiperespectrales también reciben el nombre de “espectrómetros de imagen” en la literatura, pues son instrumentos capaces de combinar

(16)

las propiedades de los sensores de imagen con las propiedades analíticas de un espectro-radiómetro de altas prestaciones [8].

Figura 2. 3: Firmas espectrales de vegetación obtenidas por el sensor multiespectral Landsat TM (7 bandas) y el sensor hiperespectral AVIRIS (224 bandas).

2.2.2. Resolución radiométrica

Esta resolución indica la sensibilidad del sensor, entendiendo ésta como la capacidad de detectar variaciones en los valores de radiancia espectral recibida. El número máximo de valores que pueden ser detectados y, por tanto, la resolución radiométrica, viene habitualmente limitado por el número de bits utilizado para codificar los valores de radiancia [12]. A continuación, detallamos brevemente algunas de las principales peculiaridades de dos tipos de sensores específicos.

2.2.2.1. El sensor AVIRIS de ASA/JPL

Las siglas AVIRIS son un acrónimo de Airborne Visible-InfraRed Imaging Spectrometer. Como su nombre indica, AVIRIS es un sensor hiperespectral aerotransportado con capacidades analíticas en las zonas visible e infrarroja del espectro [8].

El sensor entró en funcionamiento en 1987 como el primer sistema de adquisición de imágenes capaz de obtener información en una gran cantidad de bandas espectrales estrechas y casi contiguas. En realidad, AVIRIS es un instrumento único en el mundo de la teledetección, pues permite obtener información espectral en 224 canales

(17)

espectrales contiguos, cubriendo un rango de longitudes de onda entre 0.4 y 2.5 µm, siendo el ancho entre las bandas muy pequeño, aproximadamente 0.01 µm.

A partir de 1989, AVIRIS se convirtió en un instrumento aerotransportado. Desde ese momento, se realizan varias campañas de vuelo cada año con objeto de tomar datos mediante AVIRIS. En concreto, el sensor ha realizado tomas de datos en Estados Unidos, Canadá y Europa, utilizando para ello dos plataformas diferentes:

Un avión ER-2 perteneciente a NASA/Jet Propulsion Laboratory. El ER-2 puede volar a un máximo de 20 km sobre el nivel del mar, a una velocidad máxima de aproximadamente 730 km/h.

Un avión denominado Twin Otter, capaz de volar a un máximo de 4 km sobre el nivel del mar, a velocidades de 130 km/h.

Algunas de las características más relevantes del sensor AVIRIS son las que se detallan a continuación:

El sensor utiliza un explorador de barrido (whiskbroom) que permite obtener un total de 614 pixels por cada oscilación.

La cobertura de la parte visible del espectro es realizada por un espectrómetro EFOS- A, compuesto por un array de 32 detectores lineales.

La cobertura en el infrarrojo es realizada por los espectrómetros EFOS-B, EFOS-C y EFOS-D, compuestos todos ellos por arrays de 64 detectores lineales.

La señal medida por cada detector se amplifica y se codifica utilizando 12 bits. Esta señal se almacena en una memoria intermedia donde es sometida a una etapa de pre-procesado, siendo registrada a continuación en una cinta de alta densidad de 10.4 Gb a velocidad de 20.4 Mb/s.

El sensor dispone de un sistema de calibración a bordo (on-board calibrator), que utiliza una lámpara halógena de cuarzo que proporciona la radiación de referencia necesaria para comprobar el estado de los diferentes espectrómetros. A lo largo de los últimos años, el sensor ha ido mejorando notablemente sus prestaciones en cuanto a la relación señal-ruido [13].

(18)

2.2.2.2. El sensor DAIS 7915 de DLR

El sensor DAIS 7915 (Digital Airborne Imaging Spectrometer) fue desarrollado por la compañía Geophysical Environmental Research, GER [14] y, en la actualidad, su mantenimiento y explotación es realizada por la Agencia Espacial Alemana, DLR.

Desde 1994 este sensor ha realizado numerosas campañas [15, 16]. El sensor DAIS 7915 se caracteriza por cubrir un amplio rango del espectro, mediante 79 bandas espectrales entre 0.4 y 12.5 µm. No obstante, la separación de las bandas en este intervalo no es regular. En concreto, el sensor está formado por un conjunto de cuatro detectores con diferentes características [17], las cuales aparecen descritas en la tabla 2.1.

Detector Rango espectral úmero bandas Separación entre bandas

1 0.5 - 1 µm 32 15-30 nm

2 1. - 1.8 µm 45 45 nm

3 2 - 2.5 µm 32 20 nm

3 - 5 µm 1 2 µm

4 8 - 12.5 µm 6 0.9 µm

Tabla 2. 1: Características de los detectores del sensor DAIS 7915.

Algunas características destacables del sensor DAIS 7915 son las que se enumeran a continuación:

El sensor se encuentra montado sobre un avión Do228, operado por personal de DLR.

Se trata de un sensor con mecanismo de adquisición de datos de tipo

whiskbroom que proporciona un total de 512 pixels por línea.

El sensor dispone de dos fuentes de calibración externa que permiten obtener una elevada precisión a la hora de determinar el nivel promedio de energía de los datos registrados.

La relación SNRλ es reducida para las longitudes de onda comprendidas entre 2 y 2.5 nm, debido a fuentes de ruido en el detector 3 [17].

(19)

2.3. Técnicas de análisis hiperespectral

El análisis hiperespectral se basa en la capacidad de los sensores hiperespectrales, descritos anteriormente, para adquirir imágenes digitales en una gran cantidad de canales espectrales muy cercanos entre sí, obteniendo, para cada pixel, una firma espectral característica de cada material [4]. Este proceso facilita la identificación y cuantificación de los materiales presentes en la escena [18, 19].

Longitud de onda (µm) R ef le ct an ci a Sensor hiperespectral Imagen hiperespectral Pixel hiperespectral Firma espectral 0.4 2.5 224 bandas

Figura 2. 4: Procedimiento de análisis hiperespectral.

El resultado de la toma de datos por parte de un sensor hiperespectral sobre una determinada escena puede ser representado en forma de cubo de datos, con dos dimensiones para representar la ubicación espacial de un pixel, y una tercera dimensión que representa la singularidad espectral de cada pixel en diferentes longitudes de onda. La figura 2.4 ilustra el procedimiento de análisis hiperespectral mediante un sencillo diagrama, en el que se ha considerado como ejemplo el sensor AVIRIS. Como puede apreciarse, la capacidad de observación de este sensor es mucho más avanzada que la de otros dispositivos, y permite la obtención de pixels formados por 224 valores espectrales, a partir de los cuales puede obtenerse una firma espectral característica que será utilizada en el proceso de análisis.

Ya sabemos que el potencial de estas imágenes es la gran cantidad de información y que permite distinguir clases y objetivos de manera mas detallada. Pero esta gran

(20)

ventaja se convierte también en una desventaja cuando no se dispone de suficiente capacidad computacional para tratar y almacenar estas cientos de bandas. Nos enfrentamos entonces a los problemas de alta dimensionalidad de los datos, y de redundancia. La alta dimensionalidad podemos apreciarla si nos hacemos una idea del tamaño total de una imagen de este tipo, multiplicando el tamaño del pixel en bits, por el tamaño de una imagen o banda individual, por el número de bandas totales. La

redundancia de la información, es decir, la repetición de muchos patrones espectrales, puede llegar a ser bastante significativa, resultando en muchos casos un inconveniente cuando se quieren utilizar métodos estadísticos de clasificación. De ahí, que las aproximaciones o técnicas geométricas y no-paramétricas sean mas apropiadas en muchos casos.

Por tanto, se hace necesario realizar un conjunto de actividades y técnicas de procesamiento tanto hardware como software capaz de encargarse de la complejidad intrínseca de los datos hiperespectrales de manera efectiva (gran dimensionalidad) [20]. A pesar de que la cadena de procesamiento de datos hiperespectrales no resulta un procedimiento fácil de definir de manera consistente, en el marco del proyecto HYPER-I-NET [1] se han introducido una serie de recomendaciones en cuanto a la definición de una cadena de procesamiento adecuada para datos hiperespectrales [21], la cual viene dada por dos partes claramente diferenciadas: la cadena desde el punto de vista del proveedor (provider’s side), y la cadena desde el punto de vista del usuario (user’s side). La primera parte de la cadena, lado del proveedor (recuadro azul en la figura 2.5) es un proceso específico del sensor para proporcionar una imagen libre de ruido e obstáculos atmosféricos y geométricos y dejar la imagen lista para su procesamiento e identificación de objetivos. Está a su vez dividida en los siguientes pasos:

Calibración radiométrica, donde nuevos algoritmos necesitan ser desarrollados como por ejemplo, para los sensores térmicos.

Corrección geométrica.

Corrección atmosférica.

Evaluación objetiva de la precisión del producto, donde se sufre la falta de estándares para el formato de los datos y la descripción de los metadatos.

(21)

CALIBRACIÓN RADIOMÉTRICA CORRECCIÓN GEOMÉTRICA CORRECCIÓN ATMOSFÉRICA EVALUACIÓN DE LA PRECISIÓN

TRANSFORMACIÓN DE LOS DATOS Y SELECCIÓN DE CARACTERÍSTICAS BÚSQUEDA ESPECTRAL Y LIBRERIAS CLASIFICACIÓN DETECCIÓN DE CARACTERÍSTICAS

Una vez que los datos de interés han sido pre-procesados y corregidos, existe la necesidad de extraer información relevante de los conjuntos de datos recogidos. La segunda parte de la cadena de procesamiento de datos (lado usuario o recuadro rojo en la figura 2.5) se repartirá además en 4 pasos más:

Transformación de datos, para reducir la dimensionalidad.

Spectral matching, que implica la creación de librerías centralizadas con los datos de los múltiples materiales.

Clasificación.

Detección de características.

Sobre esta parte, es importante destacar que cualquier cadena de procesamiento de datos en cualquier ámbito científico tiene que ser flexible y adecuarse no solo a su aplicación sobre distintos escenarios, sino también a los distintos tipos de resolución que proporcionan diversas variaciones espectrales y espaciales de los instrumentos.

En el presente proyecto trabajamos únicamente sobre este segundo aspecto relativo al procesamiento. En el próximo apartado se explica en qué consiste el paso principal: la

(22)

clasificación de datos hiperespectrales, mientras que los métodos (cadenas de procesamiento) utilizados a priori se describirán en detalle en el próximo capítulo.

2.4. Clasificación de datos hiperespectrales

La forma más simple de abordar el problema de la clasificación de pixels en una imagen hiperespectral es considerar que los pixels de interés están compuestos por un solo material, utilizando las técnicas convencionales de clasificación de patrones [22] pero con mayor precisión, debido al elevado número de bandas espectrales disponibles.

En la práctica, el uso de sensores hiperespectrales permite una mejor determinación de la composición interna de cada pixel, que raramente estará compuesto por un único material, pues el fenómeno de la mezcla es muy habitual en el mundo real, independientemente de cuál sea la escala espacial considerada [23].

Existe un conjunto de técnicas de clasificación de patrones que realizan la interpretación de una escena obtenida de forma remota en base a la asignación de una etiqueta o clasificación individual a cada uno de los pixels de la misma. Estas técnicas ofrecen resultados interesantes en determinadas aplicaciones, particularmente en las que se destacan a continuación.

•••• Clasificación temática. Las técnicas de clasificación han sido utilizadas de forma satisfactoria en aplicaciones que tienen como objetivo la obtención de un mapa temático en el que cada pixel de la imagen hiperespectral está debidamente etiquetado como perteneciente a una clase concreta [24]. Puede existir una clase adicional denominada "fondo" o "resto" que representa a los

pixels que no han sido clasificados en ninguna de las clases anteriores. El resultado ideal se obtiene cuando todas las clases, incluyendo la clase "fondo", son mutuamente excluyentes entre sí. La tarea clave en este tipo de aplicaciones suele ser la determinación del número de clases y la caracterización de las mismas en términos de datos de entrenamiento o información de verdad-terreno.

•••• Detección de targets. Las técnicas de clasificación también han sido utilizadas de forma muy extensa en aplicaciones de detección de objetivos o targets en imágenes hiperespectrales [25]. En este tipo de aplicaciones, el objetivo

(23)

fundamental es la identificación de un material u objeto específico (denominado target en la bibliografía) entre todos los pixels de la imagen.

Conceptualmente, los dos problemas mencionados pueden considerarse como un problema de clasificación binario:

En la detección de targets, los pixels son clasificados en dos clases, denominadas "objeto" y "fondo", dependiendo de si contienen o no el target

buscado.

En la clasificación temática, hay varias clases posibles asociadas a distintos objetos. El objetivo es, en última instancia, determinar la existencia o no de cada uno de los objetos considerados en cada pixel, situación que puede expresarse como un problema de clasificación binario [26].

0 2000 4000 6000 300 600 900 1200 1500 1800 2100 2400 Longitud de onda (nm) R a d ia n c ia Suelo Árbol Suelo Árbol Banda X (600 nm) B an d a Y (1 05 0 n m ) Suelo Árbol Espacio de patrones Imagen hiperespectral X Y

Figura 2. 6: Ilustración gráfica del problema de clasificación en imágenes hiperespectrales.

El problema de clasificación binaria se puede formular matemáticamente del siguiente modo. Sea R el espacio -dimensional formado por todos los pixels de la

imagen hiperespectral. Sea u=

(

u1,u2,...,uN

)

T un vector -dimensional, asociado a un

(24)

Ro y Rf, de forma que u es clasificado como "objeto" si uRo y como "fondo" si uRf.

Este problema puede ilustrarse de forma gráfica utilizando un diagrama de dispersión entre dos bandas poco correlacionadas de la imagen hiperespectral, como se muestra en la figura 2.6.

El diagrama mostrado en la figura 2.6 se denomina “diagrama de dispersión”. Como puede apreciarse en la figura, la situación ideal en un problema de clasificación se produce cuando la separación entre objeto y fondo está claramente definida en agrupaciones o clusters claramente diferenciables.

Los algoritmos de clasificación de imágenes hiperespectrales pueden dividirse en dos grandes categorías [24]: algoritmos supervisados y algoritmos no supervisados:

•••• Algoritmos no supervisados. Presuponen que no existe ningún tipo de conocimiento a priori sobre las clases existentes. El objetivo de estas técnicas es identificar, de forma automatizada, clases o agrupaciones de pixels, utilizando para ello una métrica de similaridad.

•••• Algoritmos supervisados. Parten de un cierto conocimiento sobre las clases existentes, a partir del cual pueden derivarse criterios de clasificación. Esta aproximación suele venir dada por un paso previo en el que se seleccionan firmas espectrales características de las clases existentes.

2.4.1. Algoritmos de clasificación no supervisados

Las técnicas de clasificación de pixels de forma no supervisada en imágenes hiperespectrales se encuentran en plena fase de desarrollo [4]. Entre las técnicas existentes, destaca el método K-Means [28], que supone la existencia de K clases (parámetro que debe ser determinado a priori) y realiza una agrupación de los pixels de la imagen en dichas clases utilizando los vectores métodos puramente estadísticos basados en los espectros promedio de dichas clases.

Por otra parte, el método ISODATA [29] también requiere la inicialización de un parámetro K relativo al número de clases deseadas, de forma previa a la ejecución del algoritmo. Además, este método necesita información relativa al número mínimo de firmas pertenecientes a una clase. Si el valor inicial de K es bajo, la dispersión entre clases diferentes puede ser muy alta. Por el contrario, si el valor inicial de K es alto, la distancia entre clases puede ser muy pequeña, provocando el particionamiento de una

(25)

misma clase en varias clases similares entre sí. En general, la literatura reciente demuestra que los resultados obtenidos por estas dos técnicas no han sido demasiado satisfactorios, salvo en aplicaciones muy concretas [30].

2.4.2. Algoritmos de clasificación supervisados

Dentro de las técnicas de clasificación supervisadas, destacamos los filtros de similaridad (matched filters) y el método SAM (Spectral Angle Mapper), ambos basados en estadísticas de primer orden [1]. Dentro de esta categoría también pueden encontrarse otros clasificadores como las técnicas nearest neighbour (vecino mas cercano), minimun distance (distancia mínima), parallelepiped o maximum likelihood

(ML, máxima probabilidad). En el presente trabajo, no obstante, nos centramos en la técnica Support Vector Machine (SVM) la cual ha demostrado excelentes prestaciones a la hora de trabajar con datos altamente dimensionales como los datos hiperespectrales. Una vez presentadas las técnicas más habituales de clasificación de imágenes hiperespectrales, concluimos el presente apartado destacando algunas técnicas utilizadas para evaluar la actuación de dichos algoritmos.

2.4.3. Técnicas de evaluación de algoritmos de clasificación

La gran cantidad de técnicas existentes, así como la continua proliferación de nuevas metodologías, hace patente la necesidad de esquemas comparativos o métricas que permitan analizar de forma cualitativa el rendimiento de las nuevas metodologías planteadas, contrastando sus resultados con los proporcionados por las ya existentes. La mayor parte de las técnicas de evaluación de algoritmos de análisis de imágenes digitales de teledetección se basan en el concepto de verdad terreno, ampliamente utilizado en análisis de imágenes obtenidas de forma remota [31]. Podemos definir idealmente el concepto de verdad terreno como el resultado de clasificación o interpretación óptimo al que debe llegar un algoritmo [32][33].

La verdad terreno suele venir caracterizada por información relevante acerca de las propiedades en el mundo real de un conjunto de objetos que se desean identificar o caracterizar. Esta información suele obtenerse mediante mediciones realizadas directamente en la zona de estudio cubierta por la imagen [34], aunque también es posible obtener información de verdad terreno mediante la aplicación de técnicas algorítmicas [5]. En todo caso, la primera alternativa es la más fiable, aunque puede

(26)

resultar costosa debido a la necesidad de organizar campañas con instrumentación de medidas sobre el terreno [35].

Asumiendo la existencia de la información de verdad terreno, existen varias metodologías que permiten comparar el resultado proporcionado por un algoritmo de análisis de imágenes con dicha información. En este apartado se presenta una breve descripción de las diferentes métricas que se pueden aplicar para evaluar la habilidad de un algoritmo computacional en cuanto a la clasificación e identificación de objetos de interés en una imagen digital obtenida de forma remota. En concreto, a continuación destacamos una de las aproximaciones más ampliamente utilizadas y que servirá para el posterior estudio comparativo de este trabajo, la matriz de confusión, a partir de la cual se derivan otras métricas como el porcentaje de acierto en la clasificación.

La matriz de confusión [36] es una técnica que permite evaluar la precisión de algoritmos de clasificación de imágenes digitales obtenidas de forma remota. Esta técnica presupone que la información verdad terreno viene expresada en forma de un mapa temático [37, 38], caracterizado por las siguientes propiedades:

2.- Cada pixel se encuentra etiquetado como perteneciente a una determinada clase, de forma que se tienen N clases o regiones de referencia

{ }

Ri Ni=1.

3.- Las regiones de referencia son mutuamente excluyentes entre sí, es decir, dos regiones diferentes no tienen ningún pixel en común: Ri ∩Rj =∅,∀i≠j. Supongamos que cada píxel i de la imagen a evaluar, I, es asignado por el algoritmo como perteneciente a una determinada clase Ci, de forma que se tienen N clases. Los

conjuntos Ci determinan una partición de la imagen a evaluar, es decir, la unión de

todos ellos da como resultado la imagen y dos conjuntos distintos no tienen ningún elemento en común: j i , C C y I C i j N 1 i i ≠ ∀ ∅ = ∩ = = U (2.1)

Teniendo en cuenta las anteriores consideraciones, la figura 2.7 muestra un ejemplo del proceso de construcción de una matriz de confusión. En la figura, se muestra el mapa temático de clasificación verdad terreno asociado a la imagen a clasificar, el resultado de clasificación proporcionado por un determinado algoritmo para dicha

(27)

imagen, y la matriz de confusión que cuantifica la precisión del algoritmo en la tarea de clasificación. Como puede apreciarse, las entradas de la matriz vienen expresadas en la forma ajk, siendo ajk =cardinal

{

Cj ∩Rk

}

, el número de pixels de la región resultante al efectuar la intersección entre una clase Cj obtenida por el algoritmo y una clase verdad terreno Rk [36]. Lago (R0) Carretera (R1) Árboles (R2) Suelo (R3) Mapa temático (verdad terreno) Lago (C0) Carretera (C1) Árboles (C2) Suelo (C3) Clasificación (Algoritmo) a33=|C3∩R3| a32=|C3∩R2| a31=|C3∩R1| a30=|C3∩R0| C3 a23=|C2∩R3| a22=|C2∩R2| a21=|C2∩R1| a20=|C2∩R0| C2 a13=|C1∩R3| a12=|C1∩R2| a11=|C1∩R1| a10=|C1∩R0| C1 a03=|C0∩R3| a02=|C0∩R2| a01=|C0∩R1| a00=|C0∩R0| C0 R3 R2 R1 R0 a33=|C3∩R3| a32=|C3∩R2| a31=|C3∩R1| a30=|C3∩R0| C3 a23=|C2∩R3| a22=|C2∩R2| a21=|C2∩R1| a20=|C2∩R0| C2 a13=|C1∩R3| a12=|C1∩R2| a11=|C1∩R1| a10=|C1∩R0| C1 a03=|C0∩R3| a02=|C0∩R2| a01=|C0∩R1| a00=|C0∩R0| C0 R3 R2 R1 R0 Matriz de confusión

Figura 2. 7: Ejemplo de construcción de una matriz de confusión.

A partir de la matriz de confusión pueden derivarse algunas medidas de precisión genéricas [39] como:

• Porcentaje de acierto global: tanto por ciento de pixels clasificados de forma correcta en todas las clases. Nos referiremos a él con las siglas: OA (del inglés: Overall accuracy): 100 × =

ij ij i ii a a OA (2.2)

• Porcentaje de acierto medio: tanto por ciento medio de precisión de clasificación de clase para todas las clases (AA, average accuracy).

100 × =

j i ii aA a AA (2.3)

(28)

Existen otras medidas (no consideradas en el presente estudio) como los errores de comisión, los errores de omisión, o el coeficiente Kappa. Sobre OA y AA, se tratan de porcentajes que deben acercarse al 100%, cifra que supondría la clasificación perfecta. Cuando el conjunto de referencia no está bien definido, el OA no será representativo con respecto a la verdadera actuación del clasificador. Por ejemplo, si una clase tiene muy pocos píxels de referencia, su influencia sobre la computación del OA será muy baja, mientras que el AA adquirirá más importancia, ya que es una media hecha con el numero de clases no con el numero total de píxels. Si las diferencias producidas entre estas dos medidas son altas, entonces, puede indicar que se ha realizado una mala clasificación para una clase específica, la cual puede afectar a los resultados globales de clasificación.

(29)

3. Técnicas de procesamiento

En apartados previos de la presente memoria hemos visto que una cadena de procesamiento de datos hiperespectrales está formada por dos fases principales: proveedor y usuario. Dado que el trabajo se centrará en la segunda parte, consideraremos ésta como una cadena de procesamiento en general, sin tener en cuenta las aplicaciones realizadas a priori, por tanto, partimos de la imagen ya corregida. El lado de usuario puede ser dividido a su vez en diferentes etapas, dentro de las cuales es posible elegir entre una gran cantidad de técnicas de procesado. Estos pasos de manera general, aparecen reflejados en la figura 3.1:

Figura 3. 1: Etapas de la cadena de procesamiento de datos hiperespectrales.

Dentro del primer paso de la cadena de procesamiento, extracción de características, existen varias metodologías aplicables que podemos dividir en 5 categorías:

Algoritmos de desmezclado y extracción de endmembers, de los cuales existen investigaciones para el análisis de imágenes hiperespectrales. El desmezclado hiperespectral es un problema de separación de fuentes (materiales de la escena) que son dependientes estadísticamente hablando y deben combinarse en una función no lineal. Existen diferentes estrategias (espectrales frente a técnicas híbridas) que están siendo comparadas en busca de una solución eficiente teniendo en cuenta la alta dimensionalidad de los datos.

Transformaciones espectrales, de los datos actuando sobre los vectores para conseguir nuevos conjuntos o bandas componentes de la imagen. Estos nuevos componentes representarán una descripción alternativa de los datos, en los cuales un vector pixel esta relacionado con su anterior valor de brillo de la imagen original mediante una transformación lineal de las bandas espectrales. Estas técnicas buscan preservar la información esencial de la imagen original

(30)

reduciendo el número de dimensiones transformadas. Son usadas antes del proceso de clasificación con el fin de aumentar la precisión. En lo que concierne a la percepción remota hiperespectral la reducción de la información es muy importante. Así, en literatura se han investigado varios métodos para solventar el problema de la información repetitiva original y realizar una caracterización más eficiente. Algunos como PCA o Análisis de Componentes Principales, Análisis de componentes independientes, MNF (Minimum noise fraction) fracción minima de ruido; son conocidas como ‘métodos de reducción’. PCA y MNF serán vistas en detalle en apartados posteriores. Mientras que existen otras llamadas ‘de transformación’ como DAFE (Discriminant Analisys Feature Extraction) que es la mas conocida, pero que sin embargo tenía algunos problemas. Por lo que mas tarde fue propuesta DBFE (Decision Boundary Feature Extraction), basado en la idea de discriminar información redundante, que a diferencia del anterior, no limitaba el número de características en función del número de clases.

Contextos espaciales, donde se tiene en cuenta la vecindad o entorno espacial del píxel considerado, ya que contienen mucha mas información que el propio píxel. Más incluso, cuando hablamos de datos hiperespectrales, donde la gran variabilidad debido la alta sensibilidad a cambios de las características espectrales hacen del pixel único, poco fiable. Se presenta la necesidad de definir el tamaño de ventana o de pixeles vecinos a tener en cuenta, importante en la resolución espacial. Hablando de la escala, que podemos notar a nivel global o local, se refiere a las relaciones espaciales, y muchos métodos han sido propuestos en literatura para proporcionar una medida de tales relaciones entre pixels vecinos: usando la matriz de co-ocurrencia, wavelets, filtros Gabor, y semivariogramas. Las matrices de co-ocurrencia son utilizadas en este trabajo en la parte de análisis de texturas, según las propiedades estadísticas de la vecindad del pixel.

Análisis multiescala, debido a la falta de información de las diferentes escalas de los objetos en la escena. El análisis de texturas, por ejemplo, en muchos casos asume que la medida es única para toda la imagen en conjunto, lo que es claramente falso en muchas situaciones prácticas. Para mejorar estos resultados, el procesamiento espacial puede ser definido desde otro punto de vista, por

(31)

ejemplo, con métodos basados en morfología matemática. De hecho, recientemente ha sido probado la eficiencia de éstos métodos analizando con operadores morfológicos imágenes urbanas para su posterior clasificación [1]. El uso de morfología matemática se explica con mas detalles en posteriores apartados.

La siguiente etapa de la cadena se basa en la selección de características, también importante a la hora de reducir la alta dimensionalidad de los datos. El hecho de elegir un conjunto de características cuya dimensionalidad se la mas apropiada y razonable es un tema muy discutido en literatura, por lo que se necesitan algoritmos eficientes y rápidos que realicen el proceso de combinación de bandas o características para un determinado problema. Se trata de un proceso complejo que no puede ser definido con una única aproximación. Existen varias técnicas de índices estadísticos para selección de características que se verán en detalle en el correspondiente apartado.

Finalmente, una vez que los datos han sido reducidos y/o transformados, y con ciertos análisis realizados, se procede a la clasificación de los mismos. Como se comentó en el capitulo anterior, la clasificación es en términos generales un procedimiento en el cual los ítems o elementos individuales son diferenciados en grupos basados en información cuantitativa de una o mas características inherentes a los elementos. Normalmente mediante ítems etiquetados previamente con conjuntos o patrones de entrenamiento. Finalmente, y con carácter opcional, los datos resultantes de la clasificación pueden ser post-procesados (por ejemplo, utilizando técnicas espaciales) para mejorar la coherencia de los mismos.

3.1. Métodos de pre-procesado

En este apartado describimos en mayor profundidad algunos de los métodos de pre-procesado comentados con anterioridad, ya que dichos métodos serán utilizados en el presente trabajo como bloques constituyentes de las cadenas de procesamiento consideradas.

3.1.1. Técnicas de pre-procesado espectral

El hecho de utilizar técnicas de pre-procesado de imágenes hiperespectrales orientadas a la reducción de la dimensionalidad de los datos de entrada viene propiciado, entre otros

(32)

motivos, por el conocido como fenómeno de Hughes [40], descrito a continuación. En un problema de clasificación típico, el objetivo es asignar una etiqueta de clase a los datos de entrada. El error mínimo esperado que se puede alcanzar al realizar la clasificación es lo que se conoce como el error de Bayes [41]. El error de Bayes es una función que decrece con la dimensionalidad de los datos. Una nueva característica añade información sobre el ejemplo y entonces, uno esperaría que la clasificación fuese tan buena como cuando esta información no se había introducido. Sin embargo, en la práctica esto no es así, cuando se añade una nueva característica a los datos el error de Bayes disminuye, pero al mismo tiempo las desviaciones del error de la clasificación aumentan. Este incremento se debe al hecho de que se necesitan calcular más parámetros partiendo del mismo número de ejemplos. Si el incremento de las desviaciones en la clasificación del error es mayor que el decremento del error de Bayes, entonces el uso de la característica adicional degrada la regla de decisión. Y este fenómeno es lo que se conoce como el efecto Hughes [40]. Además, cuando la dimensionalidad de los datos y la complejidad de la regla de decisión aumentan, el efecto Hughes puede llegar a ser más grave [4].

En resumen, el rendimiento de un clasificador supervisado decrece con la dimensionalidad de los datos a menos que el número de muestras sea infinito [40]. Esta reducción dimensional que se plantea es un paso utilizado por con objeto de reducir la carga computacional de pasos sucesivos mediante la eliminación de ruido e información redundante en la imagen. Estos métodos realizan una disminución del número de bandas, el objetivo es obtener una representación mínima de la imagen que contenga la información indispensable para realizar el análisis sobre un sub-conjunto reducido de la imagen original [42]. Por otra parte, las técnicas de reducción dimensional suelen traer como consecuencia una mejora de la relación SNR en los datos a través de la eliminación de ruido [43], lo cual hace atractiva su utilización de forma previa al paso de clasificación. El inconveniente que presenta esta alternativa es la dificultad para interpretar los datos espectrales tras la etapa de reducción.

Es importante distinguir las técnicas de reducción dimensional de las técnicas de compresión de imágenes hiperespectrales [44]. Contrariamente al objetivo de los métodos de compresión, el proceso de simplificación dimensional no permite, por regla general, reconstruir la imagen original. Al contrario, el objetivo de la reducción dimensional es obtener una representación mínima de la imagen que contenga la

(33)

información indispensable para realizar el análisis sobre un sub-conjunto reducido de la imagen original. De este modo, los algoritmos de reducción dimensional suelen estar diseñados de forma que minimizan los errores cometidos al trabajar con dicho sub-conjunto, despreocupándose de la posibilidad de recuperar la imagen original [45].

3.1.1.1 Análisis de componentes principales (PCA)

El método de análisis de componentes principales o Principal Component Analysis

(PCA) aprovecha la elevada correlación existente entre bandas consecutivas de una imagen hiperespectral [46]. La transformación PCA permite obtener un conjunto reducido de bandas (denominadas autovectores) poco correlacionadas entre sí, (ortogonales, en el caso ideal) que contienen la mayor parte de la información presente en la imagen original. Así, el primer autovector contiene el mayor porcentaje de la varianza de la imagen original; el segundo contiene mayor porcentaje de varianza que el tercero, y así sucesivamente.

Las últimas bandas de la descomposición suelen venir caracterizadas por un escaso contenido en cuanto a información relevante, estando en su mayor parte compuestas por el ruido presente en la imagen original). De esta forma, la transformación PCA permite separar ruido de información útil [47]. Es importante destacar que el conjunto de bandas resultante de la transformación PCA es obtenido a partir de combinaciones lineales de las bandas originales de la imagen. El procedimiento utilizado se basa en la identificación de un nuevo sistema de ejes ortogonales sobre el que se proyectan los datos. Estos ejes tienen su origen en el vector promedio de los datos, y son rotados de forma sucesiva con objeto de maximizar la varianza. Los ejes se identifican a partir de la descomposición de la matriz de covarianza de la imagen, Γ, según la expresión que se muestra a continuación:

(

)(

)

T i P 1 i i P 1 µ u µ u − − = Γ

= , (3. 1)

donde los ui hacen referencia a pixels de la imagen,

µµµµ

es el vector promedio de todos los

pixels y P es el número de pixels de la imagen. El resultado de proyectar los pixels de la imagen hiperespectral sobre los nuevos ejes obtenidos es una nueva imagen

(34)

hiperespectral, formada por bi, i=1..N bandas (siendo N es el número de bandas de la

imagen original). Estas bandas, también denominadas componentes principales, pueden obtenerse como proyecciones de un conjunto de autovectores que indican la ponderación a aplicar a cada una de las bandas originales. Además, se obtiene un conjunto de λi, i=1..N autovalores (escalares) asociados, cuya magnitud indica la

cantidad de información contenida en los datos del autovector correspondiente [48]. De esta forma, la matriz de covarianza puede expresarse de la siguiente forma:

T V VΣ

=

Γ , (3. 2)

donde V es la matriz unitaria de autovectores y Σ es la matriz diagonal de autovalores de Γ. La transformación PCA aparece ilustrada de forma gráfica en la figura 3.2. Como puede apreciarse en la figura, esta transformación permite obtener un nuevo sistema de coordenadas sobre el que se proyectan los datos.

Banda X

B

an

d

a

Y

Componente 1

Componente 2

Figura 3. 2: Ilustración gráfica de la transformación PCA

En la figura 3.3 se muestra un ejemplo de la aplicación de la transformación PCA a una imagen hiperespectral real. La figura muestra las primeras 20 bandas obtenidas a partir de la transformada PCA. Visualmente, puede comprobarse que la presencia de ruido es mucho menor en las primeras bandas, aumentando de forma considerable en las últimas.

(35)

Banda PCA 1 Banda PCA 2 Banda PCA 3 Banda PCA 4 Banda PCA 5

Banda PCA 6 Banda PCA 7 Banda PCA 8 Banda PCA 9 Banda PCA 10

Banda PCA 11 Banda PCA 12 Banda PCA 13 Banda PCA 14 Banda PCA 15

Banda PCA 16 Banda PCA 17 Banda PCA 18 Banda PCA 19 Banda PCA 20

Figura 3. 3: Ejemplo de aplicación de la transformada PCA sobre una imagen hiperespectral.

3.1.1.2 Fracción mínima de ruido (MF)

La transformación Minimum oise Fraction, MNF, es un método de reducción dimensional de imágenes hiperespectrales que consiste en la realización de los pasos que se describen a continuación [49].

1.- En primer lugar, se aplica una transformación PCA sobre la imagen original, a través de la cual se separa la señal del ruido, que queda aislado en las últimas bandas.

2.- A continuación, se estima la matriz de covarianza de la señal, ΓS, y la matriz de

covarianza del ruido, ΓR, utilizando la expresión 3.3.

3.- Seguidamente, se obtiene un conjunto de componentes que contienen información ponderada sobre la varianza presente en el conjunto de datos original. Para ello, se utiliza un índice MNF que estima la proporción entre señal y ruido presente en las componentes proporcionadas por la transformada

(36)

PCA. La componente que presenta la fracción mínima de ruido es aquella cuyo autovector asociado, v, maximiza la siguiente expresión:

v v v v R T S T Γ Γ , (3. 3)

La principal diferencia entre la transformación PCA y la transformación MNF es el hecho de que, en el segundo caso, se realiza una descripción más detallada de la relación existente entre la cantidad de señal presente en la imagen y la cantidad de ruido [50]. De este modo, la primera banda resultante de la transformación MNF es la que presenta mayor relación SNR. La segunda banda presenta mejor SNR que la tercera, y así sucesivamente.

Banda MNF 1 Banda MNF 2 Banda MNF 3 Banda MNF 4 Banda MNF 5

Banda MNF 6 Banda MNF 7 Banda MNF 8 Banda MNF 9 Banda MNF 10

Banda MNF 11 Banda MNF 12 Banda MNF 13 Banda MNF 14 Banda MNF 15

Banda MNF 16 Banda MNF 17 Banda MNF 18 Banda MNF 19 Banda MNF 20

Figura 3. 4: Ejemplo de aplicación de la transformada MF sobre una imagen hiperespectral.

Como consecuencia de la estimación más precisa de las condiciones de ruido presentes en la imagen, en determinadas aplicaciones la descomposición MNF puede ofrecer resultados más robustos que la transformada PCA [51], pues es menos sensible a

(37)

outliers y pixels ruidosos. La transformación MNF realiza una traslación de los datos, de forma que el origen de coordenadas es el centroide de la nube de puntos resultante. En ocasiones, esta característica permite obtener una mejor descripción de los datos. A título comparativo, la figura 3.4 muestra las primeras 20 bandas obtenidas a partir de la aplicación de la transformada MNF sobre la imagen hiperespectral real anteriormente utilizada.

3.1.1.3 Selección de características (FS)

La Selección de Características (FS, feature selection) tiene como fin elegir de entre el conjunto de bandas espectrales iniciales de una imagen hiperespectral, aquellas que permiten, dado un conjunto de patrones de entrenamiento, obtener mayor información para realizar una clasificación más eficiente. Para tratar el problema de cómo elegir este subconjunto d de características de un conjunto inicial de D medidas, con d<D, se han estudiado diversos métodos en literatura. Existe documentación sobre un número de métodos óptimos que han sido estudiados, pero la búsqueda exhaustiva es a menudo cara desde el punto de vista computacional. No se encuentran técnicas apropiadas para problemas con grandes dimensiones, y por esta razón los investigadores han centrado su atención en métodos no tan buenos, como SBS (sequential backward selection o selección secuencial hacia atrás) y su versión contraria llamada SFS (sequential foward selection o selección secuencial hacia delante). Es importante el hecho de que ambos sufren el llamado “efecto nesting”; de hecho, en el método SFS una vez una característica ha sido descartada, no puede volver a ser seleccionada, mientras en el caso del SBS la característica no puede ser descartada una vez seleccionada.

Para prevenir estos efectos Stearns [52] desarrolló la búsqueda Plus-l-Minus-r, y Devijver y Kittler [53] propusieron la generalización de los algoritmos SBS, SFS y de Plus-l-Minus-r, de tal forma que no existe un medio teórico para predecir los valores de l y r para conseguir el mejor conjunto de características. Además, un estudio comparativos anteriores [54] sugieren que la manera mas efectiva en cuanto a métodos no tan buenos se refiere, actualmente son los métodos de búsqueda secuencial flotante (SFFS o SBFS) [55]. La búsqueda “floating” o flotante trata el “problema nesting” aun mejor que Plus-l-Minus-r, ya que no se deben especificar unos parámetros, como l o r. Estos métodos determinan el numero de foward (añadir) / backward (eliminar) pasos dinámicamente durante la ejecución de los algoritmos con el fin de maximizar la

Figure

Actualización...

Referencias

Actualización...

Related subjects :