• No se han encontrado resultados

Relación entre la "NAO" y el volumen de precipitación en invierno sobre la Península Ibérica

N/A
N/A
Protected

Academic year: 2020

Share "Relación entre la "NAO" y el volumen de precipitación en invierno sobre la Península Ibérica"

Copied!
55
0
0

Texto completo

(1)

INSTITUTO NACIONAL DE METEOROLOGIA

SUB. GRAL. DE CLIMATOLOGIA Y APLICACIONES

RELACION ENTRE LA

11

NAO

11

Y EL VOLUMEN DE

PRECIPITACION EN INVIERNO SOBRE

LA PENINSULA IBERICA

Justo Conde Criado

SERVICIO DE ANALISIS

E INVESTIGACION DEL CLIMA

INFORME N° 6

ENERO 1996

AEMET-BIBLIOTECA

(2)
(3)

INSTITUTO NACIONAL DE METEOROLOGIA

SUB

.

GRAL. DE CLIMATOLOGIA Y APLICACIONES

RELACION ENTRE LA

11

NAO

11

Y EL VOLUMEN DE

PRECIPITACION EN INVIERNO SOBRE

LA PENINSULA IBERICA

(4)
(5)

1.- INTRODUCCIÓN.

1.1.- Objetivo del estudio.

El objetivo de este trabajo consiste en determinar la posible relación existente entre el campo de presión a nivel del mar (PNM) en un área dada del Atlántico Norte y los volúmenes de agua precipitada (VP) en cada una de las cuencas hidrográficas en que se divide España.

Para ello se han seleccionado dos conjuntos de variables:

a) Las anomalías invernales de presión a nivel del mar (APNM) en la región del Atlántico Norte comprendida entre las latitudes 20°N y 68°N, y las longitudes 90°W y lOoE.

Este conjunto está formado por 143 elementos, cada uno de los cuales representa el valor de la anomalía invernal de presión superficial en cada punto de una rejilla regular de 4° en latitud x 10° en longitud que cubre el área dada.

Para determinar la anomalía invernal en cualquiera de los puntos de la rejilla, se parte de la serie temporal de medias mensuales de la PNM en tal punto. A continuación se construye la serie de medias invernales, formada por la media aritmética de los valores en los meses consecutivos de diciembre, enero y febrero.

Por último, se forma la serie de anomalías restando a los valores de la serie de medias invernales el promedio temporal (media aritmética) de las medias invernales. En resumen, si P~(k) es el k-ésimo valor de la media mensual de la PNM en el punto j durante el mes i, la cantidad mi(k)=(P1zi(k)+P1i(k)+Pzi(k))/3 representa el valor k-ésimo de la media invernal

en ese mismo punto y

rii

= Nl

f

mi (k) el promedio de las medias invernales en j. Así

k=l

x i (k) =mi (k) -

rii

es la APNM en el punto de rejilla j.

b) Las anomalías invernales de volumen de agua precipitada (A VP) en cada una de las nueve cuencas hidrográficas españolas.

Este conjunto está formado por nueve elementos, correspondientes a cada uno de los valores de la AVP en cada cuenca. El proceso de determinación de estas anomalías es idéntico al seguido en el caso de las presiones, con la excepción de que ahora se considera el volumen total precipitado en invierno en lugar de la media aritmética de los tres meses.

(6)

1.2- Planteamiento del estudio.

Para determinar en qué grado se relacionan los dos conjuntos de datos, se efectúa un análisis de correlación canónica (ACC). Este análisis no se realiza directamente sobre los datos originales, debido, principalmente, al elevado número de elementos (143) con los que cuenta el primer conjunto, Por ello, con anterioridad al ACC, se efectúa un análisis de componentes principales (ACP) con tres objetivos fundamentales: reducir el número de variables en cada conjunto, evitar la posible singularidad de las matrices de covarianzas y

discriminar las señales físicas de importancia (con amplitudes grandes) de las de pequeña escala y de las señales espurias de origen aleatorio.

Una vez realizado el ACP a cada uno de los conjuntos, que consiste en última instancia en un cambio de base óptimo en algún sentido, se representan los datos iniciales en las nuevas bases y se efectúa el ACC sobre ellos.

1.3.- Datos.

Los datos que se han empleado son:

a) Presiones medias mensuales a nivel del mar recopiladas, actualizadas y distribuidas

por el National Center for Atmospheric Research (NCAR) en base a los datos almacenados

en el N ational Meteorological Center de los EE.UU.

(7)

2.- ANÁLISIS DE COMPONENTES PRINCIPALES.

2.1.- Descripción breve.

Se parte de un conjunto de variables X1,X2

, •.• ,XP y se realizan N observaciones independientes de cada una de ellas. Este proceso se identifica con la extracción de una muestra de N vectores de p componentes, entresacados independientemente de una población constituida por vectores del tipo (XL,X2

, ... ,XP).

En primer lugar se centran los N valores muestrales obtenidos para cada variable Xi,

G=l,2, ... ,p), de manera que las medias aritméticas

x

1

,.XZ, ...

,xP

valgan cero. En consecuencia, sea X una variable vectorial de dimensión

p

para la que tenemos los valores muestrales centrados x1,x2, ... ,XN, cuya representación en la base de trabajo inicial {e¡}¡.1,p es

del tipo:

p .

=,Lx/ei

j ~1

(i=l, ...

,

N)

y para la que la matriz de covarianzas muestra}

1 N t

S= N-1

L

X¡X,·

1 ~ 1

(donde X; es la matriz columna cuyos elementos son las componentes de X; en la base original y X;t la traspuesta de la anterior) es, en general, no diagonal.

Como S es simétrica, existirá una base ortogonal de RP en la que se represente como una matriz diagonal. Se trata de encontrar esta base { f¡}¡.1,p donde X¡ se escribirá:

p .

="Ey/jj

j = 1

Las variables Yi reciben el nombre de componentes principales y los vectores propios f¡ son las/unciones ortogonales empíricas (EOF). Está claro que la base buscada {f¡}¡.1,p estará constituida por los vectores propios de S. Y que:

p

=

"EJ/e,

'

r = 1

de tal manera que:

p .

r "

lJ

r

X¡=~y¡ j

=

=FY¡ .

l 1

Donde F es la marriz unitaria pxp cuyas columnas son las componentes, en la base original, de los vectores propios de S.

(8)

l l

o

o

o

l 2

o

donde l 1 ?:::1 2 2: . . . ?:::1 P son los valores propios correspopndientes a cada uno de los

vectores f¡. El elemento (i,j) de esta matriz es: N

1 i .

N-1

~

YkYk ,

de donde se sigue que las variables Yi,

yi

son muestralmente independientes y 1; representa la varianza muestra! de Y¡. Esto es, 1/trS es la fracción de varianza total del sistema que se retiene con la componente Yi.

Si comprobamos que, a partir de una determinada yr, los valores lr+t,lr+Z•···•lp son muy pequeños, concluiremos que los valores medidos de cada una de las variables yr+t,yr+2

, ••• ,YP son básicamente iguales en la primera, segunda, ... y N-ésima observación, y las pequeñas diferencias que existan entre las medidas y 1i,y2i, ... ,yNi

G

= r+ l, ... ,p) pueden identificarse como generadas por señales de origen aleatorio o, en el mejor de los casos, por señales físicas de pequeña amplitud por las que no estamos interesados.

De aquí concluimos que, si lr+lllr+Z•···•lp son muy pequeños, podemos aproximar el vector X¡ por:

r

"'L

Y/j¡

j = l

sin perder una fracción signifivativa de su variación. De esta manera reducimos

el

número de variables de trabajo de

p

a r, evitamos la posible singularidad de las matrices de covananza y descartamos las señales físicas de pequeña escala y las señales de origen aleatorio.

2.2.- Aplicación al primer conjunto de variables.

El vector aleatorio que se corresponde con este primer conjunto es:

y la componente j de cada una de las medidas X;= (x;1,x¡2, ••• ,x¡1~3), i= 1,2, ... ,N, representa el valor de la anomalía invernal de presión superficial en el punto de rejilla

.

j

durante el

.

mvterno z.

(9)

X¡ 1 XI 2 XI 143

1 2 143

A= x2 x2 x2

1

X 42 X 42 2 X 42 143

Para completar el ACP se observa la siguiente pauta:

) e

b

1

·

bl X1 X2 X143

1

a o m pro ar que as vana es , , ... , se comportan, a menos

aproximadamente, como variables aleatorias normales. El objeto de esta comprobación es la justificación del mecanismo generador de muestras aleatorias que se emplea al aplicar la técnica de Preisendorfer-Barnett (véase Overland-Preisendorfer, 1982) para discriminar componentes principales.

b) Calcular la matriz de covarianza muestra!, S, y determinar sus valores y vectores prop10s.

e) Estimar el número r de componentes Yi que se retienen para efectuar

el

ACC postenor.

d) Determinar la proyección de los vectores muestrales X¡ sobre el subespacio

generado por la base donde las componentes de X no se encuentran correlacionadas muestralmente.

V amos a ver cada uno de estos puntos con cierto detalle.

a) Con respecto al primer punto, lo que se ha hecho ha sido contrastar la

normalidad de cada variable Xi individual mediante una gráfica cuantil-cuantil

(Q-Q)

normal. A ello se ha añadido el cálculo del estadístico W de Shapiro y Wilk (1965) y su nivel de significación.

De esta manera se ha comprobado que casi todas las variables Xi siguen

distribuciones aproximadamente normales y, aunque alguna de ellas se aleja del

comportamiento normal, las muestras aleatorias generadas para discriminar componentes principales serán normales. Entre otras cosas porque los resultados que se obtienen son

coherentes con lo que se espera de la técnica empleada.

b) El elemento sii de la matriz S se ha determinado mediante la fórmula:

(10)

con componentes reales. El problema que se nos plantea entonces es el de calcular los valores y vectores propios de una matriz 143x143. Este problema lo podemos reducir a otro que consiste en calcular los autovalores y autovectores de una matriz simétrica 42x42, lo que reducirá el número de operaciones a realizar y, con ello, el tiempo de cálculo y posibles errores de redondeo.

Esto se consigue claculando los autovalores y autovectores de la matriz 42x42:

Z -- N-1 1 AA/ .

En efecto, se puede demostrar (apéndice A) que:

i) Los autovalores de Z también son autovalores de S.

ii) Los 42 autovalores mayores de S coinciden con los autovalores de Z.

iii) Si l¡ es el i-ésimo autovalor mayor de Z correspondiente al vector propio de Z

W¡. El autovector de S, f¡, correspondiente a l¡ viene dado por:

(2.2.1).

En nuestro caso hemos seguido este procedimiento: i) se han calculado los autovalores y autovectores de Z y ii) se han determinado los autovectores de S mediante (2.2.1). Por supuesto, de esta manera no se pierde información alguna, puesto que los autovalores de S que quedan sin determinar son todos iguales a cero, como se muestra en

el

apéndice A.

Si se supone que nuestra muestra proviene de una población multinormal, pueden establecerse ciertos resultados acerca de los autovalores y autovectores de S (Morrison, 1990). Supongamos que la matriz de covarianzas poblacional,

E ,

presenta los valores propios distintos:

con los correspondientes vectores propios:

a 1

, ll'z' . . . '

a

P •

Sean, a su vez, l 1 >l 2 > . . . >1 P >0 y

f

1

,f

2, ••• ,fP sus contrapartidas muestrales

obtenidas a partir de S. Se puede demostrar que los estimadores de máxima verosimilitud de A¡ vienen dados por (N-1)·1/N. Esto es , vienen dados por las raíces características de la matriz (N-l)·S/N :sNA/N.

(11)

resulta ser, hasta términos de primer orden:

2

).t [

1 p ( ).. ) 2

var ( l ; ) '= N-1 1 - N-1

L ). _). .

J ; 1 / 1

j ~

-También se pueden obtener estimadores, como el siguiente, cuyo sesgo es del orden de (N-1r:

[

1 p / .

l

T¡ =l i 1-N-l

L

l

~,

.

J ; 1 1 J j>'i

(2.2.2).

Se puede demostrar, por último, que, cuando los autovalores poblacionales son distintos y los valores de N-1 son muy grandes, se verifican los siguientes resultados:

a) l¡ se distribuye independientemente de su autovector aSociado.

b)

v

7'FT ( l ;

-A¡ )

se distribuye normalmente con media cero y varianza 2 At

cuando N-1 tiende a infinito y se distribuye independientemente del resto de las características muestrales.

e) Los elementos de

f/V-T

(!; -a;) siguen una distribución multivariante con media nula y matriz de covarianzas:

d) La covarianza entre el q-ésimo elemento de Í¡ y

el

s-ésimo de fj es:

i ;tj .

Es esencial tener en cuenta que estas propiedades son válidas únicamente para el caso

de p valores propios poblacionales distintos y para muestras con N-1 muy grande.

(12)

partir de Z, ya que intentar mejorar esta estimación a través, por ejemplo, de la ecuación

(2.2.2)

exige, no sólo que todas las 1; sean mayores que cero, sino además que sean distintas

entre si. Condición que, sobre todo con las raíces pequeñas, no es fácil comprobar. Así pues, no compensa inroducir una complicación que, por añadidura, no asegura una mejora de los resultados, puesto que no hay que olvidar el hecho de que nuestra variable de partida

X no seguirá estrictamente una distribución multinormal.

A este respecto, indicar que se ha comprobado el comportamiento aproximadamente normal de las distribuciones marginales X1

,X2

, ••• ,X143• Pero ello no nos asegura que

X=

(X

1

,X2

, ••• ,X14~ siga una distribución aproximadamente multinormal, únicamente permite no desechar la hipótesis.

No obstante, junto con los valores propios, se incluyen intervalos de confianza para las raíces A¡ obtenidos a patir del resultado b). En virtud del cual, la desigualdad:

N-1 ( ¡ _, ) 2 < 2

- - 2 i 11.¡ - Z a '

2'A;

donde za es el valor a% de la distribución normal (0, 1), se verifica con probabilidad 1-a/100.

De manera que, la probabilidad de que

se encuentre en el intervalo:

l i ' l i

_ _ __.;_ _ _ <~~.. <

+z.~ N~!

- ' -

1-z.~ N~!

es 1-a/100.

También se incluye la fracción de varianza total del sistema que se retiene con la componente Yi. En nuestro caso particular, este valor se ha determinado mediante la

relación 11/trZ. Ya que trZ = -1- t r (AA1

) = -1- t r (A1A) =tr S.

N-1 N-1

e) Para estimar el número de componentes yi que se retienen para realizar el posterior ACC se emplea la técnica sugerida por Preisendorfer y Barnett para filtrar los autovalores obtenidos en un ACP que representan una señal geofísica superior al nivel de ruido.

Básicamente se ha procedido como sigue:

i) Sean l1,12, •••

,1P

los valores propios obtenidos a partir de la matriz Z. Se calcula el

estadístico:

l T

=

--'-'

f:.t

i

i = 1

j =l,2, ... ,p.

(13)

143 muestras obtenidas, cada una de ellas, mediante N extracciones independientes de una población de valores que se distribuyen normalmente.

La medía de cualquiera de las 143 muestras es cero (no olvidemos que son series de anomalías) y empleamos, para calcular su varianza, la expresión del estimador máxima

verosimilitud insesgado:

j =1, 2, ... ' 143 .

iii) Utilizando un generador de números aleatorios se obtienen 143 muestras, compuesta cada una de ellas por N elementos extraídos al azar~de una población normal con media cero y varianza sj

G

= 1,2, ... ,143). Así se consigue el equivalente a la muestra de longitud N formada por los vectores de 143 componentes xhx2, ... ,xN.

iv) Repetimos el proceso iii) 100 veces, de tal manera que, al final, disponemos de 100 muestras constituidas por secuencias de N vectores de 143 componentes.

v) Para cada repetición q (q = 1,2, ... , 100) del proceso calculamos la matnz correspondiente de covarianzas Sq, sus autovalores l1q,lzq, ... ,1Pq y el estadístico:

vi) Para cada

T/ s.Tf

S. . . .

s.T,too .

l _q

Tq 1 = '

-tt

iq

i = 1

q = 1 , 2, . . . ' 100 .

G

=

1,2, ... ,p) ordenamos los valores de Tjq de manera que

vii) Aplicamos, por último, la regla N de Preisendorfer y Barnett, reteniendo sólo

aquellos autovalores l1,12, ••• ,lr para los cuales:

j =1, 2, ... , r.

Básicamente, el planteamiento de todo este proceso consiste en ver qué autovalores generados en el proceso físico no pueden ser distinguidos de los autovalores que se generan en un proceso aleatorio sin correlación espacial ni temporal.

d) Una \·ez que hemos decidido los autovalores que se deben mantener, se determinan las proyecciones de cada uno de los vectores x 1,x2, ... ,xN en el subespacio generado por la base {fJj-l,r· Si denotamos por y¡ la proyección de X; en ese subespacio,

tendremos:

r r

(143

}r

y i

=

L

y/

f

j

=

L L

X

/J k

j

(14)

Donde:

i) y¡i es la componente

j

de la proyección del vector X¡. ii) X¡k es la componente

k

del vector X¡ en la base original. iii) fki es la componente

j

del autovector fk en la base original.

2.3.- Aplicación al segundo conjunto de variables.

El vector aleatorio que se corresponde con este segundo conjunto es:

y la componente} de cada una de las medidas X¡=(x¡1,x¡2

, ... ,x¡~ (i=1,2, ... ,N) representa el

valor de la anomalía invernal de volumen precipitado en la cuenca

j

durante el invierno i.

Para dos de las cuencas (Guadiana y Tajo) que, en los cálculos, se han incluido en los subíndices j = 3 y j = 9 respectivamente, disponemos de medidas en 34 inviernos: desde el 1958/59 hasta el 1991/92.

Para el resto de las cuencas se dispone de medidas en 45 inviernos, desde el 1947148 hasta el 1991/92. Así que nuestra matriz ordenada de datos es:

1

X¡ X¡ 2 ? X¡ 4 X¡ 8 ?

l 1

? 4 8 ?

X:z Xi Xz X:z

A= X¡¡ l X 11 2 ? X¡¡ 4 X¡¡ 8 ?

l 1 3 4 8 9

X 12

x tz

X 12 X 12 X 12 X 12

l 1 3 4 8 9

X 45 X 4-5 X 45 X 45 X 45 X 45

Para efectuar el ACP se procede igual que en el caso anterior:

a) Se comprueba que las variables

Xt,X

2

, ...

,X

9 -se comportan, al menos

aproximadamente, como variables aleatorias normales. De nuevo contrastamos la normalidad de cada X¡ mediante un plateo cuantil-cuantil normal, que se completó con el

cálculo del estadístico W de Shapiro y Wilk y su nivel de significación.

(15)

distribuyen normalmente.

Ahora puede ser discutible la utilización del mecanismo destinado a generar, en la teoría de Preisendorfer-Barnett, las muestras aleatorias que se asignarían a estas últimas cuencas. Una solución consistiría en intentar transformar los datos con la esperanza de obtener distribuciones cercanas a la normal. Sin embargo, como el éxito de esta complicación no está garantizado y como el objetivo final que se persigue se ve cubierto (que los resultados proporcionados por la técnica sean consistentes con lo que cualitativamente se espera de un proceso de discriminación de componentes principales), se emplea la reproducción de muestras normales.

b) Se calcula S y se determinan sus autovalores y autovectores.

El cálculo de las componentes de S se ha efectuado teniendo en cuenta el distinto nÚmero de datos de cada cuenca:

S ij

N¿

1 " ' i j

N -N, L-J X k X k ,

2 1 k=N1

donde N2=45 y N1=11 si i ójvalen 3 ó 9, y N1=1 en los demás casos.

Ahora S es una matriz simétrica 9x9 cuyos valores y vectores propios se calculan directamente, sin recurrir al método utilizado con la matriz de covarianzas del primer conjunto de datos.

e) Se discriminan componentes principales que no sean responsables de una fracción de varianza significativa.

Como en el primer caso, empleamos la técnica de Preisendorfer y Barnett para estimar el número de componentes yi que se retienen para

el

ACC posterior. El proceso se estructura de manera idéntica al caso anterior, sin más que tener en cuenta que ahora las series que hay que generar para las cuencas del Guadiana y del Tajo deben contar sólo con 34 elementos, mientras que las restantes han de tener 45.

d) Se determinan las proyecciones de cada uno de los vectores X¡,X2, •.. ,xN en el subespacio generado por { (¡}¡_ t,r· Estas proyecciones se obtienen mediante la ya conocida relación:

r r ( 9

y

=

I:y/J

,

=

I:

¿x/Ji

i '

j =l j =l k=l

(16)

2.4 Resultados del ACP.

A través de los procesos descritos en los apartados 2.2 y 2.3 se obtienen los resultados que se muestran en las dos tablas siguientes:

1: 2:

1: 2: 3: 4:

S:

autovalor varexp estd T varale valpinf valpsup (106 mm~

234,4236 36,2211

0,8199 0,1267

0,8199 0,1267

0,3795 0,2658

(106 mm~ (106 mm~

158,1252 24,4321

453,0088 69,9949

Tabla 1: Resultados del Análisis de Ccomponentes Principales para las anomalías invernales de volumen precipitado. Periodo de datos: inviernos 1947/48 a 1991/92.

autovalor varexp estd T varal e valpinf valpsup

(hPa~ (hPa~ (hPa~

673,7924 0,4491 0,4491 0,0815 470,2327 1188,1193 287,5883 0,1917 0,1917 0,0748 200,7048 507,1134 226,5293 0,1510 0,1510 0,0654 158,0924 399,4462 92,5189 0,0617 0,0617 0,0593 64,5680 163,1415 56,9371 0,0380 0,0380 0,0555 39,7358 100,3989

Tabla 2: Resultados del Análisis de Ccomponentes Principales correspondiente al campo de anomalías de presión. Periodo de datos: inviernos 1947/48 a 1988/89.

En la primera columna de estas tablas aparecen los autovalores correspondientes a los EOF que preservan la mayor parte de la variación del sistema. En la segunda se incluye la fracción de varianza total del sistema proyectada sobre cada uno de ellos. En la tercera se indica el valor del estadístico T para cada autovalor que, como era de esperar, coincide con la fracción de varianza explicada. En la cuarta columna aparece el valor del índice

"f9

5 para los autovalores más grandes que se han generado en el proceso aleatorio de extracción de muestras. Y, por último, en las dos columnas finales se tabulan los extremos del intervalo de confianza al 95% para cada valor propio.

A la vista de estos resultados se concluye que:

i) Sólo un aucovalor de los obtenidos en el análisis realizado con las anomalías invernales de volumen precipitado puede distinguirse de los generados en un proceso aleatorio sin correlación espacial ni temporal.

En efecto, obsérvese que para el segundo autovalor mayor

'r

5 =-0,2658 y T

=-0,1267,

(17)

La fracción de varianza total explicada por la componente que no se elimina es 0,8199. Esto es, en las proyecciones y¡ de los vectores X¡ sobre el subespacio generado por

el primer EOF se retiene el 82% de la variación total del sistema.

ii) Se conservan cuatro autovalores de los obtenidos en el análisis realizado con las anomalías de presión, puesto que para

el

quinto valor propio obtenemos la condición de rechazo: rs=-0,0555 y T=-0,0380 de manera que T<r5

La fracción de varianza total cubierta por las componentes que no se eliminan es 0,8535. Este resultado es similar al obtenido en trabajos anteriores, en particular al encontrado por Zorita-K.harin-von Storch (1990).

iii) Por lo que respecta a los intervalos de confianza de los valores propios, se puede observar que son de una anchura considerable. Tanto para las anomalías de precipitación (294,8836x106 mm~ como para las de presión (717,8866; 206,4086; 241,3538 y 98,5735 en

hPa~, estas anchuras son de magnitud similar al valor propio correspondiente. Pero si

tenemos en cuenta, además, que las expresiones empleadas para su cálculo son válidas cuando la variable X es multinormal y N muy grande, nos vemos obligados a suponer que, para nuestras variables de trabajo y un número de datos pequeño, N-42, los intervalos verdaderos serán considerablemente más anchos.

Con ello queremos decir que siempre existirán situaciones del campo de presión o de precipitación que difícilmente se ajustarán a nuestras conclusiones, aunque, para gran parte de las situaciones reales, los resultados inferidos a partir de los valores obtenidos serán válidos con una aproximación razonable.

Las figuras siguientes muestran la estructura de los EOF correspondientes al campo de anomalías de presión que no se eliminan.

VARIABLE: Anomalias Invernales de Presion.

PERIODO DE DATOS: lnviemo 1947/1948 thasta1988/1989. EOF: 1

(18)

VARIABLE: Anomalías Invernales de Presion.

PERIODO DE DATOS: Invierno 1947/1948 thasta1988/1989. EOF: 2

SO"W 60"W 40"W 20"W o•

80"W 60"W 40"W 20"W o•

VARIABLE: Anomalias Invernales de Presion.

PERIODO DE DATOS: Invierno 1947/1948 thasta1988/1989. EOF: 3

so•w 60"W 40"W 20"W o•

VARIABLE: Anomalías Invernales de Presion.

PERIODO DE DATOS: Invierno 1947/1948 thasta1988/1989. EOF: 4

SO"W 60"W 40"W 20"W o•

(19)

La estructura de los dos primeros EOF se ha comparado con los obtenidos por Zorita-Kharin-von Storch (1990), resultando ser similares. No obstante, en nuestro caso ambos patrones se encuentran ligeramente desplazados hacia el sur con respecto al trabajo de

referencia. La isolínea de O en nuestro primer EOF se extiende por los 55°N, mientras que,

en el obtenido por los autores citados, se encuentra por los 60°N. Con el segundo EOF ocurre algo parecido, mientras nuestra isolínea de O está cerca, pero por debajo, de los 40°N la suya está cerca, pero por encima, de la misma latitud.

Otra diferencia surge cuando comparamos las magnitudes obtenidas. En nuestro caso el valor extremo en el primer EOF, que se localiza en Azores, se encuentra entre 0,12 y O, 16; mientras que, en el otro caso, está entre 0,24 y 0,26.

Por lo que respecta a nuestro EOF correspondiente a la anomalía de volumen precipitado, éste no es susceptible de ser representado como los anteriores. En su lugar se indican, a continuación, sus componentes en la base inicial:

(20)
(21)

3.- ANÁLISIS DE CORRELACIÓN CANÓNICA.

3.1.- Descripción breve.

Dadas dos variables vectoriales V y W, de dimensiones p y q respectivamente, para las cuales tenemos los conjuntos de valores muestrales centrados {v¡};.1,N y {w;};.1,N, se trata

de encontrar las s = min(p,q) parejas de variables siguientes:

u1

= (a1,V) z 1

=(b1,W)

uz= (az,V) Z2=(b2,W)

(3.1.1)

us=(a.,V) Zs=(bs,W)

de tal manera que la correlación muestra! de u 1

con z1

sea la mayor posible. Que la correlación muestra! de u2

con z2

sea la mayor posible entre todas las combinaciones lineales (a;,V), (b;,W) (con i distinto de 1) no correlacionadas con u1 y z1

, y así sucesivamente para

los s pares posibles.

Exigimos, en primer lugar, que la matriz de covarianzas poblacional, Q, de la variable suma directa de V y W: VEBJJ , que se estructura en la forma:

=[º11 Ql2]

Q

Ql¡

Qz2 '

verifique las condiciones:

i) Las componentes de Q sean finitas.

ii) El rango de Q sea p + q.

iii) Las primeras r ~ min(p,q) raíces características de Q11-1Q12Qu·1

Q

12t sean

distintas.

Donde:

Q

11 =E[( V- p. v )( V- p. v )t} es una matriz pxp.

Q

22=E[( W- p.~ )( W- p.1~ )t} es una matriz qxq.

(22)

Sea S la matriz de covarianzas muestra! correspondiente a la misma variable VEB

» .

Matriz que se estructura igualmente en la forma:

Si las dos poblaciones V y W se encuentran relacionadas, las correlaciones que aparecen en S12 serán significativas para una muestra de tamaño N. El problema consiste

en saber cómo se relacionan los conjuntos de variables V= (V1

,VZ, ...

,VP)

y W

=

\W

1,W2

, ••• ,Wq). Obsérvese que estimar ese tipo de relación no sólo involucra a las p·q

correlaciones de 512, sino también a las p(p-1)/2 + q(q-1)/2 correlaciones entre elementos

distintos de un mismo conjunto.

El objetivo del ACC consiste en encontrar unas variables derivadas de las iniciales en la forma que indica (3.1.1) porque de esta forma todas las submatrices en que se particiona la nueva matriz S', calculada a partir de las variables derivadas, serán diagonales. Fijémonos que, en nuestro caso, la tarea se simplifica mucho sometiendo a las variables iniciales al ACP. Ya que: uno, conseguimos que p y q sean números pequeños; y dos, aseguramos que las submatrices S11 y S21, además de ser diagonales, sean no singulares como

extgen 11 y 111.

El problema se reduce entonces a determinar los coeficientes de las combinaciones (3.1.1). Se puede demostrar, bajo las condiciones de normalización:

a/ ·S11 ·aj =b/ ·S22 ·bj =oij

donde a¡, b; representan las matrices columna que contienen las coordenadas de los vectores a¡, b; en la base de trabajo inicial, que las componentes de la pareja i-ésima vienen dadas por el sistema de ecuaciones homogéneo:

( S11 ·S2

i

1·S1

1

2 -e¡ ·S11 ) ·a¡ =0

( S

{2

·S 1-1

1

S 12 -e ; ·S :2 ) · b ; = O

donde c¡ es la i-ésima raíz característica mayor de las ecuaciones:

¡s,

-

¡'

·S12 ·S2z1

·S112- A.1 pxp 1 =0

\S2z1·S/2 ·S,-¡'·S12 - ).1 qxq \ =0

(23)

Observemos ahora que las ecuaciones (3.1.1) pueden escribirse en la forma:

(3.1.2)

donde A y B son las matrices cuyas columnas contienen las componentes de los vectores 3¡ y b¡:

1 1 1

b/ b21 b l

a¡ a2 as S

2 2 2 b¡2

b22 b2

A=

a2 as

B=

S

af a[ aP S b¡q b2q b q S

y u y z son los vectores:

ul zl

u2 z 2

u= z =

us Z S

A partir de (3.2.1) se pueden reproducir los valores muestrales de V y W en función

de los de u y z. En efecto:

l4u=AA1

V

lBz

=

BB

1

W

V=(AA1

) -IAu

W=(

BB

1 ) _,

Bz

(3. l. 3)a

(3.1.3)b

Ahora bien, para obtener los vectores a¡, b¡ (i= 1,2, ... ,s) se impusieron las condiciones a¡'·S11·a¡= 1 y b¡'·S~·b¡= l. Tales condiciones, en notación matricial, se escriben:

(24)

= y

De tal manera que (3.1.3)alb se reducen a:

S

V=S11 ·Au='LuiS11a1 j :1

S

W=Szz Bz =

L

z j

s22

b j j :1

En conclusión, {ui};.1,s y {zi};.1,s son las coordenadas de los vectores V y W en las

bases

{S

11

·a¡}¡_

1, y

{S

22

·b¡};.

1,s respectivamente. Por ello, los vectores que forman las bases

{S

11

·a¡}

;

.

1,s y

{S

22

·b;};.

1,s se denominan patrones de correlación canónica.

Además, estos patrones canónicos representan la covarianza muestral entre ui y V y entre zi y W. En efecto:

. 1

~

j 1 1

~

/( /)

cov m( u 1 JI) = N-l L u k ·v k= N-1 L a; v kv k

k :1 k :1

. (

cov m( u 1 JI)

=a ; S 11 =S 11 a ; (i=l, ... ,s).

De idéntica manera se obtiene:

(i=l, ...

,

s)

3.2.- Aplicación a nuestros conjuntos de datos.

En nuestro caso

el

ACC se ha efectuado con las componentes de las proyecciones de los vectores de datos iniciales sobre el subespacio generado por los EOF que, en cada caso, se retuvieron. Así, V es una variable vectorial con cuatro componentes (p =4) y W una variable escalar (q -1).

Puesto que s = min(p,q) = 1, tendremos una sola pareja de correlación canónica:

u= (a, V)"" al·Vl + az.yz + a3.yJ + a4·V~

z=-b·W

Las matrices de covarianzas muestrales se determinan de la manera tradicional, sin más que tener en cuenta que, ahora, 522 es un escalar y que, para

el

cálculo de la matriz S12,

(25)

Indicar que se opta por el signo negativo en la determinación de b porque entonces

u1 y z1 varían en fase y, en la representación gráfica posterior, queda más clara la relación

entre ambas. La correlación entre u1 y z1 es, en efecto, ru,z= +d12=0,976.

U na vez en este punto, se determinan los valores de las variables u 1 y z1 para cada invierno en el que se dispone de dato y se representan en una gráfica temporal. El resultado es el que muestra la figura siguiente:

ü

(/) Q)

..a

C'CS

·e

C'CS

>

2

o

-1

-2

Evolucion Temporal de los Valores Canonices

correspondientes a las Variables de trabajo.

1

lt

lt

~0

1 A\ 1

~

\ 1

t

)\

/[ } 1

\k\

l&

1

1\/

V

N

~

'

U

V\

¡/

V

'\

50 55 60 65 70 75

\

1

J

~

,f

1\

',

\

1

~

V

,, 1

1

80 85 90

Invierno

Por otra parte, si recordamos que:

673 ' 8

o

o

o

o

287' 6

o

o

s

,,

=

o

o

226' 5

o

o

o

o

92, 5

el patrón canónico correspondiente al primer conjunto de datos, S11a, es:

S ·a=

S,,

·a =

11

\·a1S11a

22, 9

-6, 6

O, 9

2, 3

Este vector está expresado en la base de los EOF y, puesto que su primera

componente es, con diferencia, la de módulo mayor, nos indica que el patrón se compone

(26)

Los cálculos se han realizado como sigue:

88

Si{

= -

1

L

v i (k) ·vi (k)

41 k=47

88

S

1

~

=

3

1

k

L

=58 v i (k) ·w( k)

1 91

S22 = -

L

wz(k)

33 k=58

donde el índice k representa el invierno (así 58 es el de 1958/59) al que corresponde el valor de la medida.

Como se ha dicho sólo se puede encontrar una pareja canónica, ya que S22 = 234,4236 (106 mm~ es igual a un escalar y S22-1·S

12

1

·S11·1·S

12 -A =0 sólo tiene una raíz. Esta raíz

resulta ser c=0,953.

Por otra parte, e es también la raíz más grande de det (S22·1·S

1/·S

11-1·S

12 -A l4x4) =O

y se corresponde con el vector propio:

a

1 = (0,709 -0,470 0,081 0,520)

Ahora bien, la condición de normalización exige que a1

·S11·a= 1; donde a es un

vector proporcional a a : a=-k- a . Así se obtiene:

T amando la determinación positiva de la raíz se obtiene finalmente:

a

a= =

O, 034 -0, 023

O, 004

O,

025

(3. l. 4)

De igual manera b1

·S22·b =l. En nuestro caso b es un número, cuyo valor es, tomando la determinación negativa de la raíz:

bz

·

Szz

=

l

b = -

-1

¡s;

(27)

representación gráfica del vector que nos ocupa expresado en la base original:

VARIABLE: Anomalías Invernales de Presion.

PERIODO DE DATOS: lnviemo 1947/1948 hasta 1988/1989. Primer Patron Canonice.

80"W 60"W 40'W 20'W O'

La fracción de varianza total del sistema que se proyecta sobre el patrón canónico se determina de la manera habitual. En general, la proyección Xrc; del vector X sobre

el

patrón canónico i-ésimo viene dada por:

Pero:

X

1

(511

a¡) =X

1

(511

I:a/J

1 )

=S

11

La/X

1

j 1

=

5

11

I:a/Vi

j j j

De ello concluimos que: X1

( S 11 a ¡ ) =

L

s {{ a/ Vi .

j

(28)

4

¿

s ({ ~

vj

X j =1

pe¡=---~=======================

a1

2 a

(

't"'

n ¡¡ ) 1 1 2

S

11

('t"'

¡ 2 ,¡ ) 11 2

z...a s11 z...a s 11

j i

~ ¡2 ¡¡ 2

~a s 11

i

Para cada invierno

k

se determina el valor de esta proyección: Xpc1

(k),

y se calcula

la fracción de varianza que se retiene a partir de:

N

-Jr

~

(xpCJ(k)

-x

pe1)

2

trS fracc . var .

donde S representa aquí la matriz original de covarianzas correspondiente al primer conjunto de datos. En todas las relaciones anteriores se toman las determinaciones positivas de las raíces, pues todas ellas representan módulos de vectores.

U na vez efectuado este proceso se obtiene como fracción de varianza proyectada

sobre el primer patrón canónico el valor 0,43.

De igual manera, el patrón canónico correspondiente al segundo conjunto de datos:

S22

b,

es:

Para obtener este patrón canónico en la base original no hay más que multiplicar

el único EOF que retuvimos para el segundo conjunto de datos por -522112

Ahora la fracción de varianza total del sistema que se proyecta sobre

el

patrón

canónico será la misma que la que se proyectaba sobre el EOF. Esto es, 0,82. En efecto, en

este caso la proyección X' rc1 del vector X' sobre el patrón es:

s"

"

bw

X' PCI

=

--

=

w

'~

+vb

-Szz

Es decir, la proyección coincide con la única componente principal que se retuvo

(29)

4.- CONCLUSIÓN.

Los resultados del presente estudio confirman la dependencia entre la precipitación invernal en la Península Ibérica y el estado de la Oscilación del Atlántico Norte (NAO). Así, las anomalías más positivas de volumen precipitado se corresponden con marcadas situaciones "Greenland-above" de la NAO: presión en superficie anormalmente baja en la región subtropical (Azores), y anormalmente alta en la región subpolar (Islandia). Por el contrario, las anomalías más negativas de volumen precipitado se corresponden con la situación opuesta, "Greenland-below", de la NAO.

Los dos factores que aseguran este comportamiento son:

a) La estructura espacial del primer patrón canónico de las anomalías de presión. Esta estructura se corresponde, básicamente, con el extremo "Greenland-above" de la NAO.

b) La relación entre las variables canónicas que representan precipitación y presión es sorprendentemente alta. Con un índice de correlación de 0.98.

Lamb-Peppler (1987) obtuvieron una conclusión análoga en su estudio sobre la precipitación sobre Marruecos.

Tanto los resultados intermedios del ACP, como los finales correspondientes al ACC, se ajustan a los obtenidos en otros trabajos. La comparación fundamental se ha realizado con el estudio similar de Zorita-Kharin-von Storch (1990) en su parte dedicada a la relación entre la PNM y la precipitación.

La utilidad de la técnica se muestra evidente: La estimación de un campo de escala

subrejilla, como es la precipitación, a partir de un campo a gran escala. Con este objeto ha

sido utilizada por von-Storch-Zorita-Cubasch (1991).

La novedad del presente trabajo frente al estudio de comparación se encuentra en la utilización de volumenes de agua precipitada, en lugar del tradicional campo de precipitación, a la hora de realizar la comparación. Con la nueva variable se consigue una mejora significativa de la correlación muestra!, lo que impulsa a pensar que los volumenes de precipitación podrían ser más adecuados para la estimación subrrejilla que la variable

(30)
(31)

5.- REFERENCIAS.

Lamb P.-Peppler R. (1987): The North Atlantic Oscillation: Concept and an

Application. Bull. AM. Meteor. Soc. 121811225.

Morrison D.F. (1990): Multivariate Statistical Methods (3'd ed.). McGraw-Hill.

Overland J.-Preisendorfer R. (1982): A Significance Testfor Principal Components

Applied toa Cyclone Climatology. Mon. Wea. Rev. 1/4.

von Storch H.-Zorita E.-Cubasch U. (1991): Downscaling of Global Climate

Change Estimares to Regional Scales: an Application to Iberian Rainfall in Wintertime. Max-Planck-Institut fiir Meteorologie. Report 64.

Zorita E.-Kharin V.-von Storch H. (1990): The Atmosjeric Circulation and Sea

(32)
(33)

APÉNDICE A

Sea Mnxm(R) el espacio de las matrices nxm (n <m) con coeficientes reales, y A un elemento de este espacio: A E Mnxm(R). La matriz A tendrá un aspecto como

el

siguiente:

X u

xl2

xlm

A=

x21 x22

xnl xn2

Y su traspuesta: N E Mmxn(R), es

Xn

x21

A t =

xl2 x22

xlm X 2m xnm

Por otra parte, la matriz S = - 1-A 1 A es un elemento de Mmxm(R) y la matriz n -1

Z

=

-

1-AA 1

es un elemento de Mnxn(R). n -1

Primero:

Las matrices S y Z son simétricas. En efecto:

S t

=

_1_ (A t A ) t

=

_1_ A t A = S

1-n

n-1

Así pues, existen bases ortogonales {v;};.1,m, {w;};.1,n de Rm y R" respectivamente

en las cuales S y Z se representan como matrices diagonales.

Segundo:

(34)

Sv =Av

=

- 1- A 1

Av = Av ( seg . 1 )

n -1

Puesto que, si v es autovector de S, cv también lo es, elegiremos como vector propio

de S aquél cv cuyo módulo valga la unidad: (cv)1(cv) =l. Esto es: c2·v1v = 1 = c2= 1/v1 V. De

tal manera que:

(vector

Tercero:

+1

propio ) s =

---=---

v

.¡vcv

( seg . 2)

Si w es un vector propio de Z con valor propio l, tendremos:

Zw=lw

- 1-AA1

w=l w

n -1 (ter . 1)

Igual que antes, elegimos como autovector de

Z

el vector:

(vector

Cuarto:

+1

propw )

z

= - - -w

)

w

1

w

(ter .

2)

Supóngase que conocemos l y w. Premultiplicando ambos miembros de (ter.l) por A t. obtendríamos:

= ( - 1- A 1

Aj (A 1

w) = l (A 1

w) n -1

=

S(A1w) =l (A1w)

(cuan . l)

Esto es, A'w será un vector propio de S con valor propio l. De donde concluimos que los valores propios de Z también son valores propios de S.

(35)

(vector

= (vector propw ) s

=

-

+1 A 1 w

=

J(

n -1) ( w1 Zw)

= -+1 A1w= 1 A1 ( +1

---w

l

J(n-1) 1 (w1w) J(n-1) l Jw1w .

(vector propio ) s =

J(

n _1

1) 1 A

1

( vector propw ) z

Quinto:

Sea Amax el mayor autovalor de S al que corresponde el autovector v m· Y sea lm:u

el mayor autovalor de Z al que corresponde

el

autovector wm. De (cuart. 1) tenemos:

Pero Amax es

el

valor propio más grande de S. Entonces:

(quinto.l)

Ahora, si premultiplicamos los dos miembros de (seg. 1) por A· , obtenemos:

A ( n

~

1 A 1 Av m) =A ( Amax v

,J

=

n

~

1 AA

1

(A V

,J

= Amax (A V

,J

=

Z (A V

,J

= Amax (A V

nJ

Así pues, Amax es valor propio de Z, pero si lm:u es su autovalor más grande, deberá

cumplirse:

Y, a la vista de (quinto.l) concluimos necesariamente que:

(36)

llegamos a la conclusión de que los n autovalores mayores de S coinciden con los valores

propios de Z.

Sexto:

Sabemos que matrices similares tienen la misma traza. Así, sr D5 y D2 son las representaciones diagonales de S y Z respactivamente, tenernos:

de donde:

n m

tr D5

=

L

l k +

L

l ,

=

tr S

k= 1 r =n •l

n

tr D2 =

L

l k = tr Z,

k=!

m

L

f r =tr S -tr Z.

r =n •!

Téngase en cuenta que l ¡ ~ Vi , ya que representa la varianza de la variable Yi. Por otra parte:

m

con lo cual

L

l, =0 . De donde se concluye que 1,=0 (r=n+ l, ... ,m). Esto quiere decir r =n • 1

(37)

APENDICE B

EVOLUCION TEMPORAL DE LAS

(38)

CUENCA DEL DUERO ANOMALIAS INVERNALES (xlOOO mm) 25.00

---due def -10 . 00

~

1

A

)

\

,._,

1 \

""'

(

\

1

1\

)

\

!\

Í\

1\

.

1

/

"'--A

\

1

1\

J

V

lj

~

1

\

1

V\

1\(

\

1

\

~

V

V

~

\

j

V

V

\

~ 20 . 00

15.00 10.00 5

. 00 0 . 00 -5 . 00 -15 . 00 -20 . 00 -25 . 00 .-

--F RNO

(39)

DATOS DE LA CUENCA DEL DUERO

PLOTEO Q-Q

3. 000 . + . . . . + . . . . + . .. . + . . . . + .. .. + . . . . + . . . . + .. . . + .. . . + . . . . + . . . . + . . . . +.

2.000+ +

1.000+ +

21 12 1 11 . 31

1

1 1

11

1 1

l .

+

+

o.

000++ . . . . + . . . . + . . . . + . . . 1+2 . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . ++

12

1 1 2

21 21

-1.000+ 2 + +

-2.000+

.1

1 1 1

2

+ +

.+ . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + ... . +.

-1.600 -0.800 0.000 0.800 1.600 2.400 3.200

-1.200 -0.400 0.400 1.200 2.000 2.800

media: 0.00

desviacion estandar: 7.18

DATOS NORMALIZADOS y ORDENADOS

3.16 2.27 l . 87 l . 58 l . 09

0.97 0.88 0.76 0.75 0.65

0.64 0.50 0 .46 0.43 0.42

0.31 0.20 0.18 0.08 0.08

0.07 0.06 0.05 -0.07 -0.25

-0.26 -0.42 -0.55 -0.55 -0.62

-0.66 -0.68 -0.69 -0.70 -0.81

-0.81 -0.86 -0.95 -0.98 -1.02

-1.06 -1.27 - l . 34 - l . 35 -1.58

ESTADISTICO W: 0 .9419

(40)

ANOMALIAS INVERNALES (xiOOO mm) 10 . 00 9 . 00 8 . 00

7.00 00 6. 5.00 4.00 3.00 00 2. 1.00 0.00 -1.00 -2.00 00 -3. -4.00 -5.00 .00 6- -7.00 -8.00 -9.00

-10.00

'

1

r---,

1

1

V

____.

1 1

/

1

1

lt..___J 50 . 00 55 . 00 CUENCA DEL EBRO

A

~

/l

r

1

\

1

1

\

1

1

"/\

1

1\

1

1

V _\

j

l

~

1

1

~

r

\

1

1

A

1

L

1\

1

1

1

\

1

1

}

~

\

1

1

/

V_

1/

1 M 60 . 00 65 . 00 70 . 00 75 . 00

-def

1

1

1

1

1

~

1 1

(41)

DATOS DE LA CUENCA DEL EBRO

PLOTEO Q-Q

3. 000 .. + . . . . + . . . . + . ... + . ... + .. .. + .. .. + . . .. + . .. . + . . . . + . . . . + . . . . + ... . +

1

2.000+ + +

1 1 1 2

1.000+ + 1 1 +

2 1

111

2 1

.1 21

o.

000+. + . . . . + . ... + . . . . + . . . . + ... 12 . . . . + . . . . + .. .. + . . . . + . . . . + . . . . + .. .. +

-1.000+

1 1 1

-2.000+

1

2

3 3

1 1

12 1

21

+ +

+ +

.. + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + .. .. + .. . . + . . . . + . . .. + . . . . +

-1.875 -1.125 -0.375 0.375 1.125 1.875 2.625

-1.500 -0.750 0.000 0.750 1.500 2.250

media: 0.00

desviacion estandar: 4.32

DATOS NORMALIZADOS Y ORDENADOS

2.30 1.34 0.74 0.40 0.06 -0.44 -0.62 -0.85 -1.21

l . 75

1.26 0.73 0.39 -0.02 -0.45 -0.72 -0.85 -1.25

ESTADISTICO W: 0.9707

l . 56

1.07 0.66 0.29 -0.02 -0.51 -0.75 -0.93

- l . 50

NIVEL DE SIGNIFICACION: 0.4402

l . 54

0.99 0.62 0.21 -0.10 -0.53 -0.78

- l . 03

- l . 64

1.36 0.74 0.60 0.20

-0.22

-0.61

-0.80

-1.16

(42)

CUENCA DEL GUADIANA ANOMALIAS INVERNALES (xiOOO mm)

-g ua.def 14 . -10 . 00 ~

!\

1

1

\

(\

1

~

1

\

\

1

\

1

\

p----41

'J

\

1

\

1

1\

1

\

1!

~

~

\

1

\1

\

1

\

J\

~

/

\1\

1\

\

1

"

\

1

\ /

_\

1

\

1

V \

1

\

\

1

u

\A

1

\

1

\

1

\

lj

V~

1

\

1

\

1

\

'

1

\

1

\

1

"""

\

1

~

1

.

12 . 00 10 . 00 8 . 00 6 . 00 4 . 00

2.00 0.00 -2.00 -4.00 -6.00 -8.00

(43)

DATOS DE LA CUENCA DEL GUADIANA

PLOTEO Q-Q

3. 000 .. + . . . . + . . . . + . . . . + . . . . + . . . . + .. . . + . . . . + .. . . + . . . . + . . . . + . . . . + . . . . +

2.000+

1.000+

+

+

111 .1 2

11 11

1

1 +

1

1 11

+

o

.

000+. + . . . . + . . . . + . . . . + ... . + ... 1+1 ... + . . . . + .. .. + . . . . + . . . . + . . . . + ... . +

-1.000+ 1

2 1 1

-2.000+ 1

11 11

2 1 2 1

+ +

+ +

.. + . .. . + .. .. + .. .. + . . . . + .. .. + .. . . + ... . + . . .. + . . .. + .. . . + . . .. + . . . . + -1.875 -1.125 -0.375 0.375 1.125 1.875 2.625

-1.500 -0.750 0.000 0.750 1.500 2.250 media: 0.00

desviacion estandar: 6.14

DATOS NORMALIZADOS y ORDENADOS

2.09 l . 87 l . 64 1.24 1.19 1.04 0.80 0.78 0.73 0.71 0.49 0.46 0.39 0.37 0.36 0 .11 0.07 -0.08 -0.17 -0.51

-0.51 -0.56 -0 .64 -0.69 -0.72 -0.79 -0.85 -0.91 -0.95 -1.15 -1.15 -1.38 -1.57 -1.70

ESTADISTICO W: 0.9653

(44)

ANOMALIAS INVERNALES ( xlOOO mm) )\

/

\ \

1 10 . 00 9 . 00

8.00 7.00 6.00 5.00 00 .4 3.00 2.00 1.00 0.00 -1.00

\

/1\

"

1

\

V\

1

\

-2 . 00 -3 . 00 -4 . 00

\

1

\

\

¡

\

_)

\ 1

V

V

-5 . 00 -6 . 00 -7 . 00 -8 . 00 -9 . 00 -10 . 00 50 . 00 55.00 CUENCA DEL LEVANTE-SURESTE

,ev

.

def

~

.

\

!\

\

!\

~

1

\

1\

'

1

\

1\

1

1

\

1

\

\

!::{\

/\

1

_\

}f

jj

1

~

\

1

1

\

1

1

¡.___¿

\

/

\1

\

\

1

\

1

\

~

1

\

~

L

V

..

\

1

\J

V

1

\

1

\

1 \

¡--,

~

._.

1

\

1

\

1

\

(

1

V

\/_

_\

/

~

\1

~

(45)

DATOS DE LA CUENCA DEL LEVANTE-SURESTE

PLOTEO Q-Q

3 . 000 . .. + .. . . + . ... + .. .. + .. .. + .... + . ... + . . . . + .... + . . .. + .. .. + . . . . + ...

2.000+ +

1.000+ +

31

1 2

11 1 12 11 1 2 1 1 1 + +

o

.

000+ .. + ... . + ... . + ... . + ... . + . . . 111 .. . + . . . . + .. .. + . . . . + .. .. + . ... + .. +

1 12.

-1.000+

-2 .000+

1 1 1

1

1 1

111

2

2 1 12

+ +

+ +

... + . . . . + .. .. + . . . . + ... . + . . . . + ... . + .. . . + . . . . + . ... + . . . . + . ... + .. .

-1.875 -1.125 -0.375 0.375 1.125 1.875

-1.500 -0.750 0.000 0.750 1.500 2.250

media: 0.00

desviacion estandar: 2.79

DATOS NORMALIZADOS Y ORDENADOS

2.03 1.26 0.76 0.42 0.19

-0 .11

-0.55

-0.88

- l . 42

l . 83

1.20 0.72 0.38 0.09 -0.17 -0.58 -0.94 -1.63

ESTADISTICO W: 0.9775

l . 61

1.14 0.62 0.29 -0.01 -0.35 -0.58 -0.95 -1.67

NIVEL DE SIGNIFICACION: 0.6688

l . 27

0.94 0.49 0.23 -0.08

-0.38

-0.70 -0.98 -1.76

l . 27

0.93 0.47 0.20 -0.11 -0.49 -0.81

- l . 23

(46)

CUENCA DEL NORTE ANOMALIAS INVERNALES ( x 1000 mm ) 25 . 00

,.._ rlD

r . de f -10 . 00 -15 . 00 20 . 00 X

1

\

1

\

J

\

.

\

1\

r

1

1

\

1

j\

\!\

1

\

1\

1\

1

N

\

11

\

r

\r

V \

1

\

j

V

'

1

\

¡

V\

r

\

~

V

'¡/

\)

V

\

1

\

1

\

1

\

-V

\

\

15.00 10.00 5

(47)

DATOS DE LA CUENCA NORTE

PLOTEO Q-Q

3 . 000+ . . . . + . . . . + .. . . + . . .. + . ... + . . .. + . . . . + .. . . + . . .. + . . . . + . . . . + . . . . +.

1

2.000+ + +

1

1

1 11

1.000+ + 11 +

21 21 1 2 112

o.

000+ .. . . + . ... + . . . . + . . .. + . . . . + .. 12+ . . . . + . . . . + . . . . + . . . . + . . . . + . . . . ++

21

22 21 111

-1.000+ 11 + +

-2.000+ 1 1 1 1 11 + + + .. .. + . . .. + . .. . + . ... + . . . . + . ... + . . . . + .. .. + . ... + ... . + ... . + . . . . +. -3.000 -2.000 -1.000 0.000 1.000 2.000 3.000

-2.500 -1.500 -0.500 0.500 1.500 2.500 media: 0.00

desviacion estandar: 8.57

DATOS NORMALIZADOS Y ORDENADOS

2.82 1.15 0.60 0.37 -0.13 -0.23

-0.42

-0.89

-1.09

2.51 0.95 0.55 0.20

-0.13

-0.25 -0.49 -0.90 -1.20

ESTADISTICO W: 0.9666

1.78 0.84 0.50 0.11 -0.14 -0.28 -0.58 -0.91 -1.22

NIVEL DE SIGNIFICACION: 0.3260

l . 37

0.67 0.49 0.06 -0.16 -0.31 -0.74 -0.99 -1.45 1.17 0.60 0.45

-0.04

-0.22

-0.38 -0.84 -1.03

(48)

ANOMAUAS INVERNALES (xlOOO mm) 5 . 0

4.5 4.00 3.5 3.00 5 .2 2.00 1.5 1.00 0.50 0.00 -0.50 -1.00 -1.50 -2.00 -2.50 -3.00 50 .-3 -4.00 -4.50 -5.00

\

/\

\

1\

1

\

\

1

\

1

\

\1

'

1

.

\

l

.

~ ~ .

1

1\

\

\

\

\

(49)

-DATOS DE LA CUENCA DEL PIRINEO ORIENTAL

PLOTEO Q-Q

3. 000+ . ... + . .. . + .. .. + . . . . + ... . + . . . . + . . . . + . ... + . . . . + . . .. + . . . . + .. .. + ..

2.000+ 1.000+ + + 12 121 12 2 12 1 1 2 1 l . + +

o.

000+ . ... + . . . . + ... . + .. 12+ . . . . + ... . + . . .. + ... . + .. .. + . .. . + . . . . + . . . . +. +

-1.000+

-2 .000+

.1 1 1 1 12 11 11 21

1 12 3

+ +

+ +

+ . .. . + . .. . + . . . . + .. . . + . .. . + . ... + ... . + . . .. + . .. . + . ... + . . . . + .. .. + ..

-1.500 -0.750 0.000 0.750 1.500 2.250 3.000

-1.125 -0.375 0.375 1.125 1 .875 2.625

media: 0.00

desviacion estandar: 1.28

DATOS NORMALIZADOS Y ORDENADOS

3.07 1.28 0.60 0.20 -0.05 -0.33 -0.59 -0.82 -1.04 2.23 0.78 0.47

0.12

-0.06 -0.38 -0.65 -0.88 -1.14

ESTADISTICO W: 0.9195

2.17 0.74 0.45 0.08 -0.09 -0.54 -0.73 -0.90

- l . 24

NIVEL DE SIGNIFICACION: 0.0043

l . 67

0.71 0.41 0.03 -0.18 -0.57

-0.75

-0.98 -1.28

l . 31

0.69 0.23 0.03 -0.31

-0 .59

-0.80

-1.00

(50)

ANOMALIAS INVERNALES (x!OOO mm) 18 . 00 16 . 00 14 . 00

12.00 10.00 8

.

00

6.00 4.00 2.00 0.00 00 .-2 -4.00 -6.00 -8.00

-10 . 00 -12 . 00 -14 . 00

-16.00 -18

.

00

-

1

¡{

-~

1

\

1

\

/1\

1

1

\

1

1\

1

\_J

\

)

\ 1

\

V

\l

,...__

1

/

1

1

(51)

DATOS DE LA CUENCA DEL GUADALQUIVIR

PLOTEO Q-Q

3. 000 .. + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . +

2.000+ +

1.000+ +

111

4

21

1 11

1 11 2 1 1 1 + +

o.

000+. + . . .. + . . . . + . . . . + . . . . 1 .. . 11 . . . . + . . . . + .. .. + . . . . + . . .. + ... . + . . . . +

-1.000+

1

-2 .000+ 1

21 21

1 1

2 1 1 211 12 + + + + .. + . ... + . . . . + . . . . + . . . . + . . .. + . . . . + . . . . + . . . . + . . . . + . . . . + . . . . + . ... + -1.875 -1.125 -0.375 0.375 1.125 1.875 2.625

-1.500 -0.750 0.000 0.750 1.500 2.250

media: 0.00

desviacion estandar: 7.13

DATOS NORMALIZADOS Y ORDENADOS

2.42 1.28 0.91 0.36 0.19 -0.44 -0.67 -0.87 -1.17

l . 50 1.25 0.73 0.33 0.01 -0.51 -0.72 -0.87 -1.19

ESTADISTICO W: 0.9565

1.49

l . 25

0.70 0.23 -0.08 -0.53 -0.79 -0.93 -1.22

NIVEL DE SIGNIFICACION: 0.1413

1.44 1.14 0.69 0.21 -0.35 -0.57 -0.79 -1.12 -1.50 1.36

l . 05

Referencias

Documento similar

Volviendo a la jurisprudencia del Tribunal de Justicia, conviene recor- dar que, con el tiempo, este órgano se vio en la necesidad de determinar si los actos de los Estados

A partir de los resultados de este análisis en los que la entrevistadora es la protagonista frente a los entrevistados, la información política veraz, que se supone que

&#34;No porque las dos, que vinieron de Valencia, no merecieran ese favor, pues eran entrambas de tan grande espíritu […] La razón porque no vió Coronas para ellas, sería

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

El nuevo Decreto reforzaba el poder militar al asumir el Comandante General del Reino Tserclaes de Tilly todos los poderes –militar, político, económico y gubernativo–; ampliaba

The part I assessment is coordinated involving all MSCs and led by the RMS who prepares a draft assessment report, sends the request for information (RFI) with considerations,

En cuarto lugar, se establecen unos medios para la actuación de re- fuerzo de la Cohesión (conducción y coordinación de las políticas eco- nómicas nacionales, políticas y acciones

b) El Tribunal Constitucional se encuadra dentro de una organiza- ción jurídico constitucional que asume la supremacía de los dere- chos fundamentales y que reconoce la separación