Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

34  Download (0)

Full text

(1)

Tema 4: VARIABLE

ALEATORIA N-DIMENSIONAL

Carlos Alberola López

Lab. Procesado de Imagen, ETSI Telecomunicación Despacho 2D014

caralb@tel.uva.es, jcasasec@tel.uva.es,

(2)

Concepto de VA N-dimensional

X

Y

(

X

,

Y

)

i

ε

Extensión a composición de N experimentos

(

X

X

X

N

)

X

=

1

,

2

,

L

,

(3)

Conceptos básicos

• Función de distribución: se define como la probabilidad de la intersección de N sucesos:

• Función de densidad

• Cálculo de una probabilidad en espacio N-dimensional

(4)

• Reducción del número de variables en las funciones:

• Función de distribución: evaluar en infinito las variables a eliminar

• Función de densidad: integrar en el recorrido de las variables a eliminar

• Independencia de variables: factorización de funciones de caracterización

(5)

• N funciones de N VAs: Teorema fundamental: • Si partimos de una situación del tipo:

• Podemos caracterizar la VA de salida mediante:

Conceptos básicos

(

)

(

)

(

N

)

N N N N

g

g

g

X

X

X

Y

X

X

X

Y

X

X

X

Y

,

,

,

,

,

,

,

,

,

2 1 2 1 2 2 2 1 1 1

L

M

M

L

L

=

=

=

(6)

• Respecto de funciones condicionadas:

• Recordemos la relación vista en el caso 2D:

• Y recordemos la regla de la cadena para probabilidades condicionadas

• O bien

(7)

• Teniendo esto presente, podemos escribir:

• O bien

• Existen pues múltiples posibilidades

Conceptos básicos

(

x

x

x

N

)

f

(

x

x

x

x

N

)

f

(

x

x

N

)

(8)

•Y siguiendo esta pauta es sencillo eliminar la dependencia de variables en las funciones condicionadas:

Variables a la izquierda del condicionante: integrar con respecto a ellas.

Variables a la derecha del condicionante: multiplicar por la función de densidad de esa variable condicionada a las demás e integrar con respecto a ella.

(9)

•Estimación de mínimo error cuadrático medio: •El estimador lineal se obtiene resolviendo un problema de optimización.

•El estimador no lineal es la extensión del

resultado visto en el capítulo anterior, es decir, la esperanza de la variable a estimar

condicionada a las observaciones:

(10)

•Los conceptos de correlación y covarianza siguen estando

presentes. Tales parámetros miden la relación cruzada entre dos variables (no entre tres o más).

•Cuando se tienen N variables hay que especificar entre qué dos variables (de las N) se están especificando tales parámetros. •Es cómodo emplear operadores vectoriales y/o matriciales para ordenar esta información.

Esperanzas matemáticas

(11)

•La ortogonalidad y/o la incorrelación son propiedades cómodas para cálculos de esperanzas en las que haya N variables

involucradas. Por ejemplo, sea . Su varianza es:

Esperanzas matemáticas

= = N i i 1 X Z

(12)

•Entonces:

Esperanzas matemáticas

(

)

{

2

}

Z Z−η E

(13)

•Las variables complejas son una combinación lineal de variables reales:

•Por tanto:

•Respecto de la varianza, en el caso complejo tenemos que encontrar un radio de dispersión. Por ello se define:

Variables complejas

Y

X

Z

=

+

j

{ } {

Z

E

X

j

Y

} { }

E

X

jE

{ }

Y

E

=

+

=

+

(14)

•La esperanza de una función de la variable compleja puede escribirse como hemos visto para el caso de una función de 2 variables aleatorias:

•Independencia: si dos variables complejas son independientes, las componentes cartesianas son independientes entre sí:

Variables complejas

2 2 2 1 1 1

Y

X

Z

Y

X

Z

j

j

+

=

+

=

independientes

(15)

•Al respecto de correlación y covarianza:

•El orden de las variables por tanto ahora es importante:

(16)

Teoremas asintóticos

Teorema del Límite Central: la suma de variables

independientes e indénticamente distribuidas (IID) tiende a tener una distribución gaussiana.

•El teorema también es cierto cuando de las VAs son independientes y tienen distribuciones similares.

(17)

Teoremas asintóticos

•Para VAs continuas y para VAs discretas con valores equiespaciados también se observa que:

(18)

Teoremas asintóticos

( )

0,1

U

~

i

X

1

X

X

1

+

X

2

= 5 1 i i

X

= 10 1 i i

X

(19)

Teoremas asintóticos

Teorema de Demoivre-Laplace: caso particular del Teorema del Límite Central para el caso de VAs de Bernouilli IID:

1

>>

N

con

(

)

(

)

=

=

=

=

=

p

P

q

P

i i i

1

1

0

0

X

X

X

(

N,

p

)

B

~

X

2

(20)

Teoremas asintóticos

Ley de los Grandes Números: convergencia de la frecuencia relativa a la probabilidad axiomática. Formalmente:

•con

( )

( )

A p P N A A r = = N f

(21)

Teoremas asintóticos

Ley de los Grandes Números. Demostración:

(22)

Teoremas asintóticos

•Por tanto:

• La expresión

sirve para hallar el valor de N que hace falta para caer dentro de un intervalo del valor p con una probabilidad deseada.

(23)

Variables conjuntamente gaussianas

•N VAs son conjuntamente gaussianas si la función de densidad de las mismas se puede escribir

1xN

Nx1 NxN

(24)

•Si N VAs son conjuntamente gaussianas:

•Que cada una de ellas es marginalmente gaussiana, con los parámetros (media y varianza) según indica el vector de medias y la matriz de covarianza.

•Que cada subconjunto de k<N variables son conjuntamente gaussianas.

•Que la función de densidad de k variables condicionadas a las N-k restantes es la correspondiente a una variable

conjuntamente gaussiana.

(25)

IMPORTANTE: La transformación lineal de VAs conjuntamente gaussianas es conjuntamente. gaussiana!!!!!

•Partimos de donde la matriz de transformación es de rango completo. Entonces, aplicando el teorema fundamental:

•Operando y agrupando términos matriciales en la matriz se llega fácilmente al resultado

X

Y

=

A

Variables conjuntamente gaussianas

(26)

•Si N VAs son conjuntamente gaussianas: •Incorrelación implica independencia

Variables conjuntamente gaussianas

2 2 2

0

0

0

0

0

0

0

0

2 1 N

C

X X X X

σ

σ

σ

L

O

M

M

L

=

(27)

•Particularización de lo anterior para N=2. La función de densidad resulta ser:

•Si entonces los términos cruzados desaparecen y la función de densidad se factoriza en el producto de las marginales (luego, de nuevo, incorrelación implica independencia)

Gaussiana Bivariante

0

=

XY

(28)
(29)

b) Las variables son gaussianas correladas. Por ello la variable bidimensional es una gaussiana bivariante. Nos piden:

( )

{ }

x

E

x

y

f

Y

Y Para ello

( )

( )

( )

x

f

y

x

f

x

y

f

X XY Y

,

=

( )

2 2 2 2 2 2 2 2 2 2 1 2 1 2 2

2

1

1

2

1

σ σ σ ρ σ ρ

π

σ

ρ

πσ

x xy y x

e

e

⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ + − − −

=

(30)

Introduciendo el segundo factor:

( )

(

)

( )

( )

⎥⎥ ⎤ ⎢ ⎢ ⎣ ⎡ + − − − − −

=

2 2 2 2 2 2 2 2 2 2 1 1 2 1 2

1

2

1

σ σ ρ σ ρ σ ρ

ρ

π

σ

y xy x x

e

x

y

f

Y resulta

( )

(

)

( )

⎥⎥ ⎤ ⎢ ⎢ ⎣ ⎡ + − − −

=

2 2 2 2 2 2 2 2 1 2 1 2

1

2

1

σ σ ρ σ ρ ρ

ρ

π

σ

y xy x

e

x

y

f

Y

( )

(

)

( )

(

2

)

2 2 1 2 1 2

2

1

1

ρ σρ

π

ρ

σ

x y

e

x

y

f

− − −

=

Y es decir

(

2

)

0 0

~

N

x

,

1

-x

ρ

σ

ρ

=

X

Y

Según enunciado

(31)

Solución: a) R

( )

( )

− −

=

=

R y x R

dxdy

e

e

dxdy

y

x

f

R

P

2 2 2 2 2 2 2

2

1

,

σ σ

π

σ

XY Si ahora hacemos

( )

( )

θ

θ

sin

cos

r

y

r

x

=

=

Nos queda

( )

∫ ∫

=

=

4 1 0 2 2 2 0 4 1 0 2 0 2 2 2 2 2 2

2

1

2

1

dr

e

r

d

rdrd

e

R

P

r r σ π π σ

σ

θ

π

θ

π

σ

(32)

( )

2 2 2 2 2 32 1 4 1 0 2 4 1 0 2 2 2 0

2

1

1

σ σ σ π

σ

θ

π

− − −

=

=

=

d

r

e

dr

e

e

R

P

r r

entonces, despejando tenemos

( )

1

32 2

0

.

7

1

=

e

− σ

R

P

Si ha de verificarse que:

1611

.

0

σ

(33)
(34)

Figure

Updating...

References

Related subjects :