Tema 4: VARIABLE
ALEATORIA N-DIMENSIONAL
Carlos Alberola López
Lab. Procesado de Imagen, ETSI Telecomunicación Despacho 2D014
caralb@tel.uva.es, jcasasec@tel.uva.es,
Concepto de VA N-dimensional
X
Y
(
X
,
Y
)
iε
Extensión a composición de N experimentos(
X
X
X
N)
X
=
1,
2,
L
,
Conceptos básicos
• Función de distribución: se define como la probabilidad de la intersección de N sucesos:
• Función de densidad
• Cálculo de una probabilidad en espacio N-dimensional
• Reducción del número de variables en las funciones:
• Función de distribución: evaluar en infinito las variables a eliminar
• Función de densidad: integrar en el recorrido de las variables a eliminar
• Independencia de variables: factorización de funciones de caracterización
• N funciones de N VAs: Teorema fundamental: • Si partimos de una situación del tipo:
• Podemos caracterizar la VA de salida mediante:
Conceptos básicos
(
)
(
)
(
N)
N N N Ng
g
g
X
X
X
Y
X
X
X
Y
X
X
X
Y
,
,
,
,
,
,
,
,
,
2 1 2 1 2 2 2 1 1 1L
M
M
L
L
=
=
=
• Respecto de funciones condicionadas:
• Recordemos la relación vista en el caso 2D:
• Y recordemos la regla de la cadena para probabilidades condicionadas
• O bien
• Teniendo esto presente, podemos escribir:
• O bien
• Existen pues múltiples posibilidades
Conceptos básicos
(
x
x
x
N)
f
(
x
x
x
x
N)
f
(
x
x
N)
•Y siguiendo esta pauta es sencillo eliminar la dependencia de variables en las funciones condicionadas:
•Variables a la izquierda del condicionante: integrar con respecto a ellas.
•Variables a la derecha del condicionante: multiplicar por la función de densidad de esa variable condicionada a las demás e integrar con respecto a ella.
•Estimación de mínimo error cuadrático medio: •El estimador lineal se obtiene resolviendo un problema de optimización.
•El estimador no lineal es la extensión del
resultado visto en el capítulo anterior, es decir, la esperanza de la variable a estimar
condicionada a las observaciones:
•Los conceptos de correlación y covarianza siguen estando
presentes. Tales parámetros miden la relación cruzada entre dos variables (no entre tres o más).
•Cuando se tienen N variables hay que especificar entre qué dos variables (de las N) se están especificando tales parámetros. •Es cómodo emplear operadores vectoriales y/o matriciales para ordenar esta información.
Esperanzas matemáticas
•La ortogonalidad y/o la incorrelación son propiedades cómodas para cálculos de esperanzas en las que haya N variables
involucradas. Por ejemplo, sea . Su varianza es:
Esperanzas matemáticas
∑
= = N i i 1 X Z•Entonces:
Esperanzas matemáticas
(
)
{
2}
Z Z−η E•Las variables complejas son una combinación lineal de variables reales:
•Por tanto:
•Respecto de la varianza, en el caso complejo tenemos que encontrar un radio de dispersión. Por ello se define:
Variables complejas
Y
X
Z
=
+
j
{ } {
Z
E
X
j
Y
} { }
E
X
jE
{ }
Y
E
=
+
=
+
•La esperanza de una función de la variable compleja puede escribirse como hemos visto para el caso de una función de 2 variables aleatorias:
•Independencia: si dos variables complejas son independientes, las componentes cartesianas son independientes entre sí:
Variables complejas
2 2 2 1 1 1Y
X
Z
Y
X
Z
j
j
+
=
+
=
independientes•Al respecto de correlación y covarianza:
•El orden de las variables por tanto ahora es importante:
Teoremas asintóticos
•Teorema del Límite Central: la suma de variables
independientes e indénticamente distribuidas (IID) tiende a tener una distribución gaussiana.
•El teorema también es cierto cuando de las VAs son independientes y tienen distribuciones similares.
Teoremas asintóticos
•Para VAs continuas y para VAs discretas con valores equiespaciados también se observa que:
Teoremas asintóticos
( )
0,1
U
~
iX
1X
X
1+
X
2∑
= 5 1 i iX
∑
= 10 1 i iX
Teoremas asintóticos
•Teorema de Demoivre-Laplace: caso particular del Teorema del Límite Central para el caso de VAs de Bernouilli IID:
1
>>
N
con(
)
(
)
⎩
⎨
⎧
=
=
=
=
=
p
P
q
P
i i i1
1
0
0
X
X
X
(
N,
p
)
B
~
X
2Teoremas asintóticos
•Ley de los Grandes Números: convergencia de la frecuencia relativa a la probabilidad axiomática. Formalmente:
•con
( )
( )
A p P N A A r = = N fTeoremas asintóticos
•Ley de los Grandes Números. Demostración:
Teoremas asintóticos
•Por tanto:
• La expresión
sirve para hallar el valor de N que hace falta para caer dentro de un intervalo del valor p con una probabilidad deseada.
Variables conjuntamente gaussianas
•N VAs son conjuntamente gaussianas si la función de densidad de las mismas se puede escribir
1xN
Nx1 NxN
•Si N VAs son conjuntamente gaussianas:
•Que cada una de ellas es marginalmente gaussiana, con los parámetros (media y varianza) según indica el vector de medias y la matriz de covarianza.
•Que cada subconjunto de k<N variables son conjuntamente gaussianas.
•Que la función de densidad de k variables condicionadas a las N-k restantes es la correspondiente a una variable
conjuntamente gaussiana.
•IMPORTANTE: La transformación lineal de VAs conjuntamente gaussianas es conjuntamente. gaussiana!!!!!
•Partimos de donde la matriz de transformación es de rango completo. Entonces, aplicando el teorema fundamental:
•Operando y agrupando términos matriciales en la matriz se llega fácilmente al resultado
X
Y
=
A
Variables conjuntamente gaussianas
•Si N VAs son conjuntamente gaussianas: •Incorrelación implica independencia
Variables conjuntamente gaussianas
2 2 2
0
0
0
0
0
0
0
0
2 1 NC
X X X Xσ
σ
σ
L
O
M
M
L
=
•Particularización de lo anterior para N=2. La función de densidad resulta ser:
•Si entonces los términos cruzados desaparecen y la función de densidad se factoriza en el producto de las marginales (luego, de nuevo, incorrelación implica independencia)
Gaussiana Bivariante
0
=
XY
b) Las variables son gaussianas correladas. Por ello la variable bidimensional es una gaussiana bivariante. Nos piden:
( )
{ }
x
E
x
y
f
Y
Y Para ello( )
( )
( )
x
f
y
x
f
x
y
f
X XY Y,
=
( )
2 2 2 2 2 2 2 2 2 2 1 2 1 2 22
1
1
2
1
σ σ σ ρ σ ρπ
σ
ρ
πσ
x xy y xe
e
⎥ ⎥ ⎦ ⎤ ⎢ ⎢ ⎣ ⎡ + − − −−
=
Introduciendo el segundo factor:
( )
(
)
( )
( )
⎥⎥⎦ ⎤ ⎢ ⎢ ⎣ ⎡ + − − − − −−
=
2 2 2 2 2 2 2 2 2 2 1 1 2 1 21
2
1
σ σ ρ σ ρ σ ρρ
π
σ
y xy x xe
x
y
f
Y resulta( )
(
)
( )
⎥⎥⎦ ⎤ ⎢ ⎢ ⎣ ⎡ + − − −−
=
2 2 2 2 2 2 2 2 1 2 1 21
2
1
σ σ ρ σ ρ ρρ
π
σ
y xy xe
x
y
f
Y( )
(
)
( )
(
2)
2 2 1 2 1 22
1
1
ρ σρπ
ρ
σ
x ye
x
y
f
− − −−
=
Y es decir(
2)
0 0~
N
x
,
1
-x
ρ
σ
ρ
=
X
Y
Según enunciadoSolución: a) R
( )
( )
∫
∫
− −⎟
⎠
⎞
⎜
⎝
⎛
=
=
R y x Rdxdy
e
e
dxdy
y
x
f
R
P
2 2 2 2 2 2 22
1
,
σ σπ
σ
XY Si ahora hacemos( )
( )
θ
θ
sin
cos
r
y
r
x
=
=
Nos queda( )
∫ ∫
⎟
−=
∫
∫
−⎠
⎞
⎜
⎝
⎛
=
4 1 0 2 2 2 0 4 1 0 2 0 2 2 2 2 2 22
1
2
1
dr
e
r
d
rdrd
e
R
P
r r σ π π σσ
θ
π
θ
π
σ
( )
2 2 2 2 2 32 1 4 1 0 2 4 1 0 2 2 2 02
1
1
σ σ σ πσ
θ
π
− − −−
=
−
=
=
∫
d
∫
r
e
dr
e
e
R
P
r rentonces, despejando tenemos